repères - La Jaune et la Rouge

Transcription

repères - La Jaune et la Rouge
MAI 2012 - 8 e - n° 675
REVUE MENSUELLE DE L’ASSOCIATION DES ANCIENS ÉLÈVES ET DIPLÔMÉS DE L’ÉCOLE
dOSSIER
ÉcoNoMIE
NuMÉRIQuE
lEs succès
➔ Big data,
un nouvel or noir
➔ Vers un
nomadisme
des identités ?
➔ Protéger
les données
personnelles
Focus
G R O U P E X - PAY S - B A S : L A T U L I P E N O I R E
JR675-COUV.indd 1
26/04/12 06:57
P.2-3 Sommaire
27/04/12
6:56
Page 2
Sommaire
GRAND ANGLE
mai 2012 – n° 675
5 > Éditorial
Aider l’École à aller de l’avant
par Laurent Billès-Garabédian (83)
Économie numérique : les succès
6 > Introduction
par Jean-Pierre Dardayrol (72)
7 > Résumé des articles
8 > Entreprendre dans le logiciel
par Pierre Haren (73)
10 > La fiscalité au cœur des stratégies
par Loïc Rivière
13 > Les données massives du big data, un nouvel or noir
par Michel Crestin et Hervé Dhelin
16 > Qualité des données et échanges d’affaires
par Pierre Georget
18 > Comprendre la volatilité des marchés financiers
par Patrice Fontaine et Bernard Rapacchi
20 > Riposter contre la cybercriminalité
par Adeline Champagnat
22 > Smart grids : le logiciel au cœur des systèmes électriques
par Hervé Rannou
26 > L’entreprise doit protéger les données personnelles
par Jean-Marc Goetz
28 > Nomadisme informatique, nomadisme des identités ?
par Philippe Laurier et Claire Dufetrelle (2009)
32 > Open savoir-faire, une innovation radicale inspirée de l’open source
par Tru Dô-Khac (79)
34 > Nouveaux modes de paiement : quatre prévisions pour 2012
par Alexandre Hoffmann
36 > Stratégies pour l’innovation
par Sandrine Murcia
38 > Logistique et livraison, clés du e-commerce
POUR EN
par François Copigneaux
SAVOIR +
Rendez-vous sur le site de La Jaune et la Rouge pour accéder aux informations complémentaires,
réagir sur les forums et consulter les numéros déjà parus. http://www.lajauneetlarouge.com
Courriel : [email protected]
P.2-3 Sommaire
27/04/12
6:56
Page 3
EXPRESSIONS
Revue mensuelle de
l’Association des anciens élèves et diplômés
de l’École polytechnique
PORTRAIT
42 > Louis Vicat (1786-1861)
Le père d’un nouvel art de construire
par Anne Bernard-Gély (74) et Laurent Izoret
RÉDACTION EN CHEF :
Jean-Marc CHABANAS (58), Hubert JACQUET (64)
IN MEMORIAM
SECRÉTAIRE DE RÉDACTION :
Anne-Béatrice MULLER
ASSISTANTE : Françoise BOURRIGAULT
46 > Robert Bonnal (36)
Apôtre de la coopération française
par Jacques Bourdillon (45)
RENCONTRES
47 > Sept promotions sous le signe des neutrons
par Daniel Suchet (2008)
FORUM SOCIAL
48 > Composer des classes raisonnablement hétérogènes
par François Carn
ANNIVERSAIRE HENRI POINCARÉ
61 > Hommage numismatique
par Claude Gondard (65)
50 > Michel Bertrandias (81), président du groupe X-Pays-Bas
« Un réseau convivial d’échanges culturels »
propos recueillis par Jean-Marc Chabanas (58)
COMITÉ ÉDITORIAL :
Christian MARBACH (56), président,
Pierre LASZLO, Philippe LAURIER,
Denys ROBERT (E.P.), JEAN DESCHARD (E.P.),
Gérard PILÉ (41), Maurice BERNARD (48),
Serge RAFFET (50), Jean DUQUESNE (52),
Michel HENRY (53), Michel GÉRARD (55),
Charles-Henri PIN (56), Jacques-Charles FLANDIN (59),
Jacques PARENT (61), François Xavier MARTIN (63),
Gérard BLANC (68), Alexandre MOATTI (78),
Jérôme DUPONT de DINECHIN (84)
Jean-Philippe PAPILLON (90)
ABONNEMENTS, ANNUAIRE, COTISATIONS :
Tél. : 01.56.81.11.05 ou 01.56.81.11.15
[email protected]
COMMUNICATION : Régine LOMBARD
[email protected]
ANNONCES IMMOBILIÈRES :
Tél. : 01.56.81.11.11 – Fax : 01.56.81.11.01
BUREAU DES CARRIÈRES :
Tél. : 01.56.81.11.14 – Fax : 01.56.81.11.03
P OINT G AMMA
53 > Le 2 juin, je serai au Point Gamma
par Pauline Métivier (2010)
57 > Notice sur la Fête
Extraits d’une Notice rédigée en 1901
58 > Éclipse de soleil
ARTS,
ÉDITEUR :
Association des anciens élèves et diplômés
de l’École polytechnique
5, rue Descartes, 75005 Paris
Tél. : 01.56.81.11.00
Courriel : [email protected]
Fax : 01.56.81.11.01
WEBMESTRE : Jean-Pierre HENRY (64)
[email protected]
X-Pays-Bas : la tulipe noire
Extraits d’un article du début du
CORRECTRICE : Catherine AUGÉ
RÉDACTION DE LA JAUNE ET LA ROUGE :
5, rue Descartes, 75005 Paris
Tél. : 01.56.81.11.13
Courriel : [email protected]
FOCUS
TARIFS 2012 :
Prix du numéro : 8 euros
Abonnements : 10 numéros par an, 40 euros
Promos 2000 à 2003 : 30 euros
Promos postérieures : 01.56.81.11.15
PUBLICITÉ :
FFE, 15, rue des Sablons – 75116 Paris
Tél. : 01.53.36.20.40
CONCEPTION, RÉALISATION : KEY GRAPHIC
XXe
siècle
LETTRES ET SCIENCES
62 > Musique en images par Marc Darmon (83)
Récréations scientifiques par Jean Moreau de Saint-Martin (56)
Bridge par Gaston Méjane (62)
63 > Discographie par Jean Salmona (56)
64 > Magnan par Lady GastronomiX
Livres
66 > Solutions des Récréations scientifiques et du Bridge
VIE
DIRECTEUR DE LA PUBLICATION :
Laurent BILLÈS-GARABÉDIAN (83)
DES ENTREPRISES
67 > Dossier spécial réalisé par FFE
pour le service commercial de La Jaune et la Rouge
IMPRESSION : GROUPE MAURY IMPRIMEUR
COMMISSION PARITAIRE n° 0114 G 84221
ISSN n° 0021-5554
TIRAGE : 11 750 exemplaires
N ° 675 – MAI 2012
PHOTO DE COUVERTURE :
© ISTOCK
PAG
E 85
RAPPORT MORAL
SUR L’ANNÉE 2011
INTRODUCTION
X.org ; dossiers
thématiques de
La
Sur plus de 20 000
Jaune et la Rouge
– l’agrément par
élèves, étudiants
l’Assemblée géné; participation au
,
anciens élèves et
groupe «Grandes
rale de cinq nouveaux
diplômés de l’École
Écoles au féminin»
groupes poly;
polytechnique près
liens avec la Kès
techniciens : X-Tunisie
des élèves ; liens
de 70 % font par, X-Suisse, Xtie de l’Association,
avec la FX…
Œnologie, X-Chili
et X-Start up. Et
ce qui place l’AX
la
au premier rang
– enfin, analyses
mise en place d’un
parmi
, propositi
groupe de réflexion
tions d’anciens élèves les associacipations à des groupes ons, partiau niveau du Conseil
comparables.
de l’AX sur son
de travail, au
On constate cependan
sein de la commun
articulation avec les
auté polytechnit une baisse des
groupes X et l’animembres cotisants
cienne ou de façon
mation de ceux-ci
. Des efforts contiplus élargie, sur les
;
nuent d’être menés
missions de l’École
– la décision d’une
pour rapprocher
et sur son organigestion plus prude l’Association
sation, de sorte que
dentiell e des actifs
les jeunes
l’École s’adapte
financie rs de
et mieux la faire connaître anciens,
en permanence aux
l’Association ;
besoins
des élèves
de l’écoet étudiants présents
nomie et à ceux de
– la participation très
la Nation.
sur
active et vigilante
Les activités de l’Associa le Plateau.
Parmi les tendance
de l’AX, notamm
ent au niveau de
s et réalisations de
tion, qui sont
sa
détaillées ci-après
2011, quelques points
présidence, quant
, se répartissent
aux réflexions sur
sont à souligner :
en trois grandes
– les nombreuses
l’évolution de l’École,
familles
dispositions prises
à travers : 1) les
– d’une part des actions :
en réaction au contexte
réunions de travail
avec l’École, la FX,
de solidarité,
de difficultés
menées principal
économ iques :
la Fondation de coopérat
ement à l’attentio
ainsi, la Caisse
ion scientide
n
des élèves, anciens
Secours, rebaptisé
fique
de
Saclay,
le ministère
e Caisse de Solidarité
élèves et diplômés
,
,
qu’ils soient ou non
a étendu son soutien
et le cabinet du Premier de tutelle
adhérents de l’AX,
à de
ministre ; 2)
mais aussi au profit
rades provisoirement jeunes camala résolution importan
de leurs proches
en difficulté ; le
te du Conseil de
:
dons, prêts et autres
Bureau des Carrières
l’AX du 5 juillet 2011
appuis de la Caisse
précisant la posia considérablede Secours; conseils
ment développé
tion de l’AX sur les
sa communication
et séances de forobjectifs de l’École
mation du Bureau
dans La Jaune et la
et l’articulation avec
des Carrières...
Rouge
les projets de cam– d’autre part des
des nouveaux utilisateu et le nombre
pus de Saclay et 3)
initiatives destinées
le groupe de travail
rs de ses serà resserrer les liens
vices a fortement
AX-FX, incluant
augmenté ;
des membres de
entre les membres
la
de l’Associ ation
– l’organisation de
direction générale
et à mieux faire
la « journée polyde l’École, présidé
connaître les points
technicienne» annuelle
par François LUREAU
forts distinctifs
.
lors de l’AG du
de notre commun
14 juin 2011 au cours
Toutes ces activités
auté, tout en contrisont décrites plus
de laquelle ont
buant à l’informa
été organisés une
précisément dans
tion et
table ronde « Les
les trois chapitres
sur de grandes question à la réflexion
polytechniciens et
qui suivent. Par
ailleurs, quelque
l’entreprenariat »
s
l’ensemble de la société. s intéressant
et un atelier « Groupes
informations intéressa
Par exemple :
nt les membres
contacts internatio
et au cours de laquelle régionaux »,
de
l’Association, en particulie
naux et accueil des
a été remis le
r un point
élèves étrangers
prix Dargelos ;
sur le développement
; élaboration d’une
de l’École et un
politique de commun
– la poursuite de
compte rendu
la rénovation de
de l’action de
ication; analyses
la
la
portant sur la mission
version électron
Fondation de l’X,
ique de La Jaune
sont rassemblées
et
regard des besoins de l’École au
la Rouge ;
dans une annexe.
de la Nation ;
annuaire et outils
– la mise en place
de réseau inford’un groupe de
matique en liaison
réflexion X-Jeunes
Le Rapport complet
avec l’Association
au sein du Conseil
avec
ses annexes est
de l’AX ;
consultable sur le site
Internet de l’Associatio
http://www.polytech
n:
niciens.com
LA JAUNE ET LA ROUGE
• MAI 2012
➤
85
P.5 Edito-Billès-Garabédian
27/04/12
7:04
Page 5
ÉDITORIAL
D.R.
par Laurent Billès-Garabédian (83),
président de l’AX
Aider l’École à aller de l’avant
Notre École est au cœur de réflexions importantes pour sa stratégie et sa gouvernance, en tant qu’École
polytechnique et dans le cadre de l’université Paris-Saclay. Notre Association se tient aux côtés de l’École
et souhaite l’aider à rester visionnaire et force de proposition pour son évolution et soutient la formidable opportunité d’avoir un nouveau mode de gouvernance avec un président à temps plein et un directeur
général. Pour l’appuyer, le Conseil de l’AX a voté le 11 avril 2012 à l’unanimité le texte suivant qu’il a partagé avec le Conseil d’administration de l’École.
■ Dans la continuité de la motion votée à l’unanimité par son Conseil d’administration du 5 juillet 2011, l’AX
affirme à nouveau que l’École polytechnique est au service de l’intérêt général de la Nation, de son économie,
de ses intérêts stratégiques et de la Défense.
Il est donc nécessaire qu’elle conserve de manière pérenne sa spécificité et son identité, c’est-à-dire son statut d’établissement public et son rattachement au ministère de la Défense. Dans cet esprit, elle se réjouit de
la signature avec le ministre de la Défense le 21 mars dernier du contrat d’objectifs et de performance pour
la période 2012-2016 dont elle soutient les objectifs et les orientations.
La mission de l’École est de former des ingénieurs et des scientifiques de haut niveau destinés aux corps de
l’État, à l’économie française, à son industrie et à son rayonnement international. L’AX tient tout particulièrement au modèle original de formation de l’École, pluridisciplinaire, associant science, ingénierie et
formation humaine avec une double vocation d’interdisciplinarité et d’innovation, assurant une forte intégration entre ses trois cycles de formation et avec son centre de recherche. L’École doit poursuivre la
mise en œuvre déterminée de son évolution engagée avec la réforme X2000, essentiellement son ouverture vers l’international et vers les entreprises et la spécialisation de ses élèves en partenariat avec de
nombreuses institutions françaises et étrangères.
L’AX soutient la contribution active de l’École polytechnique à la création de l’université de Paris-Saclay
et la poursuite des nombreuses coopérations déjà largement amorcées tant avec l’Université, qu’avec les
centres de recherche et qu’avec les grandes écoles présentes et à venir sur son campus à Saclay. L’AX contribuera à bâtir une gouvernance efficace de cet ensemble. Mais elle demande à l’École polytechnique de
faire reconnaître et de préserver les spécificités et les orientations évoquées ci-dessus. À cet effet, les discussions en cours pour contractualiser, dans les années à venir, les engagements pris par la Fondation
de coopération scientifique exigent une vraie concertation dans les formes requises et une validation formelle par le Conseil d’administration de l’École.
Consciente de l’enjeu que représente l’université de Paris-Saclay pour la France et des atouts qu’apportent à cet ensemble la notoriété existante et les spécificités de l’École polytechnique, la communauté
polytechnicienne représentée par l’AX entend être un soutien actif et vigilant pour aider l’École à se renforcer et à jouer le rôle moteur qui doit être le sien, tout particulièrement auprès des autres écoles d’ingénieurs qui sont et seront sur le campus de Saclay. Elle souhaite en particulier que les grandes lignes
de gouvernance de l’université de Paris-Saclay qui s’esquissent pour l’horizon 2016 soient l’occasion pour
l’École polytechnique de garder la maîtrise de ses formations, de développer ses atouts et de les apporter à l’ensemble pour contribuer à son rayonnement international. ■
LA JAUNE ET LA ROUGE • MAI 2012
5
P.6 Intro Dardayrol
24/04/12
16:23
Page 6
GRAND ANGLE
par Jean-Pierre Dardayrol (72),
ingénieur général des Mines, président de l’AFNIC*
■ Haut débit, très haut débit, 4G, 5G, dividende
numérique, cloud rebaptisé « infonuagique »,
malwares et botnets, fractures numériques
multiples, neutralité, gouvernance, nouveaux
gTLD : un grand nombre de débats, de polémiques aussi, caractérisent la (longue) phase
de développement du monde de l’Internet,
structurent et soutiennent sa formidable croissance, font la Une des grands médias ou le
buzz de multiples communautés.
La couverture de ces débats est ample dans
notre pays, même si certains d’entre eux peuvent apparaître comme trop minorés – par
exemple ceux relatifs à la cybercriminalité,
aux avatars futurs de l’Internet des objets et
à l’immobilier pour les entreprises du secteur –, ou au contraire trop hégémoniques.
Cependant, l’un d’entre eux mériterait une
attention plus globale au-delà des réflexions,
riches et multiples, et des actions, souvent
réussies, qui le concernent : les données, ou
plus exactement la valorisation des données.
On pourrait penser que les données à valoriser sont celles du Web immergé, c’est-à-dire
celles qui, pour de multiples raisons, notamment leurs protections techniques, ne sont
pas accessibles. Elles représenteraient plus
de 90 % des informations, ce qui fait souvent
comparer le Web à un iceberg.
Heureusement, le trésor caché de l’Internet
est constitué de données et d’informations
accessibles directement. Cependant, des politiques visant à lever les obstacles juridiques,
6
LA JAUNE ET LA ROUGE • MAI 2012
DR
Un trésor
est caché
culturels ou économiques à l’utilisation «optimale » de certaines informations sont nécessaires parce que porteuses de création d’activités et d’emplois. Ces données constituent
un foncier fondamental pour l’économie numérique, une des grandes ressources du XXIe siècle, à l’égal des matières minérales, énergétiques ou de l’eau. La capacité de chacun à
les mettre en valeur pèsera dans la compétitivité des entreprises et des collectivités :
les États-Unis, l’Australie, le Royaume-Uni
ou les Pays-Bas montrent la voie en adoptant
des politiques volontaristes et pragmatiques.
Pour des raisons historiques, ce foncier est
malheureusement grevé de nombreuses servitudes et de contraintes, toujours justifiées au
moment où elles ont été retenues mais hétérogènes et parfois devenues inadaptées. Si
beaucoup a été fait en ce qui concerne la
modernisation du droit des œuvres de l’esprit, des données publiques et des données
personnelles, il reste encore à faire dans ces
secteurs tout en abordant d’autres sujets
comme celui des données attachées aux objets.
À moyen terme, le mouvement des big data,
c’est-à-dire l’exploitation des grands ensembles hétérogènes de données – vidéo, sons, etc.
– contraindra à une approche unifiée et à une
politique d’ensemble.
C’est ce travail qui livrera aux laboureurs de
l’Internet son trésor caché.
* Association française pour le nommage Internet
coopératif.
P.7 Résumés
24/04/12
7:48
Page 7
DES ARTICLES
Économie numérique : les succès
DOSSIER COORDONNÉ PAR JEAN-PIERRE DARDAYROL (72)
Après avoir évalué, dans son numéro précédent, les enjeux liés à l’économie numérique, La Jaune et la Rouge
en analyse ici les succès.
Entreprendre dans le logiciel
par Pierre Haren (73) p. 8
Sans amélioration de sa performance collective, qui ne peut
passer que par une plus grande utilisation de l’informatique
et par une bonne dose d’innovation, la France ne pourra maintenir ni sa place dans le monde, ni son niveau de vie.
La fiscalité au centre des stratégies
par Loïc Rivière p. 10
En France, la fiscalité a longtemps constitué un instrument
majeur entre les mains de l’action publique pour assurer l’efficacité de notre modèle républicain. L’économie numérique,
de par son caractère transnational et immatériel, s’accommode mal des exigences de ce modèle.
Les données massives du big data, un nouvel or noir
par Michel Crestin et Hervé Dhelin p. 13
Comment traiter des masses considérables de données? Un
investissement massif et de nouvelles stratégies d’entreprise
accompagnent création de valeur et rapidité de service. Une
tendance lourde qui porte à considérer les données massives,
ou big data, comme un nouvel or noir pour les entreprises.
Qualité des données et échanges d’affaires
par Pierre Georget p. 16
Aujourd’hui, 95% des transactions sont menées de façon électronique dans les diverses chaînes d’approvisionnement françaises. La qualité des données est devenue un enjeu majeur.
L’entreprise doit protéger les données personnelles
parJean-Marc Goetz p. 26
L’actualité présente de plus en plus de cas de sociétés
confrontées à des pertes de données, ou à des transferts
d’informations personnelles mal contrôlés ; des réseaux sociaux invitent leurs abonnés à fournir des données qu’ils ne
maîtriseront plus. Que faire face à cette situation ?
GRAND ANGLE
RÉSUMÉ
Nomadisme informatique, nomadisme des identités ?
par Philippe Laurier et Claire Dufetrelle (2009) p. 28
Mémoire de nos identités, de nos moyens de la confirmer, de
nos habitudes, de nos mouvements : les objets intelligents
se multiplient dans notre environnement immédiat, mais aussi
jusque dans notre corps ou dans l’isoloir du bureau de vote.
Tandis que notre intimité numérique rétrécit à l’instar d’une
peau de chagrin, il s’instaure une logique qui échappe à l’individu, alors pourtant qu’elle touche à l’individu.
Open savoir-faire, une innovation radicale
inspirée de l’open source
par Tru Dô-Khac (79) p. 32
Le numérique pose un défi sans précédent à la conservation
du savoir-faire. Mais, avec de nouveaux usages du droit d’auteur
en entreprise, ce savoir-faire est source de modèles d’affaires
numériques inédits que nous désignons par open savoir-faire.
Comprendre la volatilité des marchés financiers
par Patrice Fontaine et Bernard Rapacchi p. 18
Mieux étudier les marchés financiers est indispensable pour
en comprendre le fonctionnement et, en particulier, l’impact
des outils de trading automatiques. Cela implique de garder
trace des cours boursiers à des fréquences élevées.
Nouveaux modes de paiement :
quatre prévisions pour 2012
par Alexandre Hoffmann p. 34
Quatre évolutions vont marquer le monde du paiement : l’ascension fulgurante du «m-commerce»; la multiplication des
appareils connectés, suscitant le besoin d’un portefeuille de
paiement «dans le nuage»; l’avènement du «t-commerce»;
et la disparition de la frontière entre commerce traditionnel et
commerce en ligne.
Riposter contre la cybercriminalité
par Adeline Champagnat p. 20
L’essor du numérique rend indispensable l’adaptation des
outils législatifs, répressifs et de coopération internationale.
En France, cette action est confiée à l’OCLCTIC.
Stratégies pour l’innovation
par Sandrine Murcia p. 36
En matière d’innovation et d’accompagnement de l’innovation, les échanges d’expérience au sein d’un réseau d’entreprises sont irremplaçables.
Le logiciel au cœur des systèmes électriques
par Hervé Rannou p. 22
Les réseaux intelligents d’énergie font partie de ces sujets qui
semblent éloignés des préoccupations politiques ou stratégiques. Pourtant, c’est l’un des véritables sujets des prochaines années tant leur impact sera majeur.
Logistique et livraison, clés du e-commerce
par François Copigneaux p. 38
L’Internet a permis un essor extraordinaire de la vente à distance. Mais cet essor implique en aval la mise en place de
solutions logistiques fiables et performantes pour livrer au
consommateur sa commande.
LA JAUNE ET LA ROUGE • MAI 2012
7
P.8 Haren
24/04/12
7:43
Page 8
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR PIERRE HAREN (73)
Entreprendre dans le logiciel
vice-président ILOG
chez IBM
Sans amélioration de sa performance
collective, qui ne peut passer que par
une plus grande utilisation de l’informatique
et par une bonne dose d’innovation
entrepreneuriale, la France ne pourra
maintenir ni sa place dans le monde,
ni son niveau de vie. L’entreprise
informatique a ici un rôle essentiel à jouer.
■ Notre vie quotidienne est dépendante de
l’industrie du logiciel. Qui s’étonne encore de
pouvoir parler par Skype à un membre de sa
famille à l’autre bout de la planète, ou de regarder une vidéo en temps réel, alors que toute
la conversation ou la vidéo est tronçonnée en
petits paquets de données qui voyagent tous
indépendamment et sont reconstitués à l’autre bout avec une qualité ahurissante? Acheter
par Internet en se faisant livrer le colis à sa
porte est souvent moins onéreux que d’aller
chercher soi-même l’objet dans un magasin.
Planète intelligente
Les appareils
qui nous
entourent sont
de plus en plus
intelligents,
interconnectés
et autonomes
Tous les appareils qui nous entourent sont de
plus en plus intelligents, interconnectés et
autonomes grâce à des millions de lignes de
logiciel. IBM promeut le concept de « planète
intelligente», qui rassemble les concepts d’instrumentation, de télécommunications et de
traitement intelligent pour fusionner et interpréter d’immenses quantités de données sur
différents systèmes afin d’optimiser leur per-
REPÈRES
Toutes les télécommunications par téléphone ou
Internet n’existent que parce que des millions
de lignes de code fonctionnent correctement
dans les commutateurs et tout au long du réseau
pour acheminer nos conversations. Tout le
commerce électronique dépend de chaînes
logistiques d’une grande complexité, gérées par
informatique, au niveau de l’usine produisant les
biens commandés, puis dans les différentes
étapes de transport : l’ubiquité du logiciel est
une évidence.
formance : villes intelligentes, systèmes de
distribution d’énergie plus efficaces, amélioration des systèmes de santé, etc. Cependant,
l’ubiquité actuelle du logiciel ne garantit pas
pour autant l’égalité des différents acteurs
devant les avantages qui peuvent être retirés
de celui-ci. Le logiciel apporte au contraire un
formidable potentiel de différenciation de performance entre les entreprises, voire les sociétés. Omniprésente, déterminant la performance de nos sociétés, l’informatique est aussi
une extraordinaire source d’aventures. D’abord,
parce que l’informatique elle-même évolue
en permanence, et exige une attitude d’apprentissage permanent, mais aussi parce
qu’elle mêle de plus en plus étroitement technologie et savoir dans la gestion de nos sociétés complexes.
Performance et qualité de vie
Prenons l’exemple de Singapour, petit pays de 5 millions d’habitants situé sous l’équateur, sans aucune
ressource naturelle, dont le PNB par habitant a dépassé celui de la France dans la fin des années 1990
en grande partie du fait de la qualité de l’usage de l’informatique par la société singapourienne. Cette
société est en permanence à la recherche d’améliorations de la performance individuelle et collective
par un usage plus poussé et plus intelligent de l’informatique : qu’il s’agisse de l’aéroport qui optimise
en permanence les flux de passagers et de bagages pour minimiser les attentes, du port qui est le plus
grand port de transbordement de conteneurs au monde grâce à un usage très avancé de l’informatique,
de l’automatisation de la validation des permis de construire des bâtiments, qui réduit les délais d’attente
et d’immobilisation du capital, de la gestion des infrastructures de transport collectif, ou du péage variable
pour les véhicules individuels, qui minimisent les embouteillages tout en maximisant le confort collectif.
8
LA JAUNE ET LA ROUGE • MAI 2012
P.8 Haren
24/04/12
6:48
Page 9
GRAND ANGLE
Une aventure du savoir
Jusqu'à la fin des années 1950, le savoir était
uniquement présent dans des livres ainsi que
dans le cerveau des professeurs, étudiants et
praticiens qui appliquaient un savoir technique ou réglementaire. De nos jours, ce savoir
est plus en plus intégré de manière active dans
des logiciels qui effectuent des tâches de routine à la place des opérateurs. Par exemple, le
site d’enchères privées eBay n’aurait jamais
pu voir le jour sans une infrastructure informatique avancée, notamment en détection de
fraude, nécessaire pour garantir à tous ses
utilisateurs un niveau acceptable de sécurité
du système. Analyser différents savoirs pour
les intégrer dans des systèmes servant des
millions d’utilisateurs en temps réel est une aventure extraordinaire.
dement avec les meilleurs Indiens, Chinois ou
Américains, ce qui devrait plaire à l’esprit compétitif français.
Réseaux sociaux
Un levier indispensable
Une nouvelle dimension dans la gestion du
savoir est en train d’émerger rapidement sous
nos yeux : celle de l’informatique des réseaux
sociaux. Depuis l’émergence du Web, l’espèce
humaine se transforme rapidement pour devenir une espèce collective, dans un mouvement
incroyablement audacieux similaire à celui du
passage des organismes unicellulaires aux
organismes pluricellulaires. Nous n’en sommes encore qu’au début des bouleversements
qu’induira ce changement de nature. Aujourd’hui,
les groupes d’amis favorisent l’émergence
d’un produit plutôt que d’un autre grâce à
l’usage que nous faisons des recommandations de ces réseaux sociaux. Demain, les fonctionnalités de ces produits seront définies par
avance par des groupes d’utilisateurs qui
influenceront en temps réel les concepteurs des
produits. La gestion du savoir et la résolution
de problèmes complexes migrent ainsi de l’individuel au collectif.
Pour une jeune pousse, le terreau initial est
déterminant. L’informatique est un levier indispensable pour l’administration, qui doit fournir le meilleur service possible aux citoyens
au coût le plus faible, et pour les entreprises,
qui doivent en permanence offrir des services
ou des produits de meilleure qualité au meilleur prix. L’intégration de produits et services
innovants issus de jeunes pousses françaises
représente pour les utilisateurs une opportunité unique de détenir un atout de performance,
et pour ces start-ups une nécessité absolue.
La position de la France en tant que « terreau
de jeunes pousses » est mitigée. La taille du
marché français permet de soutenir le développement d’une première phase de croissance,
mais requiert aussi de développer rapidement
l’international afin de financer l’adaptation des
produits aux autres langues et cultures, notamment anglaises et chinoises, et de créer un
réseau de distribution.
Évolution de l’humanité
Position concurrentielle
Dans ce contexte, l’informatique fournit à la
fois le moyen de communication et une contribution unique à notre intelligence collective.
Entreprendre dans l’informatique, c’est donc
apporter sa pierre à cette phase essentielle
de l’évolution de l’humanité, pour créer de
nouveaux produits, services, résultats. Du fait
de l’intérêt financier d’un succès industriel en
informatique, qui attire les meilleurs esprits de
la planète, créer une entreprise informatique,
c’est aussi choisir d’entrer en compétition rapi-
Notre position concurrentielle dans l’informatique a été longuement analysée ailleurs, avec
des points extrêmement positifs tels que le
crédit d’impôt recherche et la qualité de nos
ingénieurs, ainsi que l’appétence du grand
public pour les technologies nouvelles démontrée par des succès tels que ceux du Minitel et
du GSM, mais aussi des obstacles, tels que
celui de la langue ainsi que certaines lourdeurs
administratives et une image souvent négative
des entreprises et des entrepreneurs. ■
Quand l’informatique réinvente
la médecine
C’est le sens de l’évolution du système Watson
d’IBM, qui va soutenir les médecins comme
source additionnelle de conseil dans les
diagnostics difficiles et complexes. Watson est
une source connectée en permanence, disposant
d’une mémoire infinie, d’une capacité toujours
croissante à détecter des similarités avec
d’autres cas déjà en mémoire, et d’une constance
dans la performance bien supérieure à celle que
nos cerveaux humains peuvent atteindre.
L’informatique
évolue en
permanence
et exige une
attitude
d’apprentissage
permanent
LA JAUNE ET LA ROUGE • MAI 2012
9
P.10 Rivière
24/04/12
16:24
Page 10
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR LOÏC RIVIÈRE
délégué général de
l’Association française
des éditeurs de
logiciels et solutions
Internet (AFDEL)
Le business
model de
l’Internet est
celui d’un
marché biface
La fiscalité au centre
des stratégies
En France, la fiscalité a historiquement joué
un rôle de premier plan : redistributive,
compensatrice ou régulatoire, elle a longtemps constitué un instrument majeur entre
les mains de l’action publique pour assurer
l’efficacité de notre modèle républicain.
L’économie numérique, de par son caractère
transnational et immatériel, s’accommode
mal, à l’instar de la finance, des exigences
de ce modèle. L’élaboration de taxes
sectorielles n’est ici finalement qu’un autre
symptôme du même mal : notre difficulté
à assurer la pérennité de notre modèle dans
un contexte mondialisé.
■ Le 14 février dernier, le sénateur Philippe
Marini et la Fédération française des télécoms
avaient convié, avec le soutien du Conseil national du numérique, l’ensemble des représentants de l’économie numérique pour leur présenter leurs propositions en faveur d’une
fiscalité du numérique rénovée. En cause, la distorsion fiscale entre secteur numérique et secteur traditionnel, mais surtout entre opérateurs d’infrastructures et fournisseurs de
contenus ou encore entre acteurs locaux de
l’Internet et grands acteurs transnationaux
tels Google, Amazon, Apple ou Facebook.
Quand l’industrie réclame des taxes…
pour les autres
Si bien que c’est une forme d’unanimité qui
prévalait devant la nécessité de corriger ce
déséquilibre fiscal, voire de créer de nouvelles taxes. Devant le parterre de spécialistes
et journalistes réunis, les organisateurs démontrèrent en effet de façon étonnante leur inventivité à concevoir de nouvelles taxes destinées
à l’économie numérique. Non pas des ajustements de taxes existantes, mais bien de nouvelles taxes jusqu’alors inexistantes. L’exercice
était pour le moins cocasse et inédit : une
10
LA JAUNE ET LA ROUGE • MAI 2012
REPÈRES
La formidable création de richesses suscitée par
le développement d’Internet a bousculé les
chaînes de valeur existantes et remis en cause les
positions acquises. Et dans ce grand chambardement, les opérateurs télécoms ont l’impression
d’être les oubliés de la croissance. Leurs revenus
d’infrastructures se tassent, les nécessités
d’investir dans le très haut débit se font pressantes et ils versent chaque année des contributions significatives au financement de la
création. Les opérateurs font de cette situation un
diagnostic sans appel : « Des géants mondiaux
cherchent à conquérir de nouveaux marchés en
sortant de leurs métiers d’origine et en venant
concurrencer directement les activités des
opérateurs, mais en échappant totalement à
l’arsenal fiscal et réglementaire. »
industrie dénonçant sa «surfiscalisation» et proposant, dans le même temps, de nouveaux
mécanismes élaborés par des fiscalistes pour
taxer l’industrie numérique.
Cocasse en effet, mais sans motifs sérieux
certainement pas. Dans une tribune du journal Le Monde, les dirigeants des opérateurs
Orange, Bouygues Telecom et Free s’étaient peu
auparavant prononcés à l’unisson pour une
nouvelle fiscalité numérique, en déplorant que
des géants mondiaux les concurrencent sur
les mêmes marchés « en échappant totalement à l’arsenal fiscal et réglementaire ».
Taxes en cascade
Depuis 2008 les opérateurs ont été « successivement assujettis à la taxe sur les services
de télévision (qui alimente un compte de soutien
à l’industrie de programmes [Cosip], dont les
ressources ont crû de 50 % en trois ans), la taxe
visant à financer France Télévisions, ou encore
l’impôt forfaitaire sur les entreprises de réseaux
(IFER) ».
P.10 Rivière
27/04/12
12:25
Page 11
L’absence de relation économique caractérisée
entre infrastructures et contenus (quoique
remise en cause par l’évolution de l’interconnexion) a mis de facto tous les fournisseurs
de contenus et services sur un pied d’égalité
potentiel dans leur capacité à accéder au marché,
c’est-à-dire aux internautes sans discrimination.
C’est ce modèle qui a assuré jusqu’à présent
le formidable développement du réseau,
son foisonnement de contenus et de services
innovants. C’est également ce modèle qui
a encouragé l’équipement massif des internautes
en box et services triple play.
C’était dit. Et les acteurs visés, sans être nommés, étaient bien identifiables. Les opérateurs
souhaitent donc que les fournisseurs de contenus participent notamment au financement de
la création. Ils pointent ainsi du doigt en particulier la fiscalité des grands acteurs de
l’Internet, dits Over the top, qui ne participent
pas à ce financement et assument une fiscalité très allégée des revenus retirés de leurs
activités commerciales en Europe. Bien plus,
les opérateurs remettent véritablement en
cause le business model historique d’Internet
et la place qui leur est réservée.
Business model remis en cause ?
Le business model de l’Internet est grossièrement celui d’un marché biface, composé d’une
part d’une face contenus et services, et d’autre
part d’une face utilisateurs-internautes. Ces
deux faces sont a priori économiquement découplées, les internautes rémunérant en fait les
opérateurs d’infrastructures pour pouvoir accéder aux contenus. Il y a donc un phénomène de
subvention croisée, les opérateurs d’infrastructures pouvant vendre l’accès à des contenus et
services qu’ils n’ont pas à produire et les fournisseurs de contenus et services pouvant distribuer les contenus sans en assumer l’acheminement. Aujourd’hui, les opérateurs d’infrastructures
constatent un tassement de leurs revenus de
bande passante dans les pays industrialisés et
dans le même temps un essor continu de la
création de valeur sur le réseau qu’ils administrent par les fournisseurs de contenus et services. Les opérateurs souhaitent donc remédier à cette situation selon deux axes stratégiques.
Le premier consiste à développer leurs propres
offres de services (musique, vidéo, etc.) sur le
GRAND ANGLE
Un modèle unique
réseau, quitte à les intégrer de façon préférentielle au sein de leur offre généraliste. Le second
axe consiste à remettre en question le business
model historique d’Internet en proposant d’instaurer un Internet à péage, visant à monétiser
aussi la seconde face (les fournisseurs de contenus) en leur demandant de payer pour accéder
au réseau (outre les frais d’hébergement dont
ils s’acquittent déjà). Ce deuxième axe s’est cristallisé autour des débats sur la neutralité du
Net, car l’instauration d’un Internet à péage
aurait créé de facto des phénomènes d’exclusivité et de discrimination sur le réseau. Les opérateurs n’ayant pu, à ce jour, modifier cette relation dans ce qu’elle a de plus visible, ils se sont
résolus à transposer sur le terrain de la fiscalité le sujet du déséquilibre de revenus qu’ils
dénoncent.
De la difficulté de taxer le numérique
Le caractère immatériel de l’économie numérique lui confère la possibilité d’être commercialisée de façon abstraite depuis n’importe
quel territoire, avec une qualité de service
constante. Il lui vaut aussi d’être assimilée à
une prestation de service immatérielle, et donc
de se voir appliquer une TVA en conséquence,
et non celle qui s’applique aux biens culturels
matériels comme le livre (avant la réforme du
1er janvier 2012). Son caractère transnational
en découle et conduit les prestataires de services électroniques à localiser leurs plates-formes en fonction des contraintes fiscales et
réglementaires appliquées.
Le dumping fiscal européen en cause
Actuellement, le taux de TVA applicable en
Europe aux services électroniques (musique,
vidéo, logiciels, etc.) est celui du pays de localisation du prestataire. Si bien que de nombreux prestataires de services électroniques
se sont installés, à l’instar d’Apple, au
Luxembourg, qui pratique l’un des taux les plus
bas d’Europe avec 15 % et n’applique qu’un
La création
de valeur est
multiforme et
transnationale
sur Internet
➤
Comment taxer ?
A priori, l’économie numérique a vocation à être
taxée comme les autres. Mais elle possède trois
caractéristiques qui pourraient y contrevenir et
rendent en tout cas son appréhension complexe :
elle est immatérielle, transnationale et difficile
à valoriser.
LA JAUNE ET LA ROUGE • MAI 2012
11
P.10 Rivière
27/04/12
12:26
Page 12
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
200 millions d’euros
Ce serait le montant du manque à gagner en TVA
pour les économies européennes du fait de l’installation au Luxembourg de grands acteurs du Web.
Une situation qui devrait connaître un terme car,
à partir de 2015, la TVA sera progressivement
appliquée et collectée dans le pays preneur
du service.
➤ taux de 3% sur la partie droit d’auteur (75% de
Faire de notre
projet européen
le héraut de
notre exception
culturelle
la valeur). Concernant l’impôt sur les sociétés, de nombreuses voix se sont élevées pour
dénoncer les niveaux d’imposition des géants
du Web, avoisinant pour certains les 3 % seulement de leurs bénéfices. Ces cris d’orfraie
laissent perplexe quand on sait que ces niveaux
sont le résultat des mécanismes d’optimisation fiscale légaux, mis en place par les gouvernements eux-mêmes, et qui bénéficient
également aux acteurs du CAC 40 qui ne se
privent pas d’en user. En outre, le pays qui fait
les frais de cette collecte d’impôts réduite est
en réalité les États-Unis, pays d’origine des
acteurs visés, contraint de voter des exonérations massives pour obtenir le rapatriement
des capitaux de ses acteurs. Enfin, si ces acteurs
ne paient pour ainsi dire pas d’impôts sur les
sociétés en France, en dépit des bénéfices
qu’ils y engrangent, c’est l’application mécanique des conventions fiscales qui ne permettent pas à l’État où le service est consommé de
taxer. Là encore, c’est le défaut d’harmonisation fiscale européenne qui est en cause et qui
fait que certains de nos voisins pratiquent un
dumping préjudiciable aux finances publiques
françaises.
L’inventivité française à l’œuvre
Toujours est-il que la France s’est faite championne d’une fiscalité sectorielle vouée à préserver, à stimuler ou à corriger les évolutions
économiques souhaitées. Ce fut bien entendu
le cas pour préserver son exception culturelle.
Selon l’étude comparative des systèmes fiscaux dans le domaine de la culture réalisée
par le cabinet Ernst & Young, la France arrive
en tête, de très loin, avec 14 taxes de nature
culturelle et 48 mesures fiscales incitatives.
Il n’y avait donc pas de raison que la distorsion que vit notre économie numérique y
échappe. D’aucuns échafaudent alors des dispositifs censés remédier à cette situation, tel
« l’octroi numérique ». Le Conseil national du
numérique s’est également penché sur la question, proposant la création d’un établissement
stable virtuel. Une proposition qui laisse perplexe Me Franck Le Mentec : « Pourquoi ne pas
dénoncer unilatéralement les conventions fiscales si elles nous déplaisent? Ça s’est déjà vu
entre le Danemark et la France en 2008. »
L’enjeu de notre projet européen
Aujourd’hui mis à mal par les conséquences
de la mondialisation, le modèle fiscal français ne peut plus se penser de façon autonome. L’économie numérique ne peut échapper à cette exigence, soulignant même, à
l’instar de la finance, nos incohérences et
inconsistances de façon éclatante. L’élaboration
de taxes sectorielles, plus ou moins alambiquées, n’est ici qu’un autre symptôme du
même mal : notre difficulté à assurer la pérennité de notre modèle dans un contexte mondialisé.
En voulant soutenir à tout prix les économies
de rentes de nos acteurs historiques, nous
empêchons la nouvelle génération innovante
d’éclore. En stigmatisant les acteurs mondiaux qui profitent de l’inconsistance de notre
projet européen, nous manquons une nouvelle occasion de le réformer et d’en faire non
pas le garant, mais le héraut de notre exception culturelle. ■
« Taxe Google »
Défendue en 2010 par le sénateur Philippe Marini, cette taxe improprement dénommée visait d’une part
à remédier à la distorsion avec le secteur des médias traditionnels dont les activités publicitaires sont
spécifiquement taxées, et d’autre part à imposer les revenus tirés des activités de publicité en ligne par
les grands acteurs du Web. Il s’agissait de taxer les annonceurs, et non pas les régies, pour plus de
simplicité de collecte. Il est apparu rapidement que seuls les annonceurs disposant d’un établissement
stable en France s’en acquitteraient et que, concernant les acteurs du Web, seuls les acteurs français
risquaient d’être pénalisés. Une taxe qui générait d’importants risques de délocalisation d’activité
et corrélativement une perte importante de recettes de TVA pour l’État français, et donc une perte
de recettes plus importantes que ce qu’elle rapporterait.
12
LA JAUNE ET LA ROUGE • MAI 2012
P.13 Crestin et Dhelin
24/04/12
16:26
Page 13
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
Les données massives
du big data, un nouvel or noir
partner de LOBI
Comment traiter les masses considérables de données qui apparaissent aujourd’hui ?
Un investissement massif et de nouvelles stratégies d’entreprise accompagnent création
de valeur et rapidité de service. C’est une tendance lourde qui porte à considérer les données
massives, parfois appelées big data, comme un nouvel « or noir » pour les entreprises.
■ La croissance des volumes d’informations
numériques est telle que les bases de données qui les gèrent ne suffisent plus. Il faut
donc imaginer de nouvelles architectures (logicielles et matérielles) pour traiter ces masses considérables de données.
Un investissement massif
L’évolution technologique se traduit par une
diminution drastique des coûts de stockage
des données. Par exemple, chacun peut acquérir une capacité de stockage d’un téraoctet
pour seulement quelques centaines d’euros.
Le coût d’un gigabit de stockage s’élevait à
environ 20 dollars en 2005, à nettement moins
d’un dollar aujourd’hui. À cet aspect purement
matériel s’ajoute la diminution du coût de création, capture et duplication des données.
Les investissements consentis par les entreprises dans l’univers numérique (cloud computing, équipement informatique, logiciels,
REPÈRES
En 2011, on a crŽŽ et rŽpliquŽ 1,8 zettaoctet
(cÕest-ˆ-dire1 800 milliards de gigaoctets), neuf
fois plus quÕen 2005, soit une croissance
dŽpassant les prŽdictions de la loi de Moore. DÕici
la prochaine dŽcennie, la quantitŽ de donnŽes
gŽrŽe par les entreprises pourrait •tre multipliŽe
par cinquante, et la taille des fichiers par
soixante-quinze. Concr•tement, un volume de
1,8 zettaoctet de donnŽes Žquivaut au volume de
plus de 200 milliards de film HD (dÕune durŽe
moyenne de deux heures). Il faudrait ˆ un individu
pas moins de 47 millions dÕannŽes pour en
visionner lÕintŽgralitŽ, si tant est quÕil sÕy
consacre vingt-quatre heures sur vingt-quatre
et sept jours sur sept.
ET HERVƒ DHELIN
GRAND ANGLE
PAR MICHEL CRESTIN
Ajuster ses prix en temps rŽel
Une entreprise amŽricaine de grande distribution
a constatŽ une baisse de ses parts de marchŽ.
Elle sÕest aper•ue que son principal concurrent
avait lourdement investi dans des outils de
collecte, dÕintŽgration et dÕanalyses de donnŽes,
de sorte quÕil Žtait capable dÕajuster en temps
rŽel ses prix, dÕarbitrer lÕapprovisionnement
entre ses diffŽrents magasins et de reconstituer
ses stocks gr‰ce ˆ une Žtroite intŽgration
de son syst•me dÕinformation avec ceux
de ses fournisseurs.
administrateur
du Club des directeurs
marketing des TIC
services et personnel dédié à la création, gestion, stockage et exploitation des informations)
ont augmenté de 50% entre 2005 et 2011, pour
atteindre les 4000 milliards de dollars au niveau
mondial. En 2012, 90 % des sociétés du classement Fortune 500 auront lancé un grand
chantier de gestion des données. Les entreprises américaines de plus de mille salariés
stockent, en moyenne, l’équivalent de 235 terabytes de données.
L’évolution
technologique
se traduit par
une diminution
drastique
des coûts
Une nouvelle stratŽgie dÕentreprise
La valeur des données, et notamment la perde stockage
tinence de leur exploitation, devient très impordes données
tante. Une habile exploitation de ces gisements
d’information contribue à accroître les avantages compétitifs. Au-delà de ces aspects économiques, la croissance des volumes de données remet en cause le management des
entreprises et des organisations. Les dirigeants
peuvent ainsi légitimement se poser les questions suivantes.
Sur le plan managérial : s’il était possible de
tester toutes les décisions, cela changerait-il
la stratégie de l’entreprise ? Probablement,
➤
LA JAUNE ET LA ROUGE • MAI 2012
13
P.13 Crestin et Dhelin
24/04/12
6:54
Page 14
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
L’analyse prédictive
En se fondant sur un historique des informations
disponibles sur les clients, l’analyse prédictive
établit, avec une analyse statistique des relations
entre les données disponibles, si elles sont
de nature à prédire, avec la meilleure fiabilité
possible, le futur comportement d’un individu.
Retenons seulement deux domaines
dans lesquels l’analyse prédictive se révèle
particulièrement pertinente : la détection
de la fraude et le marketing.
➤ car les managers pourraient mieux identifier
L’analyse
prédictive
se révèle
particulièrement
pertinente dans
la détection
des fraudes
les causes d’un phénomène et les conséquences de leurs décisions, en fonction de différents scénarios, au-delà de l’analyse de simples corrélations, et adapter leur stratégie en
conséquence.
Sur le plan opérationnel : dans quelle mesure
les offres d’une entreprise seraient-elles transformées si les énormes volumes de données
disponibles étaient utilisés pour personnaliser en temps réel les solutions proposées aux
consommateurs et prévoir leur comportement
d’achat? Par exemple, un e-commerçant pourrait traquer en temps réel le comportement
de ses prospects et identifier le moment où
ils vont s’engager dans l’acte d’achat. Et, ainsi,
pousser des offres à plus fortes marges. La
grande distribution constitue un secteur privilégié d’expérimentation dans la mesure où foisonnent les informations issues des achats
sur le Web, des réseaux sociaux et, aujourd’hui,
de plus en plus, les données de géolocalisation
des smartphones.
Sur le plan stratégique : l’exploitation des gisements de données peut-elle donner lieu à de
nouveaux modèles d’affaires ? Probablement
pour des entreprises qui se positionneraient
Éviter l’effet domino
Une grande banque européenne a mis en place
un système d’analyse prédictive pour détecter
les risques de faillites parmi ses entreprises
clientes, en particulier en intégrant des informations relatives au contexte économique.
Concrètement, la banque est également en
mesure d’anticiper les conséquences d’une
défaillance, pour elle, d’un client majeur,
de manière à éviter les conséquences néfastes
d’un « effet domino » sur d’autres clients.
14
LA JAUNE ET LA ROUGE • MAI 2012
comme intermédiaires dans la chaîne de valeur
pour gérer des données transactionnelles de
manière exhaustive.
Une création de valeur
La profusion de données génère des opportunités nouvelles pour les entreprises, même
s’il faut demeurer conscient des risques induits
(intégrité des informations, menaces sur la vie
privée, droit à l’oubli, piratage, atteinte à l’image,
vol d’identité, fraude, etc.). L’une des révolutions concerne l’analyse prédictive, approche
qui étudie les données et les caractéristiques
comportementales des individus pour en tirer
des modèles prédictifs en vue d’optimiser la relation avec les clients.
Mieux détecter les fraudes
Pour réussir sur un marché dominé par des
grands noms de l’assurance, la société américaine Infinity, spécialisée dans l’assurance
des conducteurs à risques élevés, avait besoin
d’accroître son parc de clients et d’améliorer
son efficacité opérationnelle, notamment pour
la gestion des sinistres et la réduction de la
fraude. Des techniques d’analyse prédictive
ont été mises en œuvre. L’objectif était, sur le
modèle des crédits bancaires, de « scorer »
les sinistres de manière à mieux identifier la
probabilité de fraude.
Récupérer ses fonds
Il s’agissait également d’optimiser la collecte
dite de subrogation, c’est-à-dire lorsque l’assureur se retourne vers des tiers pour récupérer des fonds, quand son assuré n’est pas responsable. En un mois, la solution mise en
œuvre par Infinity a permis d’augmenter les
fonds collectés d’un million de dollars et de
douze millions de dollars en six mois, uniquement par une meilleure analyse des données.
La prochaine étape, elle aussi fondée sur l’analyse de volumes importants de données, consistera à étudier le contenu des documents liés
aux règlements des sinistres, par exemple les
comptes rendus d’accidents, les rapports médicaux ou les témoignages, autant d’éléments
qui sont susceptibles d’améliorer la détection
de la fraude le plus en amont possible.
Lutter contre la criminalité
L’analyse de grandes masses de données est
également très utile pour lutter contre la criminalité. Par exemple, la police de New York
P.13 Crestin et Dhelin
24/04/12
6:54
Page 15
GRAND ANGLE
dispose d’un logiciel d’analyse prédictive de
la criminalité. Baptisée Crush (Criminal reduction utilizing statistical history), cette application regroupe une vingtaine d’années d’archives et de statistiques liées à la délinquance et
à la criminalité, avec toutes les caractéristiques des délits : lieu, heure, mode opératoire, etc.
L’analyse de ces données est assurée par un
programme mathématique conçu par les chercheurs de l’université de Californie. Elle permet de localiser les endroits à risque de la
ville, d’identifier les types de délits qui y sont
commis, en fonction de critères tels que le
moment de la journée ou le jour de la semaine.
Concrètement, la police peut alors agir et
envoyer des effectifs avant que le crime ou le
délit ne soient commis.
qui constituera des incertitudes susceptibles
de freiner, mais pas d’annihiler, la tendance
lourde à considérer les données, surtout si elles
sont massives, comme un nouvel « or noir »
pour les entreprises et les organisations.
L’analyse des données
Du côté des certitudes, on retiendra une croissance continue des volumes de données, d’autant que se profilent l’Internet des objets et la
civilisation des capteurs, producteurs d’énormes quantités d’informations ; une transformation profonde des modèles d’affaires et, de
fait, des stratégies des entreprises ; des investissements massifs en outils d’analyse de données à mesure que les entreprises vont prendre conscience de la valeur de leurs données.
Le rejet des intrusions
L’exemple de Memphis
Déjà déployé au sein de la police de Memphis
(Tennessee), le logiciel Crush a permis
de réduire la criminalité de 30 % et la criminalité
violente de 15 % par rapport à 2006.
En janvier 2010, la police a lancé plusieurs
opérations dans un quartier de la ville,
en se fondant sur les indications du logiciel
Crush. Résultat : plus de cinquante arrestations
de trafiquants de drogue et une réduction de près
de 40 % de la criminalité.
Du côté des incertitudes, on retiendra les
inquiétudes sur le respect de la vie privée,
l’éventuelle montée en puissance de sentiments de rejet face à ce qui peut être considéré
comme des intrusions de messages commerciaux dans la sphère privée. De même, nous
n’avons pas de certitudes sur les problématiques de sécurité associées au big data. Enfin,
un frein potentiel réside dans l’évolution de la
législation, susceptible de devenir plus restrictive. Entre ces puissants facteurs accélérateurs et les éventuels freins, les entreprises devront trouver un équilibre de manière
à concilier création de valeur et éthique. ■
Améliorer le marketing
L’une des difficultés pour les entreprises qui
s’adressent à des millions de clients est de fidéliser ceux-ci et d’en conquérir d’autres. Dans
les banques anglo-saxonnes par exemple, le
taux de rotation des clients atteint facilement
10% à 20% par an, avec un coût par client s’élevant entre 200 et 3500 dollars. Une banque néerlandaise, grâce à l’analyse prédictive, a réussi
à accroître l’efficacité de ses campagnes marketing avec un taux de réponse passé de 4 % à
12 %, d’où un retour sur investissement de ses
actions amélioré de 10 % à 20 %.
Une tendance lourde
On pourrait multiplier les exemples de création d’avantages compétitifs grâce à une exploitation intelligente de volumes de données. Le
phénomène du big data va impulser un élan
supplémentaire. À moyen ou long terme, on
peut discerner ce qui relève de certitudes et ce
La rapidité du service
Le loueur de véhicules Avis a amélioré le résultat
en Europe de ses campagnes de marketing
par courriel et divisé ses coûts par deux.
En analysant les données sur ses clients, Avis
propose des offres personnalisées dans plus
de 18 millions d’envois de courriels chaque
année. Avec une meilleure connaissance de
l’activité des clients grâce à l’historique des clics
dans les courriels et des transactions, Avis
personnalise tous les courriels. Par exemple,
le loueur dispose d’une base de données
de « clients privilégiés » à qui elle promet une
prise en charge dans un délai de trois minutes
(ils sont assurés de recevoir la clef de leur
véhicule dans un délai de trois minutes à partir
du moment où ils se présentent au guichet).
La rapidité de service étant essentielle pour
fidéliser les clients.
Des inquiétudes
sur le respect
de la vie privée
et le droit
à l’oubli
LA JAUNE ET LA ROUGE • MAI 2012
15
P.16 Georget
24/04/12
6:56
Page 16
PAR PIERRE GEORGET
© STEVE MUREZ
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
directeur général
de Global Standard
One (GS1) France
Aujourd’hui, 95 % des transactions sont
conduites de façon électronique dans
les diverses chaînes d’approvisionnement.
Le coût du ticket d’entrée s’est considérablement élevé. La qualité des données
est devenue un enjeu majeur.
La relation
de machine
à machine
exige une
rigoureuse
chorégraphie
des flux
16
Qualité des données
et échanges d’affaires
■ Le commerce électronique s’est installé
peu à peu dans les entreprises. Les processus
d’affaires opérés par les industriels de l’automobile, de l’agroalimentaire, de la pharmacie
et de l’aéronautique, les transporteurs et les
prestataires logistiques, les banques, les assurances, les grossistes et les détaillants aujourd’hui
n’ont rien à voir avec ceux des années 1990.
Les échanges d’affaires sont massivement
numériques : 95% des transactions sont conduites de façon électronique dans les diverses
chaînes d’approvisionnement françaises. Cette
numérisation a deux conséquences pour les
entreprises : le coût du ticket d’entrée dans
une relation d’affaires s’est considérablement
élevé, et la qualité des données est devenue un
enjeu majeur.
Une hausse du ticket d’entrée
Le coût unitaire d’une relation d’affaires a
baissé dans un rapport de dix. Cette réduction
a des conséquences très diverses comme la
multiplication du nombre de références dans
les supermarchés, à surface constante, ou
l’approvisionnement en flux tendu. Les transactions financières à haute fréquence en sont
l’extrême illustration. Mais cette relation de
machine à machine nécessite une structuration des échanges, une définition et une mise
en place rigoureuse de la chorégraphie des
flux. Pour l’entreprise candidate à l’établissement d’une telle relation, il faut un apprentissage, un pilotage et une industrialisation qui ne
s’improvisent pas. C’est pourquoi l’analyse de
la population des fournisseurs connectés en
échanges électroniques de l’automobile ou de
la grande distribution montre qu’un minimum
LA JAUNE ET LA ROUGE • MAI 2012
REPÈRES
La numérisation de la relation d’affaires n’a pas
eu comme conséquence, comme certains ont pu
le craindre, une déshumanisation de la relation.
Le business reste le business, mais il est soutenu
par une relation forte « machine à machine » des
systèmes d’information entre eux. Cette relation
numérique a pour but de réduire le coût de
chaque transaction. Le ratio généralement admis
est celui d’un rapport de coût unitaire de un à dix
entre la conduite électronique d’une relation
(commande-paiement, par exemple) et sa
réalisation sous forme papier.
de transactions ou de chiffre d’affaires est
nécessaire pour établir la liaison électronique. Et cela est vrai même si les outils d’échanges sont mis à disposition par le donneur d’ordre. La maintenance des compétences internes
présente une difficulté plus grande pour la
PME que l’acquisition des outils.
Une relation plus stable
Le corollaire de l’augmentation du ticket d’entrée est la plus grande stabilité de la relation.
Ceux qui ont déjà leur «ticket électronique» sont
privilégiés par rapport aux autres. Les quelques jours passés à « l’embarquement » d’un
nouveau partenaire comptent dans l’économie du choix d’un nouveau fournisseur, tout
autant que le délai de six à neuf mois pour rendre la liaison électronique réellement opérationnelle. Cette solidité de la relation va croissant avec la sophistication de la collaboration,
par exemple si la transaction simple commande-livraison-facture-paiement se complète par la mise à disposition d’états de consommation ou de ventes et d’états de stocks
permettant une gestion partagée des flux. La
part numérique de la transaction devient une
condition de la qualité de service. Le développement du numérique en entreprise a facilité
la mise en place d’une infrastructure d’échanges. Celle-ci est loin d’être unifiée, elle est
P.16 Georget
24/04/12
6:56
Page 17
GRAND ANGLE
Un risque d’atteinte à l’image
Au royaume du zettaoctet
L’information produite par les entreprises
a augmenté de 67 % chaque année de 2007
à 2011, pour atteindre 580 exaoctets (1 milliard
de gigaoctets). À l’horizon 2020, la quantité
d’informations numériques créée ou répliquée
annuellement va être multipliée par 44 par
rapport à son niveau de 2009, pour atteindre
35 zettaoctets (1 000 milliards de gigaoctets).
souvent faite de bric et de broc, mais elle permet de faire circuler toujours plus de données,
d’en stocker et d’en traiter toujours plus. Ce phénomène s’est amplifié avec la prolifération des
cartes de fidélité, le commerce en ligne, les
réseaux sociaux qui sont des sources infinies
de données sur les consommateurs et leurs
comportements d’achat.
De la productivité à la visibilité
Cette masse de données fait naître d’énormes
espoirs. Un nouveau champ d’investigation pour
la productivité a émergé, la visibilité. Tout dans
la vie d’un produit, d’une entreprise ou d’un
client peut s’analyser comme une suite de microévénements. La visibilité, c’est, par exemple,
l’e-pedigree des produits de santé. C’est la traçabilité des produits de grande consommation,
ou l’analyse du parcours d’un client sur un site
de commerce en ligne.
La qualité des données
Pour être exploitable, cette accumulation de données événementielles doit s’appuyer sur des
«données de bases structurées» (master data).
La qualité de ces données est le défi le plus
important lancé aux entreprises pour les cinq
prochaines années. L’enjeu n’est pas seulement dans l’entreprise mais aussi et surtout
« interentreprises ». Si la qualité des données
de base n’est pas assurée, alors les données
transactionnelles sont fausses et les dysfonctionnements apparaissent à tous les stades
de la vie de l’entreprise, de la prévision hasardeuse au litige de facturation, de l’affrètement
de transport incohérent au calcul de longueur
de facing (nombre de produits faisant face au
consommateur) aberrant. Les coûts de la mauvaise qualité des données se répartissent entre
des opérations manuelles inutiles (5 %), des
dysfonctionnements administratifs (30 %) et
surtout des pertes de chiffre d’affaires (65 %).
Dans la relation B2B (business to business ;
en français : commerce interentreprises), la
qualité des données est un enjeu de productivité. Dans la relation B2C (business to consumer [ou customer] ; en français : des entreprises au particulier), elle est un enjeu de
confiance et d’image de marque. Elle est souvent un risque de défiance et d’atteinte à l’image.
En dépit de la forte demande, le consommateur ne trouvera aucune information disponible en ligne pour plus de 90 % des articles
commercialisés dans la grande distribution.
Et s’il trouve des informations, aucune ne proviendra d’une source autorisée. Elles auront toutes été mises en ligne par une tierce partie,
soit un consommateur dans un réseau social,
soit une start-up des applications mobiles.
Des organisations nouvelles
Interrogées sur leur absence sur ce terrain
de la communication directe avec le consommateur, les marques doivent reconnaître que
c’est l’absence de confiance dans la qualité de
leurs propres données qui les incite à la prudence dans l’investissement du champ de la
communication mobile. Il existe, bien sûr, des
solutions, mais elles requièrent la mise en
place d’organisations nouvelles pour concentrer des données éparses dans les multiples
services de l’entreprise, pour gérer la validation de ces données et en contrôler la diffusion. Les ERP (Enterprise resource planning ;
en français : progiciel de gestion intégré) doivent être complétés de modules de gestion de
données de base dont la mission est de rassembler, de qualifier et de valider les données. ■
Des données dissemblables
IBM a conduit avec Global Standard One,
organisation mondiale de standardisation
des technologies dans la chaîne d’approvisionnement, des études sur la qualité des
données, dite Data Crunch. L’indicateur
de mesure est l’alignement des données, c’est-àdire la similitude des descriptions des produits
entre fournisseurs et distributeurs. Les résultats
sont sans appel : 80 % des données sont dissemblables entre les partenaires pour le même
produit. C’est particulièrement vrai pour la
désignation, les dimensions, les conditions
logistiques de transport et de stockage.
L’enjeu
de la qualité
des données
compte surtout
dans les
relations
« interentreprises »
LA JAUNE ET LA ROUGE • MAI 2012
17
P.18 Fontaine et Rapacchi
24/04/12
7:06
Page 18
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR PATRICE FONTAINE
professeur
à l’université
Pierre-Mendès-France
de Grenoble (UPMF)
Comprendre la volatilité
des marchés financiers
ET BERNARD RAPACCHI
responsable des
systèmes d’information
du laboratoire
Eurofidai
Les crises
financières
ont souligné
la fragilité
des modèles
économiques
Mieux étudier les marchés financiers
est indispensable pour en comprendre
le fonctionnement et, en particulier, l’impact
des outils de trading automatiques. Cela
implique de garder trace des cours boursiers
à des fréquences élevées (plusieurs fois par
seconde). Après avoir été en retard sur
les États-Unis, l’Europe a lancé un projet
qui doit lui permettre de disposer des bases
de données indispensables aux chercheurs.
■ L’Europe, et la France en particulier, ont
un énorme potentiel de recherche en économie et finance, grâce à une tradition d’excellence en mathématiques et en statistiques. Ce
potentiel n’est pas encore pleinement exploité
en raison d’un manque de travaux empiriques
se concentrant sur les marchés financiers
européens. Les récentes crises financières
ont souligné la fragilité des bases empiriques
des modèles économiques et financiers d’analyse utilisés pour construire les prévisions des
acteurs, les innovations financières ou les
modalités de régulation. Ce déficit est particulièrement fort au niveau européen.
REPÈRES
Aujourd’hui, les chercheurs ont à leur disposition
les bases de données américaines produites par
le Center for Research on Security Prices
(université de Chicago). Ces bases enregistrent
tous les jours les prix et les dividendes pour les
actions cotées sur la Bourse New York Stock
Exchange et les autres marchés boursiers des
États-Unis depuis 1926. Les chercheurs ne
disposent pas d’un équivalent sur les marchés
européens, ce qui emp•che toute compréhension
des particularités de ces marchés et le développement des modèles analytiques et des
produits financiers adaptés.
18
LA JAUNE ET LA ROUGE • MAI 2012
Agrégateur de données
Eurofidai est impliquée dans un agrégateur
de données financières au niveau européen
récemment mis en place par la société IODS.
Le projet, soutenu par le p™le de compétitivité
mondial Finance Innovation, tend à recréer
au niveau européen l’initiative développée par
la Wharton School de l’université de Pennsylvanie. Une seule et m•me plate-forme réunit
des données sur le marché européen des actions
(fournies par Eurofidai), sur les entreprises,
sur les fonds d’investissement et sur l’intermédiation financière, avec pour objectif de
les mettre à disposition des projets de R & D.
Bases de données homogènes
Plusieurs initiatives au niveau européen ont
été développées pour remédier à ce problème,
notamment par l’Association française de
finance, avec la création d’une base de données française quotidienne des Bourses, ainsi
que par différents centres de recherche à
Anvers, Berlin et Londres avec le développement de bases nationales de données de marché sur les actions. L’objectif d’Eurofidai
(European Financial Data Institute, unité propre de service du CNRS) est de constituer des
bases de données boursières européennes
homogènes. Eurofidai joue le rôle d’intermédiaire entre les fournisseurs privés de données et les chercheurs, en négociant le coût d’acquisition des données et en contrôlant et vérifiant
toutes les données fournies afin de les rendre
exploitables dans un but de recherche.
Eurofidai propose actuellement, via un abonnement sur son site Web (www.eurofidai.org),
différentes bases de données quotidiennes
sur les actions et indices européens, les cours
de change, les fonds mutuels et les opérations sur titres. Ces premières réalisations
ont été réalisées grâce à l’aide fournie par le
CNRS et le programme de financement à long
P.18 Fontaine et Rapacchi
24/04/12
7:06
Page 19
Fréquence insuffisante
La fréquence de toutes ces bases de données
est au mieux quotidienne. Or, souhaitant étudier au plus près la volatilité des marchés
financiers, un nombre croissant de chercheurs
européens comme américains ressentent
aujourd’hui le besoin de se fonder sur des données à haute fréquence (à une fraction de
seconde ou mieux encore). Ces données sont
en effet l’un des moyens les plus efficaces
pour évaluer avec précision la façon dont fonctionnent les marchés de titres. Elles seront
également utiles pour les responsables gouvernementaux et les autorités réglementaires pour les aider à réguler les marchés à la
lumière des récentes crises financières.
Malheureusement, les données de ce type sont
encore rarement disponibles et ne sont pas
stockées sur de longues périodes en raison
du volume énorme de stockage nécessaire à
long terme.
C’est dans ce contexte qu’Eurofidai a initié le
projet BEDOFIH (Base européenne de données
financières à haute fréquence), qui vise à créer
une base de données à haute fréquence européenne des valeurs mobilières de marchés
(pour les actions ordinaires, mais aussi pour
d’autres titres tels que les options et contrats
à terme). L’objectif principal du projet est de
stocker des données, de les structurer et de les
mettre à disposition des chercheurs.
Un progrès considérable
Pour le monde académique et les autorités
de marché, la disponibilité de ces données
représente un progrès considérable vers la
compréhension de la façon dont fonctionnent
les marchés. Entre autres, cela permettrait
d’évaluer l’impact de l’emploi croissant d’outils automatiques de trading utilisés dans le
cadre d’activités d’arbitrage et de trading
haute fréquence. Les transactions générées
par ces automates représentent plus de la
moitié de toutes les transactions effectuées
sur les marchés réglementés. L’utilisation
de ces automates a souvent été soupçonnée
GRAND ANGLE
terme du ministère français de la Recherche
(PPF), dans le cadre de différents accords
passés avec des fournisseurs de données
financières tels que la Bourse NYSE-Euronext
pour les marchés belges, français, néerlandais et portugais, et la société financière suisse
Telekurs.
Première mondiale
Les bases de données à haute fréquence
du projet BEDOFIH seraient uniques puisque
même CRSP, qui est la référence dans
ce domaine, ne fournit pas encore de données
historiques à haute fréquence (intraday).
Quelques initiatives privées recensent
des données à haute fréquence mais il y manque
de nombreuses variables utiles pour
les chercheurs universitaires et les autorités
réglementaires.
d’être à l’origine de processus de cotation
divergents menant à des variations excessives des prix, mais il n’y a pas de preuve formelle à ce jour.
Par exemple, l’analyse des événements du
6 mai 2010, qui ont induit en quelques minutes seulement une chute de 5,7 % de l’indice
Dow Jones, ne peut être réalisée que si l’on
possède des données historiques à haute fréquence. Une base de données telle que BEDOFIH devrait permettre de répondre à un grand
nombre des questions posées par cette déstabilisation brusque d’un marché et d’évaluer
les risques de propagation.
Ce projet rejoint les priorités de plusieurs
gouvernements européens sur la mise en
œuvre d’un cadre de régulation des marchés
financiers. Il s’intègre également aux réflexions
en cours sur une meilleure régulation du
High Frequency Trading dans le cadre de la
révision des directives européennes sur les
marchés d’instruments financiers et sur les
abus de marché. Cela explique que des institutions de régulation telles que l’Autorité
des marchés financiers et la direction générale du Trésor du ministère de l’Économie, des
Finances et de l’Industrie soient intéressées
par ce projet. ■
Les chercheurs
ressentent
le besoin de
se fonder sur
des données
à haute
fréquence
Investissement d’avenir
Le projet BEDOFIH a été retenu par le gouvernement comme un des 36 lauréats de la seconde
vague des Equipex (Équipements d’excellence),
projets financés dans le cadre du programme
Investissements d’avenir par le grand emprunt
national.
LA JAUNE ET LA ROUGE • MAI 2012
19
P.20 Champagnat
25/04/12
6:46
Page 20
PAR ADELINE CHAMPAGNAT
© CAROLINE MONTAGNÉ
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
présidente de
l’OCLCTIC
Riposter contre
la cybercriminalité
L’essor du numérique rend indispensable
l’adaptation des outils législatifs, répressifs
et de coopération internationale. En France,
cette action est confiée à l’Office central
de lutte contre la criminalité liée aux technologies de l’information et de la communication.
■ Le cyberespace a généré de nouvelles formes de délinquance d’autant plus difficiles à
cerner qu’elles se manifestent dans la virtualité et dans la mondialisation des échanges
par le Web. Les nouvelles attaques massives
contre des sites, institutionnels ou de grandes entreprises, créent de nouveaux problèmes.
Atteintes et fraudes
L’Office peut
effectuer une
surveillance
active des
réseaux
et procéder à
la localisation
de serveurs
L’Office central de lutte contre la criminalité
liée aux technologies de l’information et de la
communication (OCLCTIC) traite les affaires
judiciaires concernant les atteintes aux systèmes de traitement automatisé de données,
les fraudes aux télécommunications, aux cartes de paiement et aux microprocesseurs, ainsi
que toutes les formes de criminalité liées aux
nouvelles technologies (piratage informatique, phishing, piratage des distributeurs de
billets ou de carburant, etc.). Il est également
compétent en matière de lutte contre les atteintes aux systèmes d’information gouvernementaux ou de sociétés sensibles économiquement ou techniquement. En fonction des
nécessités, l’Office peut effectuer une surveil-
lance active des réseaux (sites Web, forums
de discussions, etc.) et procéder à la localisation de serveurs ainsi qu’à toute vérification
utile. Pour remplir ces missions, le service est
composé de 52 policiers et gendarmes à compétence nationale. Un ingénieur des télécommunications le conseille en matière d’interceptions et de projets technologiques.
Quatre groupes d’enquêtes
La section opérationnelle traite soit d’affaires
particulièrement techniques ou sensibles dans
lesquelles il convient d’explorer un nouveau
type de délit, soit d’affaires à caractère national et international dans lesquelles sont impliquées des équipes relevant de la criminalité
organisée. Elle est composée de quatre groupes d’enquête qui œuvrent, sur délégation judiciaire ou d’initiative, chacun dans un domaine
spécialisé : atteintes aux cartes de paiement
et aux systèmes virtuels de paiement ; fraudes
aux opérateurs de communication électronique ; piratage ; escroqueries sur Internet.
La section technique, spécialement équipée de
matériels et de logiciels d’investigations de
haut niveau technologique, assure l’assistance
aux services d’enquête, la formation d’enquêteurs spécialisés en criminalité informatique
répartis sur l’ensemble du territoire national,
la veille technologique et les interceptions judiciaires sur Internet. La section de traitement des
signalements est composée de deux platesformes. La Plate-forme d’harmonisation, d’ana-
REPÈRES
Dès 1990, la Direction centrale de la police judiciaire (DCPJ) a pris la mesure de la « cybersécurité » comme
enjeu véritable de sécurité nationale, en proposant la création d’un office central dédié à la lutte contre
la criminalité liée aux technologies de l’information et de la communication. Cette structure nationale
unique, à vocation interministérielle, est chargée d’animer et de coordonner la lutte contre les auteurs
et complices d’infractions spécifiques à la criminalité liée à ces technologies ; de procéder à tous actes
d’enquête et de travaux techniques d’investigations ; d’apporter une assistance aux services de police,
de gendarmerie et de douane ; d’intervenir chaque fois que les circonstances l’exigent pour s’informer
sur place des faits relatifs aux investigations conduites ; de centraliser et diffuser l’information sur les
infractions technologiques à l’ensemble des services répressifs. L’Office apporte également son soutien
technique aux enquêteurs en charge des perquisitions informatiques.
20
LA JAUNE ET LA ROUGE • MAI 2012
P.20 Champagnat
25/04/12
6:46
Page 21
L’expérience acquise permet de dresser
une analyse des phénomènes et de situer
les principaux réseaux criminels agissant
dans ces domaines en Afrique de l’Ouest, en Asie,
en Europe de l’Est et plus particulièrement
en Roumanie, ce pays constituant un centre
névralgique européen pour la cybercriminalité.
lyse, de recoupement et d’orientation des signalements (Pharos) a pour mission de recueillir,
traiter et rediriger vers les services compétents les traitements des particuliers et des
fournisseurs d’accès. Elle permet aux internautes de signaler les contenus ou les comportements présumés illicites au regard du
droit pénal. Ce service a reçu, en 2011, la visite
de près de 2 500 000 internautes. En 2011, plus
de 100 000 signalements de contenus illicites
ont été traités. La plate-forme téléphonique
d’information et de prévention sur les escroqueries sur Internet, dite «info-escroqueries», est
destinée aux victimes d’escroqueries, réelles
ou potentielles, qui peuvent recevoir des conseils
en termes d’information et de prévention. En 2011,
elle a enregistré plus de 26 000 appels, soit en
moyenne 2 200 appels par mois.
Des affaires transnationales
L’Office centralise l’ensemble des demandes
de renseignement en matière de nouvelles technologies. Il représente la France dans diverses
enceintes européennes et internationales spécialisées. Il est associé aux négociations de textes européens relatifs à son domaine d’action.
Au regard du caractère transnational des affaires judiciaires qui lui sont confiées, il a régulièrement recours à des demandes d’entraide
judiciaire internationale, dont l’exécution peut
être facilitée grâce à une coopération policière
privilégiée instaurée avec certains pays. Sa
mission de coordination et d’animation de la lutte
Un réseau de 58 pays
La section des relations internationales
est le point de contact d’un réseau qui permet,
dans l’urgence et dans l’attente de la mise
en œuvre de l’entraide judiciaire conventionnelle,
le gel et la conservation de données électroniques dans l’un des 58 pays membres.
GRAND ANGLE
La Roumanie montrée du doigt
contre la cybercriminalité positionne également l’Office dans le partenariat avec l’ensemble des acteurs institutionnels, concernés par le phénomène.
Une progression des affaires financières
L’Office voit son activité augmenter et se diversifier. On constate une importante progression des affaires à connotation financière,
notamment en matière d’escroqueries via
Internet, ainsi qu’une plus grande utilisation
de l’informatique dans le domaine du grand
banditisme et des stupéfiants. Les délinquants
du cyberespace utilisent parfaitement toutes
les caractéristiques de l’environnement numérique (anonymisation, extraterritorialité, difficultés d’harmonisation des législations au
plan international, etc.). L’emploi de l’informatique déborde désormais largement le cadre
des piratages individuels ou autres hackings par
«de jeunes internautes passionnés». La cybercriminalité est une source de revenus du crime
organisé et constitue une forme de criminalité organisée à part entière.
400 enquêteurs spécialisés
L’Office a mis en place avec l’ensemble
des directions de la Police nationale un réseau
d’investigateurs en cybercriminalité (ICC),
actuellement au nombre de 330. Dans le courant
de l’année, ce nombre sera porté à plus de 400.
Les axes de riposte
La riposte consiste à suivre l’évolution des
nouvelles formes de criminalité parallèlement
à celle des nouvelles technologies. Il convient
de maintenir un haut niveau de formation technique spécialisée des investigateurs en cybercriminalité, de favoriser des propositions d’évolutions réglementaires ou législatives pour
adapter les outils juridiques aux évolutions de
la cybercriminalité, de renforcer la coopération policière internationale avec le soutien
des actions et des groupes de travail spécialisés mis en œuvre par Europol et Interpol, de
participer aux actions de sensibilisation développées tant pour tout public que pour des
publics ciblés en fonction des infractions; et enfin
de développer des partenariats public-privé
nécessaires pour unifier les efforts contre la
cybercriminalité. ■
En 2011, plus
de 100 000
signalements
de contenus
illicites ont
été traités
LA JAUNE ET LA ROUGE • MAI 2012
21
P.22 Rannou
24/04/12
16:28
Page 22
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR HERVÉ RANNOU
CEO d’ITEMS
International
(Smart Grids
Consulting
Consortium)
Smart grids : le logiciel au cœur
des systèmes électriques
Les réseaux intelligents d’énergie (smart
grids) font partie de ces sujets qui semblent
éloignés des préoccupations politiques
ou stratégiques. Pourtant, c‘est l‘un
des véritables sujets des prochaines années
tant leur impact sera prégnant dans le
secteur de l’énergie électrique comme dans
celui du numérique. Le sujet touchera aussi
les collectivités et les citoyens.
Enfin, il accompagnera de manière
indissociable le développement et la maîtrise
des nouvelles énergies.
REPÈRES
Bien plus qu’une simple évolution technologique,
les smart grids associent deux mondes : l’un,
l’énergie, fait d’enjeux stratégiques structurants
avec des cycles longs et des investissements
lourds ; l’autre, le numérique, tendu vers un
univers flexible en perpétuel changement
associant infrastructures concurrentielles,
composants logiciels, applications et services
allant du fixe vers une mobilité étendue.
Opérateurs locaux
Un monde de l’énergie très divers
Les énergéticiens doivent
gérer en temps
réel l’équilibre
du réseau
De par la nature et les contraintes des flux
électriques, les énergéticiens ont toujours été
amenés à devoir gérer en temps réel l’équilibre du réseau. De la production à la consommation, ils ont mis en place des systèmes
toujours plus élaborés pour assurer cet équilibre. Les équipements informatiques et les
réseaux de communication ont ainsi pris une
place de plus en plus importante dans les
années 1980 et surtout lors de la décennie suivante. La France est souvent apparue comme
un modèle avec une capacité à gérer les grands
équilibres à l’échelle nationale.
Oligopoles européens
La plupart des autres pays européens ont des
acteurs majeurs, lesquels ne sont généralement
dominants que sur une partie de leur territoire. C’est le cas en Allemagne, en Espagne,
en Italie, en Grande-Bretagne. Souvent dotés
d’une forte culture d’investissement, ces acteurs
ont, à l’instar d’EDF, modernisé leurs réseaux,
mais dans les limites que leur imposait leur
présence géographique. De sorte que les relations entre ces opérateurs existent naturellement, mais ne sont pas toujours des plus fluides puisque les échanges d’énergie sont
sous-tendus par des mécanismes de marché.
22
LA JAUNE ET LA ROUGE • MAI 2012
Certains pays – notamment l’Allemagne et
les États-Unis – vont plus loin dans la décentralisation avec des sociétés locales de distribution et de commercialisation dont une part
significative appartient aux collectivités. Certes,
cela renforce la diversité des acteurs, mais,
d’un autre côté, cette situation crée des petits
monopoles locaux dont la taille rend illusoire
une quelconque segmentation entre distribution et commercialisation. Il n’en reste pas
moins vrai que nombre d’entre eux ne sont
pas en reste en matière de numérique.
Diversification
Plusieurs local utilities (opérateurs locaux) ont
été en pointe, non pas nécessairement dans
le pilotage numérique de leur infrastructure,
mais dans les services aux usagers et aussi…
dans le déploiement du haut débit. Ce fut par
exemple le cas de RheinEnergie avec sa filiale
NetCologne qui exploite le réseau haut débit
de la ville de Cologne, ou encore des sociétés
locales de Floride qui, au sein de la Florida
Municipal Power Agency, sont impliquées dans
le développement des infrastructures
et des services haut débit.
P.22 Rannou
20/04/12
8:14
Page 23
GRAND ANGLE
Consommateur et acteur
Référendum
La ville de Boulder, pionnière en matière
de smart grids, a dû organiser, en raison
de dépassements budgétaires, un référendum
pour poursuivre ou non sa politique d’investissement dans les smart grids. Celle-ci n’ayant été
validée qu’à 52 %, une faible majorité, la ville
a estimé qu’elle ne disposait plus de la légitimité
suffisante et a révisé sa politique.
Le poids des consommateurs
Aux États-Unis, le consommateur final est,
de fait, au cœur des préoccupations des local
utilities. C’est à partir de ses besoins (et de
ce qu’on va pouvoir lui vendre) que s’agencent les stratégies d’investissement. Beaucoup
de public utilities ne considèrent pas que les
séparations entre services énergétiques, services de télécoms, service de télévision, services Internet sont structurantes.
Soumises au contrôle exercé par les public
utility commissions (dont les membres sont
élus), les local utilities disposent cependant d’une
marge de manœuvre limitée en matière d’investissements lourds. Les citoyens y ont leur
mot à dire. Et, dans de nombreux cas, ces derniers freinent les investissements qui ont plus
vite fait de leur faire perdre leur siège que de
leur assurer leur réélection.
À l’autre bout de la chaîne, le consommateur
va aussi prendre part à l’évolution qui se prépare. Il va en devenir de plus en plus acteur.
Ce dernier ne perçoit pas toujours les vertus
du compteur intelligent. Les économies d’énergie ont finalement un impact limité sur sa facture et seuls des services véritablement innovants pourront l’amener à réduire sa
consommation.
À l’inverse, des systèmes semi-automatiques
peuvent permettre d’assister l’usager dans
cette marche vers l’efficacité énergétique.
Et surtout, le compteur intelligent va progressivement devenir le composant du bout de
chaîne de la gestion en temps réel de l’équilibre, permettant d’anticiper des périodes à
risque.
Cette évolution des réseaux énergétiques
ne concerne pas directement les infrastructures électriques mais la manière dont elles
vont être opérées en temps réel au niveau de
chaque composant et optimiser leur fonctionnement.
Le numérique va s’insérer dans les parties les
plus techniques de la gestion de l’énergie
jusqu’à tout ce qui a trait à la mise en œuvre
de services proposés aux utilisateurs.
Cette réalité pose immanquablement la question du déplacement de la chaîne de valeur.
Alors que l’électricité était un marché essentiellement vertical, le numérique et ses logiques d’interface vont conduire vers un système plus horizontal et segmenté.
Garantir la stabilité des réseaux
L’émergence des énergies renouvelables
oblige d’ores et déjà les différents acteurs de
la chaîne à repenser les réseaux. Du fait de
leur caractère intermittent, ces nouvelles
énergies peuvent mettre en péril la stabilité
du réseau. Un plafond de 30 % – défini de
manière plus ou moins empirique à partir de
travaux menés en Grèce – limite ainsi la puissance instantanée issue des énergies renouvelables dans le réseau. Cette contrainte peut
être dépassée dans les faits en stabilisant
localement les sources d’énergies renouvelables par des sources de production stable.
Une deuxième option consiste à développer
les capacités de stockage. Une troisième, qui
peut se combiner avec la précédente, est de
gérer ce risque en mode temps réel à partir
de systèmes de contrôle-commande numériques à grande échelle.
Les grandes ambitions des acteurs
du numérique
Les acteurs des télécoms et des logiciels ne se
limitent pas aux smart grids. Ces groupes
entendent investir le champ de la ville intelligente.
Le consommateur va
prendre part
à l’évolution
qui se prépare
Controverse
En Allemagne et dans les pays nordiques, le
développement des énergies renouvelables
amène la construction de centrales thermiques
fortement polluantes pour pallier les baisses de
production inhérentes aux éoliennes ou aux
panneaux solaires. D’où une controverse en
raison des rejets de CO2 induits.
➤
LA JAUNE ET LA ROUGE • MAI 2012
23
P.22 Rannou
20/04/12
7:36
Page 24
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
Compteurs intelligents
Deux exemples illustrent les nouveaux services
qu’on peut attendre des compteurs intelligents.
L’effacement est un service de pilotage
intelligent des coupures d’énergie, sur des
périodes prédéterminées, éventuellement
modifiables. L’opérateur intermédiaire qui
commercialise ce service à un client peut alors
revendre un potentiel d’énergie disponible à un
opérateur de réseau lorsque celui-ci en a besoin
en cas de surcharge.
Quant au thermostat intelligent, il est déjà très
présent sur le marché. L’un d’entre eux a été
créé par le fondateur de l’iPod, Tony Faddel.
Simple et ergonomique, il apprend surtout
le comportement de l’usager et agit automatiquement en conséquence. L’utilisateur peut
contrôler son thermostat manuellement ou sur
iPhone, et disposer de données sur son historique
de consommation ou ses dépenses.
➤ IBM a ainsi lancé en 2010 sa stratégie «Smarter
L’Europe
souffre d’un
déficit d’acteurs
majeurs de
l’industrie
du logiciel
City » qui met la gestion des données (transports, énergie, circulation, déchets, eau, etc.),
au cœur des pilotages opérationnel et prévisionnel de la ville de demain. Orange lui a
emboîté le pas avec une démarche analogue.
D’autres, enfin, issus de l’électronique – ST
Microelectronics, Texas Instruments, Intel,
Sagemcom – développent des familles de produits avec des investissements significatifs
dans le logiciel. Sans oublier les coréens LG et
Samsung, qui abordent le marché en partant
de l’habitat intelligent.
Les acteurs de l’énergie considèrent avant
tout les TIC comme un outil. S’ils perçoivent
très bien que cet outil affecte les aspects les
plus stratégiques de leur métier, ils continuent de les voir comme un secteur technologique collatéral. Ce n’est pas nécessairement la vision des acteurs du numérique, qui
appréhendent les smart grids comme un marché très prometteur.
Le poids croissant du logiciel
Un peu comme le secteur des télécommunications l’a connue et comme celui de la télévision la vit actuellement, nous allons vers
une « logicialisation » des systèmes techniques intermédiaires. L’Europe pourrait être
mal armée pour relever ce défi, car elle souffre d’un déficit d’acteurs majeurs de l’industrie du logiciel.
Depuis environ deux ans, les industriels européens de l’énergie affichent leur volonté d’acquérir une expertise logicielle. L’acquisition en
juin 2011 de la société de logiciel Telvent par
Schneider Electric et celle de la société américaine UISOL par Alstom en mars 2011 sont
des exemples parmi d’autres.
Outre-Atlantique, GE a créé une offre Smart
Grid as a Service. En partenariat avec IBM,
SAP et Teradata, ITRON lance Active Smart
Grid Analytics, qui met en avant la terminologie big data, très en vogue en ce moment
dans le numérique. La mise au point de nouveaux outils pour naviguer et exploiter les
déluges de données bientôt disponibles devient
une nécessité.
Le logiciel va prendre une part majeure dans
les architectures des infrastructures énergétiques. Cette évolution aura des conséquences importantes sur la régulation du secteur
(montée en puissance des interfaces numériques) et sur les modèles économiques.
Guerre des standards
Des milliards de dollars
investis
China’s State Grid Corporation, le gestionnaire
du réseau électrique en Chine, va investir
250 milliards de dollars dans les infrastructures
énergétiques dont 45 pour les smart grids. Cette
somme, qui semble énorme, est relativement
faible par rapport aux 7 200 milliards d’investissements (dont 480 milliards en Europe) annoncés
sur les seules infrastructures électriques dans
le monde jusqu’à 2035 (source World Energy
Outlook 2011).
24
LA JAUNE ET LA ROUGE • MAI 2012
Les standards vont jouer un rôle essentiel dans
la compétition internationale qui se met en
place. L’International Electrotechnical
Commission joue un rôle incontestable pour
harmoniser la normalisation à l’échelle mondiale. Le CEN, le CENELEC et l’ETSI semblent
vouloir de manière assez concrète y apporter
leur pierre tout en souhaitant faire exister
l’Europe.
Mais la normalisation reste un domaine complexe où intérêts nationaux, poids de gros
acteurs et stratégies de valorisation des brevets se mélangent, sans oublier les velléités de
P.22 Rannou
20/04/12
7:30
Page 25
GRAND ANGLE
Enjeux essentiels
1 800 milliards de relevés
Les 35 millions de compteurs intelligents
qui seront installés en France dans les années
à venir devraient générer 1 800 milliards
de relevés par an, soit de l’ordre de plusieurs
pétaoctets (1015), et probablement bien plus
à moyen ou long terme.
Cette masse de données intéresse les grands
noms de l’informatique, tout comme les
opérateurs télécoms qui misent, d’un côté,
sur leur « box » pour développer des services
multimédias chez le client – et pourquoi pas,
demain, comme passerelle de gestion des
données énergétiques – et, de l’autre,
sur le cloud computing pour la gestion
des contenus qui y seront liés.
la Chine à s’imposer aujourd’hui en misant sur
le poids de son marché intérieur.
Un jeu d’autant plus complexe que les cultures en matière de standardisation sont très différentes dans l’énergie et dans le numérique.
États et secteur privé
Tandis que le secteur de l’énergie reste plutôt dans un marché marqué par une gouvernance de la standardisation pilotée par les
États, celui du numérique a migré progressivement vers des structures non étatiques (ETSI,
IEEE, W3C, etc.). Mais celles-ci sont débordées par la standardisation de facto qui est au
cœur de la bataille entre les grands acteurs.
Le logiciel, et en particulier l’open source, sont
par leur caractère viral bien plus efficaces que
des tampons d’organismes de normalisation
qui ne sont sollicités qu’a posteriori.
Domination américaine
En matière de standards de fait, Microsoft,
Apple, Google, Amazon et d’autres préemptent
le marché au travers des API (application
program interface).
L’Europe est la grande perdante de cette
évolution dans les télécommunications.
Alors qu’elle dominait la standardisation,
elle peine à trouver sa place dans
ce marché des API.
Quelques signes peuvent conduire à penser
que ce champ concurrentiel va s’étendre aux
smart grids. Pendant que les uns s’intéressent aux prises des véhicules électriques et
aux interfaces physiques des compteurs, d’autres pensent déjà aux API de demain dans
l’énergie. Cette évolution masque des enjeux
essentiels auxquels l’Europe devrait être attentive si elle ne veut pas voir, demain, émerger
un Google de l’énergie.
Cybersécurité
La question de la sécurité des réseaux électriques face aux cyberattaques est désormais
considérée comme l’un des sujets majeurs
des smart grids.
Des rapports soulignent les risques d’ores et
déjà encourus. Aux États-Unis, le Congrès, le
Département de l’Énergie, le NIST et d’autres
institutions se sont emparés du sujet. L’Europe
s’y intéresse, mais les initiatives de l’ENISA
(European Network and Information Security
Agency) sont peu visibles.
Si les énergéticiens ne sont pas en train de
découvrir les questions de cybersécurité, le
degré d’interconnexion croissant des composants logiciels, des équipements, couplés à
des automates, crée de nouvelles vulnérabilités, comme le soulignait récemment un rapport du MIT.
Ce sujet, traité au sein de plusieurs projets
nationaux ou européens, nécessitera des investissements spécifiques encore relativement
peu programmés.
Des filières amenées à coopérer
En France, les filières énergétiques et numériques commencent véritablement à vouloir
collaborer en matière de R & D. Les rapprochements esquissés entre les pôles Cap Énergie et SCS dans le Sud, Minalogic et Tenerrdis
en Rhône-Alpes ou la création d’un groupe
de travail sur les smart grids dans Systématic
en témoignent. Une coordination entre filières est en train de se mettre en place. Espérons
que les financements de projets soient à la
hauteur des enjeux pour la France.
Notre pays, et plus globalement l’Europe, doivent trouver leur place sur ce marché de
l’énergie dont les contours et les modèles
économiques risquent d’être structurellement affectés par le développement actuel
des smart grids. ■
La sécurité
des réseaux
électriques
face aux
cyberattaques
est un sujet
majeur
LA JAUNE ET LA ROUGE • MAI 2012
25
P.26 Goetz
24/04/12
7:10
Page 26
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR JEAN-MARC GOETZ
consultant senior
chez Parker
& Williborg
L’entreprise doit protéger
les données personnelles
L’actualité présente de plus en plus de cas
de sociétés confrontées à des pertes
de données, ou à des transferts d’informations personnelles mal contrôlés ;
des réseaux sociaux invitent leurs abonnés
à fournir des données qu’ils ne maîtriseront
plus. Face à cette situation, quelle est
la bonne attitude ? Des dispositifs de suivi
et de marquage des données apportent
une première réponse.
L’Union
européenne
applique
une politique
de protection
des données
des plus
rigoureuses
■ Nous sommes à tout moment amenés à
fournir des données personnelles, parfois
confidentielles, que ce soit volontairement ou
non. Or, l’actualité présente de plus en plus
de cas de sociétés confrontées à des pertes
de données, ou encore à des transferts d’informations personnelles mal contrôlés ; par ailleurs, des réseaux sociaux invitent leurs abonnés à fournir des données sans nécessairement
leur donner les moyens de les retirer ou, au minimum, de les suivre. Face à cette situation,
quelle est la bonne réponse individuelle et collective ? Faut-il adopter la position du « laisser faire» pour la plus grande satisfaction d’un
Big Brother ? Faut-il être suspicieux à la limite
de la paranoïa et ne rien fournir ? Dans cette
chaîne de responsabilités, qui doit faire quoi,
quelles sont les responsabilités respectives
de l’individu et de l’entreprise ?
REPÈRES
La réglementation protégeant les données
personnelles se met en place et se renforce dans
de nombreux pays. Les autorités de contrôle et
notamment la CNIL (Commission nationale
Informatique et Libertés) en France se montrent
de plus en plus actives et les particuliers font
davantage valoir leurs droits. Dans ce paysage,
l’entreprise joue un rôle essentiel.
26
LA JAUNE ET LA ROUGE • MAI 2012
Un arsenal complexe
La Directive européenne 95/46/CE constitue
le cadre juridique de la protection des données
personnelles et limite fortement l’accès
à ces données en dehors du périmètre de l’Union
européenne, en interdisant les transferts
de ces données hors de l’Union. Les évolutions
pressenties de ce texte visent à encadrer
plus strictement le traitement de données
personnelles : obligation de désignation
d’un correspondant Informatique et Libertés,
alourdissement des sanctions, etc.
Une situation contrastée
Le paysage international est pour le moins
contrasté. L’Union européenne applique une
politique de protection des données considérée
comme une des plus rigoureuses, or les entreprises, notamment les multinationales, vivent
constamment des situations incompatibles avec
ces obligations réglementaires : comment accéder, à partir des États-Unis, à un annuaire électronique de personnes d’un groupe d’origine
allemande dans le respect de ces obligations ?
Aussi existe-t-il un système dérogatoire admis
par les autorités de contrôle si un arsenal juridique ad hoc est instauré au sein de l’entreprise :
les Binding Corporate Rules pour l’Union européenne, le Safe Harbor pour les États-Unis. La
réglementation internationale évolue également
avec des initiatives qui rapprochent différentes
zones géographiques de la position européenne.
Cloud computing et dématérialisation
Si les données sont soumises à la réglementation en vigueur sur le lieu et le pays d’hébergement, le cloud computing vient brouiller les
cartes en donnant peu ou pas d’indications sur
la localisation de l’hébergement des données et,
qui plus est, sur la nature de l’hébergement :
s’agit-il d’un hébergement permanent ou provisoire ? Sommes-nous dans une situation où
il n’existe qu’une seule source de production
P.26 Goetz
24/04/12
7:10
Page 27
GRAND ANGLE
Règles internationales
Les Binding Corporate Rules (BCR) constituent un code de conduite définissant la politique d’une entreprise
en matière de transferts de données. Elles offrent une protection adéquate aux données transférées depuis
l’Union européenne vers des pays tiers à l’Union européenne au sein d’une même entreprise ou d’un même
groupe. Le Safe Harbor est un ensemble de principes de protection des données personnelles, négociés
entre les autorités américaines et la Commission européenne en 2001. Les entreprises établies aux ÉtatsUnis adhèrent à ces principes auprès du Département du Commerce américain. Cette adhésion les autorise
à recevoir des données en provenance de l’Union européenne.
de la donnée, avec un seul hébergement? Quel
est le statut des données de sauvegarde ? Mais
le cloud non maîtrisé n’est pas une fatalité : les
entreprises peuvent continuer à internaliser
leurs ressources d’hébergement de données
sensibles, quitte à mettre en place un environnement de cloud computing privé.
L’entreprise, acteur clé
Nous sommes encore loin d’un accord mondial pour la gestion et la circulation des données personnelles ; d’autre part, l’individu ne
peut pas éternellement faire de la résistance
quant à la fourniture de ses données. L’entreprise
a donc un rôle majeur à jouer car ses activités
impliquent le traitement de données personnelles de collaborateurs, de clients, de fournisseurs et autres tiers. Son rôle se révèle
déterminant pour différentes raisons. Elle collecte et gère des données personnelles, elle peut
être à même de transférer ces données audelà des frontières; elle doit donc présenter toutes les garanties de conformité à la réglementation du pays. Elle doit aussi maîtriser la chaîne
de traitement des données personnelles : s’assurer de la finalité des données, garantir l’usage
prévu sans détournement, gérer la sécurité
des données personnelles avec les règles de
confidentialité appropriées, ainsi que leur durée
de conservation. Enfin, elle doit assurer la meilleure transparence en informant les personnes,
en leur proposant des droits d’accès, de modification, voire d’opposition sur les informations
personnelles communiquées.
Opacité
Si l’entreprise garde la maîtrise de ses données,
en revanche l’individu a de moins en moins
le choix : une situation de recherche d’emploi
l’invite à fournir sans réserve des données
privées ; les e-services et téléprocédures
viennent l’encourager à formuler ses demandes
bien fournies en données personnelles via
Internet parfois sans indication sur la localisation
ni le sort de ces informations.
Impact large
Un programme de protection des données
personnelles a un impact sur un large ensemble de processus de l’entreprise : les ressources humaines, le juridique, mais aussi les
achats, la sûreté, les systèmes d’informations, etc. Son application peut prendre
diverses formes. D’abord, assurer des formations, des actions de sensibilisation auprès
des collaborateurs amenés à traiter régulièrement des données personnelles. Ensuite,
définir des clauses et des mentions types
concernant la protection des données personnelles à intégrer dans les contrats. Enfin, définir un cadre méthodologique pour la conception des processus et applications d’entreprise,
avec l’application de règles pour le respect
de la vie privée dès la phase de conception
des processus et applications d’entreprise.
Is Big Brother still watching you 1 ?
Certes, ce type de programme, mis en place
par de plus en plus d’entreprises, permet de
donner une réponse aux enjeux réglementaires de la protection des données personnelles, mais il constitue aussi une opportunité
intéressante pour l’analyse du système d’information existant et de ses données. Il offre
également un cadre méthodologique de gestion de la traçabilité, en permettant de répondre au mieux aux questions posées sur le
stockage et l’historique des données personnelles. Il permet enfin une politique de communication interne et externe axée sur la
transparence et la confiance.
Ainsi, avec ce type de programme, l’entreprise
assure pleinement son rôle dans cette chaîne
de responsabilités, dans un contexte où les
autorités de contrôle montent en puissance et
où les réglementations se durcissent.
Si Big Brother nous regarde, peut-être commencera-t-il cependant à craindre ces dispositifs de suivi et de marquage des données qui
apportent une meilleure traçabilité. ■
LÕindividu
ne peut pas
Žternellement
refuser
de fournir
ses donnŽes
1. « Big Brother vous regarde-t-il toujours ? »
LA JAUNE ET LA ROUGE • MAI 2012
27
P.28 Laurier
24/04/12
16:30
Page 28
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR PHILIPPE LAURIER
enseignant à l’École
polytechnique
Nomadisme informatique,
nomadisme des identités?
ET CLAIRE DUFETRELLE (2009)
Mémoire de nos identités, de nos moyens de la confirmer, de nos habitudes, de nos
mouvements : les objets intelligents ou communicants se multiplient dans notre environnement
immédiat, mais aussi jusque dans notre corps ou dans l’isoloir du bureau de vote. Tandis
que notre intimité numérique rétrécit à l’instar d’une peau de chagrin, il s’instaure
une logique qui échappe à l’individu, alors pourtant qu’elle touche à l’individu.
Nous ne
sommes plus
le centre
■ Une bande dessinée d’anticipation éditée
il y a une quarantaine d’années imaginait la
civilisation de l’autoroute (en prolongement
de l’ère Pompidou avec son fameux « les
Français aiment la bagnole », et autres voies
express sur berges) où l’être humain adoptait définitivement le camping-car, renonçait
aux maisons pour devenir éternel voyageur
sur des autoroutes sans fin, déléguant la production de biens aux robots. Cette bande dessinée imaginait une sorte d’ordinateur central avec lequel nous serions en correspondance
pour nos affaires administratives et comptables. Parfois survenait quelque dysfonctionnement tel ce conducteur solitaire retrouvé
par la police motorisée dans son véhicule,
mort de faim, après que l’ordinateur eut par
erreur perdu toute trace de son identité, donc
de son existence, et lui eut par conséquent
refusé le moindre débit bancaire, donc l’ultime moyen d’acheter l’essentiel alimentaire.
Deux points semblaient évidents au dessinateur, qui l’un et l’autre pourtant recelaient
des ambiguïtés de vocabulaire.
Une civilisation de la mobilité
qui recrée un centre
D’abord, le grand ordinateur serait central,
chose banale dans l’informatique des années
1970. Sans comprendre que cette position ne
tiendrait pas tant à la technique mais, par une
voie détournée, au simple fait qu’en être gestionnaire vous attribue cette place stratégique. Les autres étant alors « terminaux ». Il
est regrettable que nous utilisions ce mot, terminaux, pour désigner trivialement nos téléphones ou nos ordinateurs sans prendre
conscience de son sens spatial : nous ne sommes plus le centre (peut-être ne l’avons-nous
jamais été, mais en des temps où le centre ne
se matérialisait pas avec sa puissance de
calcul actuelle).
REPÈRES
Dans l’avant-numérique, c’est-à-dire il y a peu d’années, nous pouvions nous définir en tant qu’individus
à qui il était parfois demandé de justifier de leur identité, souvent par le recours à une carte ou à un
certificat dont nous serions alors porteur, dûment agrémenté de coups de tampons ou de filigranes ; nous
étions l’alpha et l’oméga, l’existant et sa preuve (les registres paroissiaux ou administratifs traçaient
des chronologies et des filiations mais ne constituaient pas de véritables supports d’identification pour
l’immédiateté). Demain, il nous sera demandé de correspondre à une identité préenregistrée, mais
désormais vivante hors de nous, binaire. Binaire car inscrite sur mémoire informatique. Vivante car en
croissance, faite d’ajouts tantôt par des données personnelles, y compris biométriques, tantôt par notre
profil comportemental qui est partie prenante de notre identité globale, avec nos préférences, nos
déplacements journaliers, nos adresses.
28
LA JAUNE ET LA ROUGE • MAI 2012
P.28 Laurier
20/04/12
7:59
Page 29
Google ou Facebook rivalisent de discrétion pour
placer des pions dans les secteurs technologiques de la biométrie ou de la reconnaissance
faciale, à coup de rachats si besoin, tel que l’an
passé celui de la jeune entreprise PittPatt
(Pittsburgh Pattern Recognition), essaimée
en 2004 de l’université Carnegie Mellon.
Ensuite, chaque voyageur se trouverait en correspondance avec cet ordinateur, au sens de
dialogue administratif, par ce terme de correspondance désignant un courrier. Or correspondance avec l’ordinateur renverra dans
les faits à une seconde acception du mot : être
en conformité avec.
Être nomadisé,
être en conformité
Sur un mode plus humoristique que dramatique, cette bande dessinée se livrait à ce que
l’on supposait à l’époque être caricatural, simple exercice intellectuel, du sous-Orwell.
Pourtant, elle dressait par avance le constat
majeur que l’être nomadisé – avec ses téléphones mobiles, son PC portable, ses tablettes électroniques, ses puces RFID de métro
– se trouve en partie dépossédé de la gestion
de son identité. Laquelle échoit à une ou plusieurs autorités privées ou publiques, commerciales souvent, qui nous connaissaient initialement par un identifiant et un authentifiant
(un mot de passe par exemple). Mais qui
progressivement, au motif d’une insécurité
qu’elles sont du reste parfois les premières à
avoir créée ou à tout le moins tolérée, nous
expliquent que notre sécurité impliquera
davantage de délégation du contrôle sur notre
identité, avec la biométrie ou avec la reconnaissance faciale.
Être copie conforme
de notre propre copie
L’axe suivi par cette trajectoire technologique
est l’obligation progressive de prouver que l’on
est soi, mais par le contresens de devoir montrer que l’on correspond à ce qu’une base de
données connaît de nous : notre ADN, notre
iris est-il conforme à la mémoire numérique,
notre visage est-il tel que répertorié ? Ce n’est
GRAND ANGLE
Contrôle d’identité
plus la mémoire qui doit correspondre à la
réalité, mais bien nous, réels, qui devons être
similaires en tout point à notre propre identité clonée et virtuelle.
Une seconde contradiction tient à l’effet de
mode autour des télécommunications, où nous
nous proclamons soudainement nomades alors
que la « mémoire de nous » reste grandement
statique, hébergée sur des fermes de serveurs.
Elle est sédentaire, oserait-on dire. Vieille lutte
qui renvoie aux origines du néolithique, mais
où le vainqueur final est généralement le sédentaire, c’est-à-dire pour l’occasion le propriétaire des ordinateurs (pour nos données archivées, la traduction en bon français du concept
marketing de cloud serait « écran de fumée »
plutôt que « nuage »).
Localisation géographique
Outre les dispositifs de reconnaissance biométrique intervient la localisation géographique.
En 2011, deux chercheurs ont montré que
l’iPhone stockait des données récoltées sur
nos déplacements géographiques, sans que
l’utilisateur en ait été informé. Dans une étude
menée peu après, la CNIL – Commission
nationale de l’informatique et des libertés –
précisait que «l’observation du téléphone pen-
➤
Voiture indiscrète
On se souvient de cette mésaventure en Malaisie
d’un propriétaire de grosse cylindrée allemande
équipée d’un système antivol par lecture d’empreinte digitale, dont les voleurs auraient pris
soin de couper le doigt pour activer le démarrage. Depuis lors, la recherche allemande
s’attelle à déterminer si un doigt qui est présenté
au coupe-circuit revêt ou non les caractéristiques
d’un tissu vivant. De même, plusieurs constructeurs automobiles achèvent de mettre au point
des sièges bardés de capteurs et aptes
à détecter un endormissement ou un malaise.
Chose qui intéressera à terme les assureurs.
Avec pour capacité collatérale tôt ou tard
de pouvoir identifier un conducteur par divers
signes physiologiques, dont son rythme
cardiaque, propre à chacun. Performance
à portée de main et qui fera naître des envies
d’antivols ou mille autres usages, car on saura
le qui, le où et la vitesse. Un jour peut-être aussi
le « avec qui » si le siège passager bénéficie
de la même instrumentation.
L’être
nomadisé
se trouve
en partie
dépossédé
de la gestion
de son identité
LA JAUNE ET LA ROUGE • MAI 2012
29
P.28 Laurier
20/04/12
8:00
Page 30
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
➤ dant plusieurs nuits a permis de découvrir
que l’iPhone contacte les serveurs de géolocalisation d’Apple ponctuellement sans aucune
intervention de l’utilisateur, dès lors qu’il est
allumé et connecté à un point d’accès Wifi ».
Recours potentiels à la localisation dont il est
à craindre donc qu’elle s’accomplira non seulement sur l’instant, mais également par une
trace conservée de nos précédents itinéraires : je suis Untel car présent ici et passé par
là, sans usurpation car toujours resté sous
l’œil ; veuillez donc autoriser mon actuel paiement électronique dans cette boutique. Les
paiements par nos téléphones portables répondront peu à peu à cette logique.
Dérives du télépaiement
La prochaine étape est effectivement la monnaie, via le paiement depuis nos terminaux
mobiles : monnaies publiques ou nouvelles
monnaies privatives proposées par les réseaux
sociaux, avec de leur part un désir de présenter ces monnaies qui sont leur propriété comme
plus sécurisées car émises et validées sur
leur univers virtuel où nos identités sont peu
à peu présentes – ces acteurs économiques
deviennent l’alpha et l’oméga que nous ne
sommes plus. La traditionnelle carte à puce
était en comparaison plus discrète, qui certes indiquait où nous – par notre authentifiant
– nous trouvions à un moment donné – par le
Les objets
intelligents
vont dialoguer
sans
nécessairement
requérir notre
autorisation
30
Les vraies pratiques de Google
Alex Türk, président de la CNIL, s’était dit
« inquiet de ce qu’un célèbre moteur
de recherche soit capable d’agréger des données
éparses pour établir un profil détaillé de millions
de personnes (parcours professionnel
et personnel, habitudes de consultation
d’Internet, participation à des forums…) »,
proclamation qui date de 2007. En 2012, lorsque
la même entreprise annonce lancer la refonte
de sa « politique de confidentialité » en croisant
plus de données issues de son moteur
de recherche, de la messagerie Gmail et du site
de vidéo Youtube, la CNIL déclare à propos
de « la formulation des nouvelles règles
et la possibilité de combiner des données issues
de différents services » qu’elles soulèvent
« des inquiétudes et des interrogations sur
les pratiques réelles de Google ».
LA JAUNE ET LA ROUGE • MAI 2012
terminal de paiement –, mais qui n’avait pas
le moyen ni le besoin de savoir nos pérégrinations entre-temps. Certains paiements sur
Internet, y compris depuis nos terminaux fixes,
ne conservent d’autorisation que si notre téléphone mobile confirme que nous sommes bien
au même instant au lieu déclaré. En attendant une couche supplémentaire qui nous
demandera de prouver à notre propre téléphone et à ses capteurs que nous sommes
nous, tels qu’enregistrés par la grande mémoire
sédentaire.
Les objets intelligents, entre devoir
de mémoire et droit à l’oubli
Mémoire de nos identités, de nos moyens de
la confirmer (depuis le mot de passe jusqu’à
la génétique), de nos habitudes, nos mouvements : les objets intelligents ou communicants vont se multiplier dans notre environnement immédiat, notre maison, notre voiture,
mais aussi des lieux aussi intimes que notre
corps (capteurs à usage médical) voire l’isoloir
du bureau de vote.
Ces objets intelligents vont dialoguer sans
nécessairement requérir notre autorisation.
Qui sera le réceptionnaire, l’héritier et le gestionnaire de cette masse de données intimes ?
Une intimité en forme
de peau de chagrin
Notre intimité numérique s’apparente à une
peau de chagrin, rétrécissant non pas du fait
des technologies mais de l’usage qu’on en
permet. Les récentes cartes de transport pour
les abonnés du métro ne nous démentiraient
guère, qui de manière fréquente nous connaissent conjointement à travers notre identité,
notre photo numérisée archivable, un paiement mensuel usuellement effectué par carte
bancaire, et nos récents passages aux bornes. À nouveau la CNIL s’était émue de ce
que la RATP ait, lors de son lancement en
2009, fait bien peu de publicité au Navigo
Découverte, l’équivalent anonyme du Passe
Navigo ; dont la délivrance était quant à ce
dernier gratuite, tandis que la version anonyme était facturée 5 euros. Il s’agit là de
choix volontaires.
Au nom officiellement d’une bonne gestion de
la relation au client, à des fins publicitaires,
policières ou autres, s’instaure une logique
qui échappe à l’individu, alors pourtant qu’elle
touche à l’individu. ■
P.28 Laurier
24/04/12
16:30
Page 31
GRAND ANGLE
Le vote électronique,
ou l’improbable mariage de la transparence et du secret
© JEAN-CHRISTOPHE JARDIN
Le vote électronique, ou e-vote, pose la question de la
faisabilité d’un vote sûr. Il recouvre :
– le vote à domicile, sur ordinateur, via une plateforme sur laquelle chacun s’identifie, choisit le
candidat et valide son vote. Ce vote à distance n’est pas
entièrement fiable au niveau technique, car il n’existe
pas de système parfaitement robuste aux infections.
De plus perdure une difficulté inhérente à l’utilisation
d’ordinateurs personnels puisqu’il est impossible
d’établir un lien sécurisé entre le terminal du réseau
physique et le dernier maillon qu’est l’utilisateur
humain. Faute d’authentification par pièce d’identité,
deux options demeurent : utiliser une information
connue uniquement de la personne ou utiliser une
donnée biométrique. Cependant aucune d’elles n’est
satisfaisante : la première permettrait de voter pour
autrui en connaissant son information secrète (avec
risque d’extorsion par la force) et la deuxième soustend la possession par l’institution étatique d’un fichier
exhaustif des données biométriques ;
– les machines pour recueillir les suffrages des
votants qui se déplacent jusqu’au bureau de vote. Leur
unique avantage est de permettre un dépouillement
Boîtiers individuels de vote électronique
plus rapide, or cette même étape constitue un point
à l’Assemblée nationale française.
faible. Pour que la machine soit utilisable, il importe
qu’elle soit scellée mais, à l’image de l’urne
transparente 1, que son fonctionnement soit visible de tous. Dans les faits, cela reviendrait à créer des
appareils dont le code soit lisible par tous, consultable sur demande. Un premier problème est qu’il n’est
pas possible de s’assurer soi-même du fonctionnement de la machine : « l’urne » n’est pas transparente.
Une conséquence de cette opacité est que nul ne peut être certain que son vote ait été correctement
enregistré. Quand bien même émettrait-elle un reçu en papier, il n’est pas assuré que celui-ci reflète ce
qui existe dans la mémoire de l’ordinateur. Dans le dépouillement électronique, le comptage des voix se
fait de manière opaque envers l’humain. Même un homme connaissant (et comprenant) le code de la
machine ne peut être garant qu’elle donnera le résultat exact, et une erreur informatique demeure
possible 2. De même qu’existent des sources de fraude.
De plus, le choix de l’équipe vérificatrice est d’ordre politique : comment la choisir pour donner confiance
à tous ? Comment s’assurer que la machine sera bien configurée et pas modifiée avant le scrutin ?
Un cas intéressant est fourni par les Pays-Bas. Alors que la quasi-totalité des votes se déroulait sur
machines à voter, une commission mise en place pour étudier la question a prouvé la trop grande possibilité
de fraude 3. Finalement le vote électronique a été abandonné en mai 2008. Décision principalement motivée
par le fait que la machine ne produit aucune preuve papier permettant de vérifier que le vote enregistré
correspond à la volonté du votant.
De surcroît, selon cette commission, le secret du vote ne peut être garanti. Un paradoxe est résumé ici, d’une
machine dont on attend de la transparence mais tout en nous garantissant le principe du secret, et dont on
attend une preuve du fidèle enregistrement de notre vote mais tout en nous garantissant que cette trace
restera confidentielle.
La suppression du caractère humain de la procédure empêche le citoyen de se forger l’intime conviction
qu’elle reste juste, que ce sont bien des hommes libres et conscients qui choisissent leurs représentants
par une voie éprouvée, et renouvelée à travers le temps. L’outil informatique doit rester sous l’égide du
sens critique.
Le secret
du vote
électronique
ne peut être
garanti
1. Le code électoral spécifie que l’urne doit posséder au moins quatre côtés transparents.
2. Se référer au fameux théorème de Gödel et aux travaux de calculabilité de Hilbert, qui prouvent
l’impossibilité de montrer qu’un programme informatique renvoie la réponse exacte en un temps fini.
3. Commission Korthals-Altes, 2007.
LA JAUNE ET LA ROUGE • MAI 2012
31
P.32 Tru Dô-Khac
24/04/12
16:34
Page 32
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR TRU DÔ-KHAC (79)
président du groupe XPropriété intellectuelle
Open savoir-faire,
une innovation radicale
inspirée de l’open source
Le numérique pose un défi sans précédent
à la conservation du savoir-faire. Mais,
avec de nouveaux usages du droit d’auteur
en entreprise, ce savoir-faire est source
de modèles d’affaires numériques inédits
que nous désignons par open savoir-faire.
Une démarche qui pourrait procurer
des avantages analogues à ceux
de l‘open source.
Les entreprises de
services
doivent
imaginer
des politiques
alternatives
■ Le savoir-faire d’une entreprise est source
d’avantages compétitifs durables. Objet de
convoitise de la part de la concurrence, le
savoir-faire est protégé par le secret, une qualité qui lui est consubstantielle. Pour une entreprise manufacturant des produits, on imagine
aisément que l’on puisse mener une politique
de non-divulgation de savoir-faire. L’achat d’un
produit manufacturé n’emporte généralement
pas l’accès à la conception ou au procédé de
fabrication, et l’entreprise peut tenir contractuellement ses salariés au secret des affaires
et à un devoir de réserve pendant et après leur
collaboration.
Le savoir-faire en services professionnels
En revanche, on voit plus difficilement quels
dispositifs de protection mettre en place lors
de la fourniture de services professionnels
tels que le conseil en gestion des affaires ou
l’ingénierie de systèmes d’information.
Tout d’abord, le client bénéficiaire d’un service peut directement observer le savoir-faire
mis en œuvre lors des prestations. Puis il peut
même participer à cette mise en œuvre lors
de pilotage conjoint et des phases de conception. Ensuite, il impose souvent des clauses
de transfert de savoir-faire. Enfin, quand bien
même les deux parties en conviendraient-elles,
il est problématique de réserver l’accès au
32
LA JAUNE ET LA ROUGE • MAI 2012
REPÈRES
« Un savoir-faire se définit comme un ensemble
d’informations pratiques non brevetées,
résultantes de l’expérience et testées qui est :
– secret, c’est-à-dire qu’il n’est pas généralement connu ou facilement accessible ;
– substantiel, c’est-à-dire important et utile pour
la production des résultats ;
– identifié, c’est-à-dire décrit d’une façon suffisamment complète pour permettre de vérifier
qu’il remplit les conditions de secret et de substantialité. » (Cahier des clauses administratives
générales applicable aux marchés publics de
prestations intellectuelles, 2009.)
savoir-faire aux seuls collaborateurs habilités du client alors que des fournisseurs tiers
concurrents du détenteur du savoir-faire sont
concomitamment employés.
Ainsi, une entreprise innovante de service est
condamnée, à terme, à perdre cet avantage
compétitif par l’effet même de son succès.
Encore récemment, ce terme était de plusieurs
années. Avec les réseaux sociaux numériques,
il se réduit à quelques clics de souris.
Face à ce défi inédit, les entreprises de services professionnels porteuses de savoir-faire
doivent imaginer des politiques alternatives.
Troc entre savoir-faire et réputation
Premier exemple, élémentaire, celui d’un
expert divulguant son savoir-faire dans un
ouvrage. Outre une communication de savoirfaire, cet ouvrage en propose des représentations stylisées originales et dès lors porteuses de droits d’auteur. Leur utilisation impliquant
la citation de l’auteur et de la source, l’expert
offre ainsi un troc entre savoir-faire et réputation. En cas d’emprunt notable à des fins
commerciales, une compensation financière
est possible.
P.32 Tru Dô-Khac
24/04/12
7:34
Page 33
Un open savoir-faire est un savoir-faire divulgué. Sa
formulation, nouvelle et stylisée, est une création
originale et dès lors porteuse de droits d’auteur.
Nous exposons ici « HORIT ». Cette création, qui
avance une figure de l’immatériel à cinq composantes, est protégée par le droit d’auteur.
« Référentiels SI » sous copyright
Second exemple, complexe, celui des « référentiels SI », ouvrages en gestion informatique publiés sous copyright. Présentés souvent comme des « meilleures pratiques » par
leurs promoteurs, ce sont des produits immatériels. On peut faire remonter leur essor au
début des années 2000. À l’époque, une poignée d’entreprises internationales domine de
leur savoir-faire le marché des prestations
informatiques.
Opérant globalement, ces entreprises aux marques prestigieuses mettent en œuvre des
méthodes qu’elles ont éprouvées sur le marché nord-américain et qu’elles protègent jalousement par le secret des affaires et le copyright.
Pour leurs concurrents locaux n’ayant ni la
surface financière ni le temps d’investir dans
le développement et la promotion d’un savoirfaire compétitif, il s’agit de trouver une riposte.
Or, outre-Manche, il existe une offre de savoirfaire informatique. Pilotée par l’Office Government of Commerce (OGC), celle-ci confère un
avantage compétitif certain à ses souscripteurs. Le savoir-faire en question est celui de
la Central Computer and Telecommunications
Agency (CCTA). La CCTA a consigné ses pratiques en gestion de systèmes d’information
dans des ouvrages, et les prestataires informatiques anglais les utilisent comme un guide
qualité pour répondre à des consultations.
Comme ces ouvrages sont rassemblés sous
une marque, leurs souscripteurs en tirent un
signe distinctif de reconnaissance ; et ces derniers ont commencé à s’organiser en ligue
GRAND ANGLE
Protection juridique
internationale. Pour des prestataires informatiques débutants, c’est une opportunité stratégique. Mais, pour l’OGC, c’est une opération
de valorisation de savoir-faire par la collecte
de royalties de copyright.
Les stratégies open savoir-faire
Pour éclairer les alternatives stratégiques au
savoir-faire, nous avançons une matrice à deux
dimensions : la première, désignée par share,
adresse l’exposition de l’expression du savoirfaire ; la seconde, désignée par protect, adresse
la concession des droits afférents à l’expression du savoir-faire. Pour chaque dimension,
nous posons deux directions : pour la dimension share, cela sera non divulgué-publié; pour
la dimension protect, cela sera copyright-open.
Ainsi configurées, ces dimensions sont croisées, faisant
apparaître en
damier quatre
stratégies de
savoir-faire : le
«secret d’entreprise », qui est
un savoir-faire
Les stratégies open savoir-faire.
exclusif parfois
objet de titres de propriété industrielle, le «pragmatisme stylisé », ouvrages publiés sous copyright par des professionnels expérimentés aux
talents d’écrivain et de graphiste, les « ligues
de pratique », associations développant sous
des processus analogues à ceux du logiciel des
pratiques professionnelles sous copyright et
signées par des marques, et les « communautés de pratique », dont l’expérience est partagée librement et licitement via les réseaux
sociaux numériques professionnels publics et des
régimes de droits d’auteur permissifs tels que
les licences Creative Commons ou les licences
Libres Savoirs ParisTech.
Maintenu enfermé dans l’entreprise, le savoirfaire est sous-tendu par une stratégie d’exclusion. Cette stratégie est celle des éditeurs
de logiciels propriétaires qui bloquent l’accès
aux sources et à leur savoir-faire. Inspiré par
l’open source, on peut opter pour une stratégie d’ouverture que nous avons désignée par
open savoir-faire. Cette stratégie permet de
bénéficier du retour d’expérience et des enrichissements apportés par des partenaires ou
des concurrents. ■
Une expérience
peut être
partagée
librement
et licitement
LA JAUNE ET LA ROUGE • MAI 2012
33
P.34 Hoffmann
24/04/12
10:21
Page 34
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR ALEXANDRE HOFFMANN
directeur général de
PayPal France
Quatre évolutions vont marquer le monde
du paiement : l’ascension fulgurante
du « m-commerce » (commerce mobile),
familiarisant des millions d’utilisateurs avec
l’utilisation de leur téléphone mobile pour
acheter et payer ; la multiplication
des appareils connectés, suscitant le besoin
d’un portefeuille de paiement « dans
le nuage » ; l’avènement du « t-commerce »
(commerce par télévision) ; et la disparition
de la frontière entre commerce traditionnel
et commerce en ligne.
Acheter
et payer avec
son appareil
mobile est
devenu simple
et sécurisé
34
Nouveaux modes de paiement :
quatre prévisions pour 2012
■ Difficile de se faire une idée précise de ce
qui façonnera l’avenir du paiement, et avec lui
de notre quotidien. Il est toutefois possible
d’en préciser les contours, en étudiant en profondeur les «grappes d’innovation», ces points
d’intersection entre nouvelles technologies et
simplicité d’utilisation. Ces signes tangibles
qui montrent que l’innovation du paiement est
prête à occuper le devant de la scène.
L’ascension fulgurante
des paiements mobiles
L’industrie du mobile est en train de passer
un nouveau cap, avec l’adoption massive des
téléphones intelligents, appelés à devenir en
quelques années le périphérique connecté
dominant pour plus de deux milliards de personnes dans le monde. Le véritable pouvoir
des appareils mobiles connectés réside dans
la manière dont ils changent radicalement le
comportement d’achat des consommateurs,
qui désormais saisissent la vente flash de leur
marque préférée dans le métro matinal, achètent leur ticket de cinéma au café, ou paient
leur repas avant même de pénétrer dans leur
fast food favori. Grâce à son ergonomie revue
et fluidifiée, le paiement mobile contribue au
cercle vertueux de l’innovation : acheter et
payer avec son appareil mobile est devenu
LA JAUNE ET LA ROUGE • MAI 2012
REPÈRES
Jour après jour, nous sommes témoins de
nouveaux comportements des consommateurs
et découvrons de nouvelles innovations
technologiques pour y répondre, mais il est
souvent difficile de distinguer les effets de mode
des réelles innovations. Cette tendance générale
s’affirme en particulier dans l’industrie des
paiements : les initiatives se multiplient, venant
d’horizons les plus divers. Si beaucoup d’idées
paraissent séduisantes à première vue, peu
possèdent la combinaison gagnante pour susciter
rapidement l’adoption d’une masse critique
d’acheteurs et de vendeurs.
simple et sécurisé, augmentant le taux de
conversion pour le marchand.
Plus fondamentalement, le m-commerce se
révèle être un puissant catalyseur pour familiariser à brève échéance des millions de
consommateurs avec l’utilisation de leur mobile
pour payer à distance – vecteur de l’indispensable confiance pour ensuite susciter l’utilisation de ce même portable pour acheter et
payer dans le monde physique.
2011, année clé
2011 a marqué le démarrage du commerce
et paiement sur mobile à une échelle industrielle : plus de 17 millions d’utilisateurs ont payé
sur leur mobile avec PayPal en 2011 (générant
un volume de 4 milliards de dollars). Rien qu’en
France, c’est plus de 3 500 commerçants qui
ont vendu sur le mobile grâce à PayPal l’an
dernier. Pour des e-commerçants comme eBay
ou ShowroomPrivé.com, le « m-commerce »
représente désormais près de 10 % des ventes.
Cette tendance va encore s’accélérer en 2012 :
PayPal prévoit de pratiquement doubler
son volume de paiement sur mobile, visant
7 milliards de dollars.
P.34 Hoffmann
24/04/12
10:21
Page 35
GRAND ANGLE
Réinventer la distribution
Nouveaux « terminaux »
Nous assistons à un véritable foisonnement
de nouveaux appareils connectés : l’iPad d’Apple,
le réfrigérateur Wifi de Samsung, les voitures
connectées conçues par Audi ou Cadillac sont
des exemples bien réels. Et nous observons
également des projets novateurs qui repensent
entièrement la chaîne de valeur, comme ces
machines à laver proposées gratuitement et qui
« facturent » le consommateur à chaque lessive
(à l’instar des fabricants de photocopieurs
qui se rémunèrent sur le toner).
Un « portefeuille dans le nuage »
L’arrivée de nouveaux appareils connectés va
multiplier les opportunités de monétisation et
susciter le besoin d’un « portefeuille dans le
nuage». La multiplicité de terminaux intelligents
et connectés favorise la création de nouveaux
modèles économiques, dès lors que presque
tout ce qui possède une adresse IP et un bouton marche-arrêt pourra intégrer un module de
paiement. Pour le consommateur, la gestion de
cette multiplicité de points d’accès et de paiement
engendrera inévitablement une forte demande
de solutions de paiement unifiées, avec un «portefeuille universel » donnant accès à une expérience de paiement cohérente, simple et sécurisée dans l’ensemble de sa vie numérique. En
2012, les paiements se déplacent vers le «nuage».
La frontière entre commerce traditionnel et
commerce online va disparaître, forçant la distribution à se réinventer. Les nouvelles technologies mobiles, couplées à l’explosion des
réseaux sociaux, bouleversent à nouveau le
paradigme de la distribution. Celles-ci font
converger les canaux jadis cloisonnés vers des
comportements consommateurs « multicanaux » : donnant la possibilité pour les
consommateurs d’accéder à distance au stock
d’un magasin, de géolocaliser sur iPhone les
points de vente et de détecter les bonnes affaires, de scanner un produit dans un magasin
puis de l’acheter en ligne, ou encore de se
prendre en photo dans la cabine d’essayage
pour demander l’avis de ses amies sur Facebook.
Le « social commerce » est un bon indicateur
de cette tendance, et plusieurs initiatives ont
été lancées l’année dernière, telle la boutique
La Redoute sur Facebook.
Comparer les prix
Depuis décembre dernier, la « bataille
du commerce » est devenue une réalité pour
de nombreux petits commerçants face à Amazon
et son application « Amazon Price Check ».
Le géant de l’e-commerce n’a-t-il pas offert à
ses clients un crédit de 5 dollars s’ils utilisaient
son application pour scanner le prix d’un article
dans un point de vente ?
L’avènement du t-commerce
Il n’y a qu’un pas de «permettre l’accès à Internet»
à « permettre le paiement sur Internet ». Un pas
déjà franchi par plusieurs fabricants de téléviseurs, lançant du même coup l’ère du t-commerce (commerce électronique depuis sa télévision). Si l’on en parle depuis longtemps, les
pièces et les acteurs du t-commerce se mettront en place en 2012. Dans ce contexte, eBay
a récemment mis à jour son application mobile
pour iPad en donnant la possibilité de «voir avec
eBay » : regarder son équipe de foot préférée
jouer un match et acheter en même temps son
écharpe de supporter, sans bouger de son canapé.
Depuis peu, la console XboX de Microsoft permet également l’achat de biens virtuels tels que
talismans magiques pourfendeurs de dragons,
ou semences pour sa ferme, sans devoir quitter son jeu vidéo. Au mois de mai 2013, il sera
possible d’acheter depuis sa télévision aussi
facilement que de changer de chaîne.
Et tout cela n’est qu’un début : les marchands
vont devoir s’adapter vite. Est-il encore imaginable en 2012 de mettre des brouilleurs de
GSM dans les magasins pour y empêcher
l’utilisation d’un téléphone et comparer les
prix en ligne? Trouvera-t-on encore des acheteurs potentiels pour se présenter en magasin et acheter un téléviseur à écran plasma
sans avoir, au préalable ou en temps réel,
comparé des offres sur leur iPad ou téléphone ? Les marques et les distributeurs qui
parleront directement à leurs clients ou leurs
fans, les soutiendront dans leur démarche
de quête d’informations et de dialogue, gagneront. Ceux qui garderont la tête dans le sable,
sans chercher à connaître leurs clients ni
communiquer régulièrement avec eux, verront leurs marges reculer dans cette économie connectée. ■
Les nouvelles
technologies
bouleversent
à nouveau
le paradigme
de la
distribution
LA JAUNE ET LA ROUGE • MAI 2012
35
P.36 Murcia
24/04/12
7:36
Page 36
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR SANDRINE MURCIA
Stratégies pour l‘innovation
fondatrice et DG
de Spring Lab,
présidente
de Silicon Sentier
En matière d’innovation et d’accompagnement de l’innovation, les échanges
d’expérience au sein d’un réseau d’entreprises sont irremplaçables. L’expérience
décrite ici permet de mesurer l’efficacité
des politiques d’aide à l’innovation
et de proposer de nouveaux modes d’action.
Silicon Xperience constitue la première plateforme de bêta-test labellisée Living Lab.
Silicon Xperience s’appuie sur un réseau
de 800 bêta-testeurs issus de notre écosystème.
Une équipe dédiée de chercheurs en ergonomie
et sociologie des réseaux aide les porteurs
de projets à identifier et cerner les besoins
de leurs futurs clients.
REPÈRES
Le développement de la croissance et de l’emploi
en Île-de-France nécessite des dispositifs conçus
par des entrepreneurs pour les entrepreneurs
selon quatre principes d’action : favoriser les
échanges entre les acteurs du numérique ;
soutenir l’innovation ; accroître la visibilité des
entreprises et communautés émergentes, et enfin
diffuser la culture du numérique. Au départ très
marqué développement Web et applications open
source, « l’écosystème » s’est rapidement élargi
aux technologies mobiles, outils collaboratifs,
réseaux sociaux, open data et jeux vidéo.
Accompagner
les entreprises
depuis la
génération
d’idées jusqu’à
la mise sur
le marché
36
Tests précoces d’usage
■ Depuis dix ans a été développée, avec l’aide
de Silicon Sentier, une vision dynamique de
l’innovation des NTIC (nouvelles technologies
de l’information et de la communication) et de
l’accompagnement des entreprises de la génération d’idées jusqu’à la mise sur le marché.
Avec le label European Living Lab (2005) ont été
lancés des dispositifs à succès créés par des
entrepreneurs pour des entrepreneurs.
La Cantine est un des premiers espaces mondiaux de travail collaboratif (coworking) et de
mutualisation de ressources hybrides. Chaque
année, elle accueille et accompagne plus de
750 coworkers, plus de 400 événements et
plus de 16 000 visiteurs. C’est le creuset où se
structurent et s’animent les communautés
autour de thématiques technologiques pour
permettre la rencontre des acteurs, la génération d’idées et le travail collaboratif.
Autre dispositif mis en place : le Camping, premier accélérateur de start-ups en France. Plus
de 600 projets ont été déposés, 25 d’entre eux
ont été retenus et « accélérés ». En mobilisant
un réseau de 60 mentors, le Camping accé-
LA JAUNE ET LA ROUGE • MAI 2012
lère le passage de l’idée au prototype, sans
perdre de vue les impératifs du développement business (clients et partenaires). Enfin,
Silicon Maniacs, média de diffusion et d’information (radio et Webzine), sensibilise aux nouveaux usages et technologies, augmente la
visibilité des acteurs et des projets d’innovation et diffuse la culture numérique.
Faire émerger l’innovation
L’expérience de terrain, au contact des besoins
de l’écosystème, et les conclusions tirées des
différents dispositifs ont amené – un peu à la
façon des sciences expérimentales – à formuler un certain nombre d’observations utiles
dans le cadre d’une réflexion générale sur les
leviers de l’innovation numérique. Ce que
dix ans au carrefour de l’innovation et de l’entrepreneuriat nous apprennent tous les jours :
encourager l’innovation, c’est favoriser ses
conditions d’émergence.
Reconnaître l’innovation d’usage
L’innovation ne se limite pas à la technologie,
à la R & D. La diffusion et l’adoption des NTIC
sont rendues possibles par une appropriation
de ces mêmes technologies grâce à des usages plus rapidement adoptés par un plus grand
nombre.
Faire évoluer le modèle actuel
Actuellement, en France, les actions dites de
soutien-financement de l’innovation sont en
fait centrées sur la R & D et visent à augmenter la performance du service. Mais ces financements ne sont accessibles qu’à des projets
déjà matures, qui peuvent s’engager dans la
P.36 Murcia
24/04/12
7:36
Page 37
Dans la filière numérique, la technologie reste
un vecteur majeur d’innovation, de rupture.
Cependant, le succès d’une innovation est de plus
en plus évalué à l’aune de son adoption par son
marché. La question « combien d’utilisateurs ? »
vient avant « combien de brevets ? ». Les
réussites de Facebook, Twitter, Instagram,
airBnB et Google, au-delà des algorithmes,
des data centers et des ingénieurs, sont dues
à leurs utilisateurs.
durée. Ils ne sont pas taillés pour les startups. Dans le modèle proposé, l’action de soutien est centrée sur l’usage. Car soutenir l’innovation d’usage, c’est permettre aux start-ups
d’augmenter rapidement leur valeur et donc de
mettre toutes les chances de leur côté en se
lançant sur le marché. L’expérimentation avec
les utilisateurs a un rôle central. Il suffit de
quelques utilisateurs coconcepteurs en phase
de création et d’évaluation pour permettre au
service de s’améliorer rapidement et de voir en
retour sa base d’utilisateurs se développer.
Dans ce cas, le cycle de production devient
également beaucoup plus rapide, favorisant
une mise sur le marché accélérée.
Redéfinir les rôles
Les pouvoirs publics et les acteurs de terrain
doivent agir ensemble, dans une vraie démarche de partenariat. À l’État de créer les environnements où peuvent s’élaborer, se tester
les nouveaux modes d’organisation sociétale
et entrepreneuriale ; de favoriser les démarches multiacteurs. Et surtout, de responsabiliser les acteurs de terrain en les associant
aux initiatives.
Sur le terrain, il faut mettre en place les interfaces entre acteurs, État et marché ; mobiliser les savoirs et expériences ; et enfin faire
GRAND ANGLE
Combien d’utilisateurs ?
remonter les sujets en avance de phase, étape
essentielle pour le développement d’une
compétitivité internationale. Un exemple nous
est donné par le mouvement open data, enjeu
majeur du développement de l’économie numérique : quelles sont ces conditions qui permettront d’accélérer le développement des futurs
services ? Au cœur de l’open data – et dans
une semblable mesure pour les big data –, la
valeur est dans l’interfaçage des acteurs, la
capacité de collaboration : l’auteur n’est plus
unique mais multiple.
Les acteurs de terrain ont la capacité de s’organiser pour élaborer des licences collectives
qui prennent en compte la collaboration et de
les proposer à la puissance publique pour les
faire reconnaître. Il faut mettre en place les
conditions d’échange et de collaboration entre
ces différents types d’acteurs.
27 milliards d’euros
Open data désigne un mouvement de libération
des données. La richesse des informations
détenues combinée à la puissance de traitement
de ces mêmes informations fait entrevoir
un large potentiel de développement
des technologies et des usages associés.
Dès l’année 2005, un rapport financé
par la Commission européenne évaluait
à 27 milliards d’euros le marché européen
lié à la réutilisation des informations publiques.
Open data est au cœur de l’innovation
et de l’économie numérique de demain.
Nouveaux modèles d’échanges de savoirs
Le soutien à la formation et au transfert intergénérationnel et interdisciplinaire des savoirs
est indispensable. La rapidité de progression
des technologies et des usages nécessite une
formation continue et un transfert permanent
des savoirs. ■
L’innovation
ne se limite
pas à la
technologie,
à la R & D
Silicon Sentier
Silicon Sentier est un réseau français de clusters de ressources au service des entrepreneurs des NTIC.
Association d’entreprises regroupant cent soixante-quinze PME et TPE qui se développent dans le domaine
des technologies numériques, Silicon Sentier possède une équipe de vingt-deux permanents, avec un
budget annuel de 2,2 millions d’euros (soit 56 % de fonds publics, 44 % de partenariats privés). Cette équipe
anime un écosystème intégré de plus de 12 000 contacts mobilisés pour soutenir activement les porteurs
de projets, les créateurs d’entreprises à fort potentiel et les communautés de pratiques. Elle s’appuie sur
des infrastructures mutualisées, mais aussi sur un réseau de mentors experts (entreprises membres,
associations liées, grandes entreprises partenaires, acteurs publics) et d’investisseurs internationaux.
LA JAUNE ET LA ROUGE • MAI 2012
37
P.38 Copigneaux
24/04/12
16:35
Page 38
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
PAR FRANÇOIS COPIGNEAUX
directeur général
de La Poste-ColiPoste
Logistique et livraison,
clés du e-commerce
L’Internet a permis un essor extraordinaire
de la vente à distance en créant un lien fort
entre vendeurs et clients. Mais cet essor
implique en aval la mise en place
de solutions logistiques fiables et performantes pour livrer au consommateur
sa commande, dont l’existence stimule
en retour le développement d’un monde
commercial radicalement nouveau.
La révolution de la vente à distance
L’arrivée
d’Internet
a pris tous
les acteurs
au dépourvu
Après la Seconde Guerre mondiale, la vente
par correspondance (VPC) s’est développée,
essentiellement à partir de l’industrie textile
du nord de la France, et La Poste a proposé
des services de livraison de colis à domicile. Le
modèle économique reposait sur la constitution de deux collections par an, sur la diffusion en grand nombre d’un catalogue illustré,
sur des remises accordées en fonction du
niveau de vente de chaque article, sur des prises de commande d’abord par courrier puis
par téléphone, sur des soldes pour liquider
les invendus et sur une livraison en 5 à 10 jours.
REPÈRES
Plus de 30 millions de Français ont réalisé un
achat sur Internet en 2011. Le commerce en ligne
est devenu en dix ans un mode de consommation
courant. Mais, pour les biens physiques, un achat
en ligne n’est réussi que lorsque le consommateur peut prendre possession de son acquisition rapidement et sans mauvaise surprise. La
logistique et la livraison constituent ainsi des
conditions clefs du développement du commerce
sur Internet. Et les opérateurs postaux se sont
ainsi trouvés au début des années 2000 sur le
chemin critique du développement de ce nouveau
mode de commercialisation.
38
LA JAUNE ET LA ROUGE • MAI 2012
Au Bonheur des dames
La vente à distance est une pratique qui était
autrefois fondée sur la diffusion de catalogues
et la communication par courrier. Émile Zola
décrit comment les premiers grands magasins
parisiens recevaient et honoraient les
commandes de leurs clientes de province.
À l’époque, les colis étaient transportés par
les compagnies de chemins de fer jusqu’à la gare
la plus proche de l’adresse du destinataire,
où des petits transporteurs, les « messagers »,
prenaient le relais, en facturant souvent cette
prestation « des derniers kilomètres »
au destinataire.
De grandes enseignes comme La Redoute, Les
3 Suisses ou la CAMIF ont fait la renommée
de ce mode de commercialisation. L’arrivée
d’Internet a pris tous ces acteurs au dépourvu.
Les nouveaux arrivants qui n’utilisaient que le
canal de l’Internet (les pure players) ont proposé plus de choix, des stocks en temps réel
permettant de ne pas décevoir les acheteurs
par des délais de réassort, et ils ont réduit
leurs charges en s’affranchissant du coûteux
catalogue ou en n’acceptant que les commandes payées en ligne par carte bancaire. Ils se
sont également efforcés de préparer rapidement les commandes et ont tous opté pour
une livraison rapide.
Des spécialistes aux généralistes
Certains de ces nouveaux vendeurs à distance
ont commencé par un positionnement de spécialistes (Amazon sur les livres, Pixmania sur
les appareils photo numériques, CDiscount
sur les DVD) avant de devenir généralistes en
faisant bénéficier d’autres petits vendeurs de
l’audience de leurs sites à travers des « galeries marchandes », comme les hypermarchés
ont en leur temps attiré d’autres commerces.
D’autres ont découvert comment Internet pouvait étendre au monde entier leur zone de cha-
P.38 Copigneaux
24/04/12
16:43
Page 39
GRAND ANGLE
D.R.
la difficulté à répondre toujours
rapidement aux commandes enregistrées. Et ils ont bien sûr immédiatement réalisé que leur activité
dépendait intégralement de la livraison et donc du prestataire capable de l’assurer.
landise, et qu’ils pouvaient ainsi devenir des
spécialistes mondiaux du matériel de pêche,
de broderie ou des équipements de moto. Pour
certains articles, Internet a permis de compenser la faible efficacité de la distribution traditionnelle : le succès de la vente de chaussures en ligne s’explique ainsi en grande partie
par le fait qu’un client qui entre dans un magasin de chaussures a une chance sur deux de ne
pas trouver chaussure à son pied. De même,
pour l’électroménager, vendre en ligne permet d’économiser des surfaces d’exposition
coûteuses et bien peu utilisées. En quelques
années, même chez des enseignes historiques
de la vente à distance, la commande en ligne
est devenue majoritaire et les principes du ecommerce se sont imposés.
Boîtes normalisées
L’e-commerce français bénéficie de l’initiative
prise par l’administration postale à la fin
des années 1970 : la boîte aux lettres normalisée
(NF D 27 404 ou 405), obligatoire pour toute
construction autorisée depuis le 12 juillet 1979,
a un format qui permet la livraison de colis
de 260 x 260 x 340 mm même en l’absence
du destinataire. Grâce à ces boîtes aux lettres
qui équipent 70 % des adresses françaises,
La Poste arrive à livrer directement plus de 70 %
des colis qui lui sont confiés. Cette méthode
de distribution est évidemment particulièrement
adaptée aux petits objets de faible valeur.
Les points relais, une solution
Une livraison en toute confiance
Les e-commerçants ont redécouvert les impératifs de la préparation de commande depuis
longtemps maîtrisés par leurs prédécesseurs
de la VPC : optimisation du stockage et du parcours de constitution du colis (picking), sécurisation des entrepôts et du processus de transport, problématique des retours et de leur
gestion, coût des emballages de transport,
nécessité de disposer d’un bon service client, etc.
En effet, un client qui attend son colis ou, pire,
qui ne le reçoit pas, risque évidemment de ne
pas refaire d’achat en ligne. Les e-commerçants
ont également découvert la variabilité du
rythme des commandes (saisonnalité, effet
des campagnes de promotion, charge du lundi
suite aux commandes du week-end, etc.) et
Ventes événementielles
Grâce à Internet, le métier traditionnel
de la braderie, filière historique d’écoulements
des invendus, a même donné naissance au
secteur florissant des « ventes événementielles »
avec le français Vente-Privée.com comme leader
mondial.
Parallèlement, les spécialistes historiques de
la vente à distance ont développé en France
la livraison en « points relais », c’est-à-dire
dans des commerces de proximité. Cette solution a d’abord été développée pour s’affranchir des risques liés aux grèves des services
publics, alors que le conflit de 1995 avait été
dévastateur pour la vente à distance. Mais ce
mode de livraison a très vite répondu aux attentes de certains consommateurs rarement présents chez eux lorsque les livreurs peuvent
s’y présenter. Par ailleurs, la livraison en un
même point de plusieurs colis et le dédommagement fort modeste versé au commerçant en ont fait un mode de livraison low-cost.
Livrer à domicile, un travail de spécialiste
La livraison aux particuliers à leur domicile
se révèle en effet beaucoup plus compliquée
que celle des entreprises. Localiser un logement précis dans un ensemble peut prendre
du temps et le destinataire d’un envoi n’est
pas toujours chez lui. Les spécialistes de la
livraison des entreprises ont donc souvent
évité de prendre des flux à destination des
particuliers et La Poste a longtemps conforté
sa position de spécialiste de livraison des particuliers à domicile. Ses facteurs disposent
Un client qui
attend son colis
ou ne le reçoit
pas risque de
ne pas refaire
d’achat en ligne
➤
LA JAUNE ET LA ROUGE • MAI 2012
39
P.38 Copigneaux
24/04/12
16:43
Page 40
GRAND ANGLE
ÉCONOMIE NUMÉRIQUE : LES SUCCÈS
Il n’est donc pas étonnant que plus de 97 %
des acheteurs en ligne se soient déclarés satisfaits de leur achat en 2011.
Moins de CO2
D.R.
La vente à distance est fondamentalement
favorable à la préservation de notre environnement. Une étude réalisée par la Fédération
des entreprises de vente à distance (FEVAD)
auprès de plus de 6 000 acheteurs à distance
a démontré que ce mode de consommation
permettait d’éviter des déplacements et pouvait conduire à quatre fois moins d’émissions
de CO2 que l’achat en magasin.
Aujourd’hui, tout le monde ou presque achète
en ligne et, avec Internet, chacun peut vendre
de partout et vers le monde entier, à peu près
n’importe quoi.
➤ en effet d’une connaissance intime de leurs
circuits de livraison, au point de s’adapter
parfois aux habitudes des habitants et de pouvoir identifier un voisin de confiance pour lui
demander de prendre en charge un envoi.
Moins de déplacements
La Poste mutualise fortement les livraisons
de colis et de courrier : lorsqu’une camionnette
jaune livre 100 colis, ce sont peut-être 100 particuliers qui n’ont pas eu à se déplacer.
L’e-commerce contribue ainsi à limiter
la congestion urbaine.
Cinq modes de livraison
Internet a créé
de nouvelles
opportunités
commerciales
La Poste peut maintenant offrir le choix entre
cinq modes de livraison : la livraison à domicile ou au bureau, la livraison le soir sur rendez-vous à Paris, la livraison dans une consigne automatique accessible 24 heures sur 24,
la livraison dans l’un des 10 000 bureaux de
poste proposés ou dans plus de 3 500 commerces de proximité. Des transporteurs spécialisés effectuent par ailleurs sur toute la
France les livraisons sur rendez-vous des
objets lourds et encombrants, le cas échéant
avec des prestations annexes d’installation.
Réseau de proximité
La Poste bénéficie, avec son réseau de plus
de 17 000 points de contact, d’une solution
de grande proximité pour mettre à disposition
les colis qu’elle n’a pas été en mesure de livrer
à domicile, faute de présence du destinataire.
En 2011, plus de 88 % des envois ont été effectivement livrés à l’adresse de destination, et plus
de 80 % des destinataires ayant retiré un envoi
dans un bureau de poste se sont déclarés
satisfaits ou très satisfaits de cette solution.
40
LA JAUNE ET LA ROUGE • MAI 2012
Chaque consommateur peut devenir
e-commerçant
Internet a non seulement permis à de nouveaux acteurs pure players de développer leur
activité, mais concourt aujourd’hui au développement d’un commerce « multicanal ». On
peut choisir son produit en ligne et l’acheter en
magasin, ou repérer un modèle en magasin
sans trouver la bonne taille et finalement la
recevoir en 48 heures à domicile. Si Internet a
facilité la désintermédiation et ouvert la voie
à un contact direct entre consommateur et
producteur ou distributeur, sans passer par
des commerces locaux, il a surtout créé de
nouvelles opportunités commerciales.
Tout un chacun peut ainsi proposer sur la Toile
ses créations ou ses objets inutilisés. Ce commerce entre particuliers se développe et remplace les brocantes d’autrefois tout en favorisant le recyclage ou l’usage multiple de
certains objets, comme les livres, par exemple. Il peut même constituer une solution pour
monétiser ses possessions dans un moment
difficile, remplaçant ainsi le prêt sur gage de
« Ma Tante ». ■
P.42 Bernard-Gely Vicat
24/04/12
8:05
Page 42
PORTRAIT
PAR ANNE BERNARD-GÉLY (74)
ET LAURENT IZORET
déléguée générale du Syndicat français
de l’industrie cimentière
directeur de l’École française
du béton
Louis Vicat (1786-1861)
Le père d’un nouvel art
de construire
Le nom de Louis Vicat a été inscrit une nouvelle fois, en 2011,
dans la liste des personnalités honorées, dans le cadre
des commémorations nationales à l’occasion du 150e anniversaire
de sa mort. Cet article rappelle l’importance de sa découverte
scientifique et technique.
À la recherche de nouvelles
techniques
Nommé en 1809 ingénieur ordinaire
de deuxième classe à Périgueux, il
participe aux travaux d’aménagement du département et se voit
confier la construction du pont de
Souillac.
Celle-ci avait été suspendue, l’Empire napoléonien étant financièrement exsangue. Ce concours de cir-
constances va inciter Louis Vicat à
rechercher de nouvelles techniques
pour assurer le plus économiquement, et le plus solidement possible, les fondations du pont.
En 1817, il isole un liant
artificiel, le « ciment »,
et élabore la théorie
de l’hydraulicité des chaux
Ce n’est qu’en 1817 qu’il redécouvre, grâce à sa curiosité scientifique
et sa culture technologique, les propriétés hydrauliques des liants : en
cherchant un mortier de pouzzolane
capable d’améliorer la construction
du pont de Souillac dont il a la
D.R.
■ Louis Vicat se présente à l’École
polytechnique en 1804, à l’âge de
dix-huit ans, sur les conseils du mathématicien Joseph Fourier, alors
préfet de l’Isère, et réussit le
concours d’entrée.
En 1806, son rang de classement lui
permet d’intégrer l’École des ponts
et chaussées.
charge, il isole un liant artificiel, le
« ciment », et élabore la théorie de
l’hydraulicité des chaux.
On pense bien sûr au Panthéon de
Rome, au Colisée ou au Pont du
Gard qui témoignent, aujourd’hui encore, de la durabilité de ce premier
matériau composite. Mais ce principe resta inexpliqué et la technologie du béton se perdit complètement.
Une révolution dans l’art
de construire
Une technique perdue
Les Chinois, les Grecs, les Égyptiens, les Mayas élevaient des constructions
avec des mortiers à base d’une chaux obtenue par cuisson de roches calcaires,
suivie d’une extinction à l’eau. Les Romains fabriquaient des liants hydrauliques,
comme en témoigne Vitruve dans ses dix livres d’architecture. Ils mélangeaient
de la chaux à des cendres volcaniques de la région de Pouzzoles qui, en présence
d’eau, fixaient la chaux pour constituer un liant susceptible avec le sable de
former un mortier, et inventèrent ainsi le « béton romain » qu’ils coulaient
dans des coffrages en bois.
42
LA JAUNE ET LA ROUGE • MAI 2012
Cette découverte est à la base de la
production industrielle du ciment qui
a marqué une ère nouvelle révolutionnant complètement l’art de
construire.
Près de deux cents ans plus tard, ces
découvertes demeurent le socle à
partir duquel se développent les plus
récents progrès en matière de liant
hydraulique et de béton.
P.42 Bernard-Gely Vicat
24/04/12
8:05
Page 43
Jusque-là, les fondations des piles
de ponts étaient réalisées empiriquement selon un procédé coûteux à
partir de poudre de tuileaux ou de
pouzzolane et de chaux pour former
un mortier propre à durcir sous
l’eau. Face à ces questions à la fois
économiques et techniques, Louis
Vicat entreprend une série d’études
sur les mortiers, au cours desquelles il fait de manière systématique
l’analyse chimique des roches susceptibles de donner par cuisson un
bon liant.
D.R.
En suivant de près la construction du
pont de Souillac et en contrôlant
avec minutie les gâchées des
ouvriers maçons, Vicat a pu montrer
que le bon dosage en eau conditionnait la qualité du mortier. Il a
même inventé un instrument de
mesure pour tester la résistance du
produit qui devint « l’aiguille Vicat ».
En 1822, le pont de Souillac est
achevé et entre dans l’histoire :
première construction au monde
réalisée avec du ciment artificiel, il
mesure 180 mètres de long sur
9 mètres de large et compte 7 arches
surbaissées reposant sur 6 piles.
Le pont de Souillac, première construction au monde
réalisée avec du ciment artificiel.
Louis Vicat applique ensuite ces
principes en vraie grandeur; il montre alors sa qualité d’entrepreneur
en contrôlant en permanence les
coûts de fabrication et poursuit la
mise au point de la fabrication avec
le souci constant d’en minimiser le
coût.
Il préféra la gloire d’être utile
à celle d’être riche
Les ciments artificiels
Un principe encore appliqué
De cette approche, il tire un indice
hydraulique (dit de Vicat), rapport
des éléments acides aux éléments
basiques : il permet de composer
des mélanges de roches qui donneront par cuisson un produit qui, finement broyé, durcira sous l’eau. Ce
principe de composition quantitative
des matières premières de cimenterie est encore appliqué aujourd’hui.
Portland et la suite
En 1824, à la suite de la découverte de Louis Vicat, l’Écossais
Joseph Aspdin dépose un brevet
de ciment artificiel, appelé
Portland (comme la roche grise
extraite de la presqu’île
de Portland).
Puis, en 1833, un polytechnicien,
Léon Pavin de Lafarge, installe
des fours à chaux au Teil en Ardèche, et en 1848, la première
usine de ciment, créée par Dupont
et Demarle, s’installe à Boulognesur-Mer.
Le résultat de ces études lui permet
de découvrir en 1817 de nouvelles
chaux, les chaux hydrauliques artificielles, qui peuvent à volonté surpasser en qualité les meilleures
chaux naturelles, et d’établir la loi
de la fabrication du ciment artificiel :
l’hydraulicité des chaux, c’est-à-dire
le durcissement des liants sous
l’eau, est due aux proportions d’argiles contenues dans les calcaires et
à la température de cuisson, ce que
vingt siècles d’usage n’étaient pas
parvenus à élucider.
Pas de brevets
Durant plus de quarante ans de carrière, Louis Vicat, précurseur de la
recherche expérimentale, poursuivit son œuvre scientifique. Chez lui,
le savant rejoint réellement l’ingénieur, l’observation et l’interprétation se renforcent d’indications pratiques rigoureuses.
Louis Vicat ne déposa pas de brevet,
considérant qu’il était redevable à la
collectivité de sa formation d’ingénieur, donc de son invention.
La reconnaissance
du monde littéraire
EXPRESSIONS
Le bon dosage
Tous les rapports ont mis
en exergue le caractère durable
et économique des inventions
de Vicat et les possibilités offertes
aux concepteurs, architectes
et ingénieurs par le matériau
naissant, le béton.
Même le monde littéraire
s’intéressa à ces découvertes,
puisqu’en 1839 Honoré de Balzac
écrivit dans Le Curé de village :
« Quelle sera la récompense
de Vicat, celui d’entre nous
qui a fait faire le seul progrès réel
à la science pratique des
constructions ? »
Une reconnaissance
scientifique et historique
La publication du travail de Vicat eut
un très grand retentissement. Aussi,
le Conseil général des ponts et
chaussées et l’Académie royale des
sciences, après avoir chargé de son
examen certains de leurs membres
qui, par leurs travaux antérieurs,
semblaient les plus aptes à apprécier le mérite des découvertes annoncées par Louis Vicat, permirent
une reconnaissance scientifique et
honorifique de son œuvre.
Le béton armé
En 1853, son fils, Joseph Vicat, également polytechnicien (1841), crée
la société Vicat et se lance dans la
production industrielle du ciment artificiel inventé par son père. Parallèlement, la production industrielle ➤
LA JAUNE ET LA ROUGE • MAI 2012
43
P.42 Bernard-Gely Vicat
24/04/12
8:05
Page 44
PORTRAIT
Hennebique et le bureau d’études
En matière de ponts, le démarrage fut plus tardif et les premiers ouvrages
d’art en béton armé datent de l’extrême fin du XIXe siècle ; c’est à François
Hennebique que l’on doit la construction d’un premier grand pont, celui
de Châtellerault sur la Vienne avec ses 144 mètres de long.
Après des années de conception empirique, Hennebique met au point
des règles de dimensionnement du béton armé et ouvre la voie du calcul
et de la conception modernes. En se concentrant sur les études et
la rationalisation du béton armé, il professionnalise la conception
des structures et crée le bureau d’études, figure dominante de la maîtrise
d’œuvre française.
➤ d’acier débute avec l’invention du
four Bessemer, permettant ainsi le
mariage des qualités de traction de
l’acier et de compression du béton.
Le béton armé naît d’abord avec la
barque expérimentale de Joseph
Lambot en 1848 et les caisses horticoles du jardinier paysagiste Joseph
Monier en 1849, puis avec François
Coignet en 1852 qui réalise les premières applications en bâtiment à
Saint-Denis.
L’Exposition universelle de 1900
consacre le « béton armé »
Comprimer le béton de façon
artificielle et permanente
L’administration française accompagne cette tendance et publie en 1906
le premier règlement de calcul, officialisant ainsi la technique du béton
armé dans la construction qui trouve
ainsi son plein épanouissement dans
la première moitié du XX e siècle,
avant d’être fortement concurrencée par la technique du béton précontraint.
son brevet furent la fabrication de
poteaux électriques puis la consolidation de la gare maritime
du Havre, dont le succès entraîna
la diffusion rapide de la précontrainte dans les ouvrages d’art.
Les bétons à hautes
performances
C’est dans les années 1980 qu’un
nouveau saut technologique permet
de donner de nouvelles propriétés
constructives au béton, matériau
désormais devenu universel. Ainsi
apparaît une nouvelle génération de
bétons, appelés pour la première
fois bétons à hautes performances
(BHP) par Roger Lacroix, lui aussi
polytechnicien (46) et ingénieur des
Ponts et Chaussées, et le professeur Yves Malier, précurseurs reconnus en Europe et aux États-Unis
de ces nouveaux bétons, utilisés ensuite largement et en particulier
dans la construction d’ouvrages
emblématiques comme le pont de
l’île de Ré ou la Grande Arche de La
Défense.
La précontrainte
Le symbole de la modernité
D.R.
Alors que l’Exposition universelle de
1889 était celle du métal, celle de
1900 consacre le béton armé et son
application généralisée dans le
monde de la construction. Le béton
devient alors le symbole de la modernité.
Le viaduc des Usses (A 41)
avec ses piles majestueuses.
44
LA JAUNE ET LA ROUGE • MAI 2012
Le principe même de la précontrainte est très ancien puisque les
Égyptiens construisaient déjà des
coques de bateaux constituées de
planches de bois dont les joints
étaient serrés sous l’effet du refroidissement de lames de fer posées à
chaud. Dans les années 1900, l’idée
vint aux ingénieurs d’appliquer
ce principe au béton qui ne résiste guère à la traction pour
limiter les fissurations : aux
endroits où les charges développeront des tractions, il
s’agit de comprimer le béton
de façon artificielle, préalable
et permanente.
Les premières recherches
échouèrent et ce n’est que vers
1930 qu’un autre polytechnicien, Eugène Freyssinet (18791962), également ingénieur
des Ponts – et, comme Vicat, à
la fois théoricien, scientifique
et praticien – sut appliquer ce
principe de la précontrainte au
béton et mettre au point des
procédés visant à donner une
redistribution intelligente des
sollicitations dans la matière.
Les premières applications de
Les débuts du béton
précontraint
Le phénomène de la précontrainte
est apparu à Eugène Freyssinet
en 1912 au pont du Veurdre,
ouvrage audacieux en béton armé
sur l’Allier. Peu de temps après
sa construction, la voûte s’abaissait progressivement et ce déplacement devenait si dangereux
que Freyssinet décida en pleine
nuit de relever, avec quelques
ouvriers, les arcs sans faire
interrompre la circulation.
Cet incident lui permit de
comprendre les déformations
différées du béton et de déposer
en 1928 son premier brevet
de précontrainte en utilisant
des câbles en acier pouvant
supporter des tensions initiales
élevées.
La course à la résistance
mécanique
Aujourd’hui, les progrès dans les bétons ne se situent plus seulement
dans la course à la résistance mécanique mais se déclinent à l’échelle
globale de la construction, en pre-
P.42 Bernard-Gely Vicat
24/04/12
8:05
Un jeu de construction
Pour l’architecte et le concepteur
d’ouvrages, c’est un véritable jeu de
construction qui s’offre à eux, jeu
complexe mais pour des solutions
multiples et adaptées avec l’aide
des maîtres de l’art (ingénieurs,
fournisseurs de matériaux, entreprises, etc.).
Bétons modernes
Les bétons modernes sont formulés par extension de la notion
de composite : par association avec les molécules organiques qui apportent
des qualités de plus en plus spécifiques comme la rhéologie ou l’incorporation de fibres de natures variées, on maîtrise aujourd’hui des bétons
qui se mettent en place sous le simple effet de la gravité sans avoir recours
à la vibration bruyante et pénible (bétons autoplaçants), ceux devenus
ductiles par l’utilisation d’une large gamme de granulométrie de leurs
composants, les « autonettoyants » par action photocatalytique de microparticules, les bétons dépolluants qui purifient l’air, les bétons phoniques
destinés aux écrans acoustiques, les bétons isolants, les bétons drainants,
les bétons isolants qui laissent passer la lumière, ceux à faible niveau
d’émissions, les bétons de granulats légers, ceux qui résistent à de très
hautes températures et même des bétons flexibles, voire rebondissants.
Toujours plus d’audace
dans la conception
des ouvrages et des bâtiments
La communauté polytechnicienne
est très largement impliquée dans
cet art de la conception, que ce soit
pour des constructions « courantes » qui consomment plus de 85 %
du béton produit, ou d’autres
constructions plus
exceptionnelles –
comme le viaduc
de Millau, l’opéra
de Pékin ou d’autres ouvrages remarquables pour
lesquels nos camarades Michel
Virlogeux, Paul Andreu et tous les
concepteurs innovants orchestrent
l’utilisation de ces
nouveaux matériaux.
D.R.
De la résistance
à la performance
La tour Oxygène à Lyon, réalisée suivant la démarche
Haute Qualité Environnementale.
Toute cette nouvelle
génération de bétons a profondément modifié la
construction non
seulement dans
son aspect technologique, réduction
des coûts et des
délais de mise en
œuvre, qualités environnementales et
sanitaires, mais
aussi dans son aspect humain et social comme l’amélioration du confort
et l’augmentation du niveau de qualification des opérateurs.
Le béton n’est plus seulement « résistance », il est maintenant « performances », intégrant les défis de
la construction durable, soutenant
toujours plus d’audace dans la
conception des ouvrages et des bâtiments.
Et son histoire n’est pas finie, un
autre saut technologique est probablement en train de s’amorcer avec
les nouvelles approches du béton à
l’échelle nanométrique qui permettront d’encore mieux maîtriser la
rhéologie du matériau et d’en optimiser la formulation pour continuer
sur les traces de Louis Vicat à
s’adapter aux nouveaux défis de
notre société. ■
EXPRESSIONS
nant en compte son utilisation et son
analyse de cycle de vie, depuis la
conception, la réalisation jusqu’à la
démolition.
À partir d’une large gamme de ciments que l’on compose à l’aide
d’ajouts maîtrisés en cimenterie, la
formulation de ces bétons modernes permet, en plus des aspects de
résistance mécanique, de créer des
matériaux et des systèmes constructifs aux qualités adaptées aux besoins : ductilité, esthétique jusqu’à
la transparence, durabilité, isolation
et inertie thermique, performances
environnementales et sanitaires, efficacité énergétique, réduction des
consommations de matières et des
coûts de la construction.
Page 45
Le groupe cimentier international
Vicat, entreprise française, a su
garder à la fois une tradition
familiale, une vocation industrielle
et un management humain
tout en réussissant à s’implanter
dans onze pays à travers le monde
et à s’imposer comme un des
fleurons français à l’international.
L’École polytechnique compte
Louis Vicat parmi ses élèves
qui ont fait honneur à la France
entre 1794 et 1994 en le représentant aux côtés de Cauchy
sur le triptyque du Bicentenaire
de l’École situé dans le grand hall
à Palaiseau.
LA JAUNE ET LA ROUGE • MAI 2012
45
P.46 Bonnal
24/04/12
IN
10:22
Page 46
MEMORIAM
PAR JACQUES BOURDILLON (45)
Robert Bonnal (36)
Apôtre de la coopération française
Nous venons de perdre l’un de nos prestigieux amis en la personne
de Robert Bonnal (36), Ponts 42, qui joua un rôle fondamental
dans l’histoire des relations franco-africaines au même titre
qu’Olivier Bigorgne, Roger Lantenois, André Lauraint
et Jean Millier.
De la Guinée à la rue Monsieur
Ceux qui ont lu le livre de Roland Pré
écrit au début des années 1950
L’avenir de la Guinée française savent que ce pays avait (et a toujours)
d’immenses ressources potentielles
dans les domaines les plus divers
(riz, bananes, quinquina, fer, bauxite,
or, diamant, énergie hydraulique).
Point de vue confirmé vingt ans
après par le gouverneur Masson, patron de l’éphémère MARG (Mission
d’aménagement régionale en Guinée). Ceux qui ont lu le livre de
Claude Abou Diakité La Guinée enchaînée, le livre noir de Sékou Touré
savent que ce dictateur a non seulement massacré nombre de ses
concitoyens, mais aussi compromis
pour longtemps le développement
exceptionnel de ce pays. Robert Bonnal savait tout cela lorsqu’il a commencé une seconde carrière en
s’installant à Paris, rue Monsieur,
pour devenir le pilier de la coopération de la France en faveur de ses
anciennes colonies, à un triple titre :
ministère de la Coopération, ministère de l’Équipement, et BCEOM
(dont il était devenu président).
46
LA JAUNE ET LA ROUGE • MAI 2012
« La France s’est portée
aux premières lignes de front
en faveur du Tiers monde »
Trente ans au service
d’une cause
Robert Bonnal consacre quelques
pages aux trois décennies de coopération : « Pendant les années
soixante, le taux de croissance est
bon, voire brillant (plus de 5 % en
moyenne), le développement paraît
bien parti (malgré le cri d’alarme de
René Dumont L’Afrique noire est
mal partie), il y a l’euphorie des indépendances […]. Au seuil des années
soixante-dix, les défauts structurels
des États, plus ou moins masqués
jusque-là, apparaissent au grand
jour, il devient clair que la majorité
d’entre eux fonctionnent à un train
de vie qui excède leurs moyens […].
À partir des années quatre-vingt, les
choses se gâtent sérieusement pour
tout le monde (ou presque) à cause
notamment des effets du 2e choc pétrolier (1979), les pays qui s’étaient
mis à vivre sur un grand pied ne sont
plus en état d’honorer le remboursement des emprunts et sont obligés de freiner brutalement. »
Je terminerai par quelques mots de
Robert Bonnal sur la coopération
française : «Il faut d’abord dire sans
faire preuve de fierté nationale déplacée que la France s’est constamment portée aux premières lignes
de front en faveur du Tiers monde
[…] un des points sensibles du
D.R.
■ Après un bref séjour en Tunisie, Robert Bonnal, mobilisé à la fin
de la Seconde Guerre mondiale, arrive à Dakar en 1947. Olivier Bigorgne lui offre le poste de directeur
des travaux publics de la Guinée
française ; il rejoint donc Conakry
et devient l’un des principaux collaborateurs du gouverneur Roland
Pré dont il restera un ami fidèle.
débat : monoculture ou diversification? Il ne s’agit pas d’opposer l’une
à l’autre, il faut au contraire combiner partout où on le peut cultures
de rente et cultures vivrières […].
La coopération française s’est toujours imposé comme ligne de
conduite de ne pas discriminer ses
interventions en fonction des régimes politiques adoptés par les pays
partenaires […]. ■
L’amour de l’Afrique
Robert Bonnal se caractérisait
par de solides convictions religieuses qui lui faisaient considérer
son métier comme un apostolat,
un amour de l’Afrique dont il
a souhaité le développement
harmonieux au-delà des indépendances qu’il a toujours
souhaitées, un sens aigu
des réalités (il était parfaitement
conscient des défauts et des qualités des hommes avec qui il travaillait), une grande générosité
à l’égard de ses collaborateurs,
une volonté farouche d’améliorer
le vaste domaine qui lui était
confié.
P.47 Suchet
24/04/12
16:38
Page 47
RENCONTRES
D.R.
Sept promotions
sous le signe des neutrons
La dernière expédition insolite organisée par le binet Boson
a permis à sept promotions de polytechniciens de se retrouver
au polygone scientifique de Grenoble pour une plongée dans
le royaume des neutrons et des rayons X.
■ La passion pour la science n’a
pas d’âge et s’il fallait encore le
prouver, la visite à Grenoble du binet
Boson, dont l’objectif est de rapprocher étudiants et chercheurs, en serait une démonstration irréfutable.
Invités par Yves Bréchet (81) et encadrés par leurs anciens de la 2006,
des élèves des promotions 2008,
2009 et 2010 ont eu la chance de
pouvoir visiter l’Institut Laue Langevin et l’European synchrotron radiation facility en compagnie de Frédéric Livet (67), membre de la Société
française de physique, et de Robert
Dautray (49), membre de l’Académie
des sciences.
Aussi unique
que son concepteur
L’Institut Laue Langevin (ILL) est né
d’une collaboration franco-allemande dans le milieu des années
soixante et compte aujourd’hui plus
d’une trentaine de nationalités parmi
ses utilisateurs. Il permet à des
équipes de recherche de sonder et
d’analyser des échantillons de matière grâce à un flux de neutrons généré par un réacteur nucléaire. Ces
expériences couvrent un spectre extrêmement large entre physique fondamentale et diagnostic industriel.
Comme l’ont expliqué J.-L. Martinez, directeur adjoint de l’ILL, et
H. Guyon, chef de la division réac-
teur, l’ensemble représente une véritable prouesse technique, non seulement sur le plan du génie nucléaire (l’ILL délivre le flux de
neutrons le plus intense dans le
monde de la recherche) mais aussi
sur le plan du génie civil (il est situé
au confluent de l’Isère et du Drac et
subit les efforts des massifs de la
Chartreuse, de Belledonne et du
Vercors).
Malgré cela, il peine à étonner autant que son concepteur, Robert
Dautray, dont les explications et les
commentaires tout au long de la visite ont vivement impressionné l’auditoire. Quarante ans après les derniers coups de crayons sur les plans
du réacteur, Robert Dautray est, à
80 ans passés, toujours animé d’une
même passion communicative, voire
contagieuse.
Des polytechniciens
sous rayons X
L’European synchrotron radiation
facility propose lui aussi de sonder
la matière, mais avec des photons
plutôt qu’avec des neutrons. Un anneau long d’un kilomètre accélère
des électrons dont le rayonnement
est utilisé pour étudier des structures de protéines, analyser des œuvres d’art ou déterminer les propriétés d’un métal. Guidés par Frédéric
Livet, Guillaume Beutier et Jean
Toute particule chargée accélérée
dans un champ électromagnétique
émet un rayonnement ; cÕest sur
cette propriété fondamentale que
repose un synchrotron.
EXPRESSIONS
PAR DANIEL SUCHET (2008)
François Bérar, les visiteurs ont pu
explorer l’intérieur du long tunnel
circulaire du synchrotron ainsi
qu’une des lignes de lumière utilisée pour la recherche, avant de rejoindre Philippe Nozières, de l’Académie des sciences, pour un
passionnant échange de physique
théorique.
Un passage de relais
Cette visite marque également le
passage de relais du binet Boson de
la promotion 2009 à la promotion
2010 : c’est à présent Loïc Herviou
et Thomas Strebler qui reprennent
le flambeau et seront en charge
d’assurer les liens entre polytechniciens et monde de la recherche. Ils
ont d’ores et déjà prévu d’organiser,
dans la voie ouverte par Georges
Charpak, une séance de démystification des superstitions par la prestidigitation. ■
Aussi massifs que les noyaux
atomiques et dépourvus dÕinteractions électromagnétiques,
les neutrons sont des sondes
privilégiées pour analyser,
non seulement la composition
structurale, mais aussi la dynamique de la matière condensée
sous toutes ses formes.
LA JAUNE ET LA ROUGE • MAI 2012
47
P.48 Forum social
24/04/12
16:39
FORUM
Page 48
SOCIAL
PAR FRANÇOIS CARN
principal du collège René-Descartes
(Le Blanc-Mesnil – 93), établissement
classé en ZEP et RAR
L’envers du décor
Composer des classes
raisonnablement hétérogènes
Le collège unique est-il, comme l’écrivait l’an dernier un de nos
auteurs, « une création utopique dont le maintien revêt le caractère
d’un crime », les victimes étant à la fois les mauvais élèves, écrasés
par la supériorité des bons, et ces derniers pénalisés par la nullité
des mauvais ? Le problème n’est-il pas, plutôt, celui de la concentration dans certaines classes d’élèves de très faible niveau,
l’hétérogénéité des classes restant maîtrisable en prenant
certaines précautions ?
■ Il est évidemment plus facile
d’enseigner dans une classe homogène d’élèves ayant un bon niveau
mais, confronté à une classe hétérogène, il est illusoire de penser à
des solutions consistant à singulariser les élèves en grande difficulté
en les faisant bénéficier de mesures
individuelles.
En effet, ces mesures sont perçues
comme des stigmatisations qui les
isolent de leurs camarades, de
sorte que les intéressés n’en veulent pas. Il ne peut non plus être
question de regrouper ces élèves
dans des classes de relégation qui
les marginaliseraient définitivement. Il faut donc maîtriser l’hétérogénéité pour la rendre gérable par
les enseignants, une première mesure étant de se donner les moyens
de constituer des classes raisonnablement hétérogènes.
Il faut maîtriser l’hétérogénéité
pour la rendre gérable par les
enseignants
Le collège René-Descartes a défini
trois critères lui permettant de classer les élèves : le comportement
studieux ; la motivation et la capa-
Voir aussi : « Violences scolaires :
responsables et coupables »
par Gilbert Castellanet (52),
dans le n° 663 de mars 2011
et « La ségrégation scolaire :
responsables et coupables »,
par François Gaudel (66), dans
le n° 666 de juin-juillet 2011.
cité cognitive. Chaque élève est
classé sur une échelle à cinq niveaux
pour chacun de ces critères. Au troisième trimestre de chaque année,
les professeurs principaux sont invités à les utiliser pour préparer la
composition des classes de la rentrée suivante. L’utilisation de ces critères est également recommandée
aux écoles primaires du secteur,
avec lesquelles des réunions sont
organisées au troisième trimestre
Au lieu de laisser les classes se
constituer au hasard, il faut organiser leur hétérogénéité.
48
LA JAUNE ET LA ROUGE • MAI 2012
D.R.
Les trois critères
de l’organisation
Le collège René-Descartes, Le Blanc-Mesnil (Seine-Saint-Denis).
P.48 Forum social
24/04/12
16:39
Page 49
D.R.
À la demande des parents,
le collège maintient deux classes
bilingues dans chaque niveau,
lesquelles n’accueillent que
des bons élèves. Cette exception
nécessaire signifie une ouverture
du collège vers l’excellence.
Tous les deux ans, en moyenne,
un élève de troisième est admis
au lycée Henri-IV.
Les outils numériques jouent un rôle important dans la participation des élèves.
Susciter la participation de tous
les élèves à la vie de leur classe
D.R.
S’insérer dans le milieu urbain
CDI. Tous les deux ans en moyenne, un élève de troisième est admis au lycée Henri-IV.
pour préparer les affectations des
élèves de CM2 dans les neuf classes de sixième du collège.
Pour l’ensemble des classes, le collège impose une parité entre garçons et filles et un équilibre sur les
trois critères. Les enseignants sont
associés à la procédure de composition de ces classes hétérogènes.
L’équité de participation
Il faut ensuite se donner les moyens
d’enseigner efficacement dans les
classes ainsi constituées. Il faut insister sur «l’équité de participation».
Il s’agit de susciter la participation
de tous les élèves à la vie de leur
classe. Les outils numériques jouent
un rôle important. D’une part les tableaux numériques interactifs (TNI)
avec répondeurs, présentés dans un
précédent article de La Jaune et la
Rouge, mais surtout les vidéoprojecteurs à commande numérique qui
sont installés dans toutes les classes et qui, déroulant le cours, permettent au professeur de s’occuper
des élèves qu’il voit en difficulté.
EXPRESSIONS
Deux classes bilingues
Une autre dimension du fonctionnement du collège est son insertion
dans le milieu local urbain. Le Principal se rend disponible pour accueillir les parents.
À l’initiative des conseils de parents
d’élèves, ceux-ci sont appelés chaque fois qu’un incident de discipline
le justifie. Chaque année, tous les
parents d’élèves de troisième sont
individuellement contactés pour préparer l’orientation de leurs enfants.
De façon plus générale, le collège
réunit régulièrement son « Comité
d’éducation à la santé et à la citoyenneté» auquel participent notamment
les représentants d’associations œuvrant dans le quartier.
L’instauration d’un meilleur climat
dans le collège a coïncidé avec la fin
d’une « situation de guerre » entre
deux quartiers qui sévissait il y a
quatre ans. ■
Propos recueillis
par Jacques Denantes (49)
ZEP et RAR
Les zones d’éducation prioritaires (ZEP), créées en 1981, sont des zones
dans lesquelles sont situés des établissements scolaires (écoles
ou collèges) dotés de moyens supplémentaires et d’une plus grande
autonomie pour faire face à des difficultés d’ordre scolaire et social.
En 2007, le Réseau ambition réussite (RAR) a été mis en place. Il s’agit
d’un plan de relance à l’éducation prioritaire, disposant de moyens
renforcés. On comptait en 2011 plus de 250 réseaux. À la rentrée 2011,
ils ont été intégrés dans le programme Éclair (Écoles, collèges, lycées
pour l’ambition, l’innovation et la réussite).
LA JAUNE ET LA ROUGE • MAI 2012
49
P.50 Focus
24/04/12
16:45
Page 50
F OCUS
X-Pays-Bas : la tulipe noire
PORTRAIT
Michel Bertrandias (81), président du groupe X-Pays-Bas
« Un réseau convivial
d’échanges culturels »
Le groupe X-Pays-Bas, à vocation essentiellement culturelle et festive, s’adosse à un réseau plus large
d’anciens de grandes écoles françaises. Il permet aux camarades qui résident là-bas, pour des périodes
plus ou moins longues, d’être bien accueillis et de se rencontrer dans des endroits sympathiques.
■ Comment échanger dans un
pays étranger entre camarades,
alors que ceux-ci sont souvent de
passage pour quelques années
seulement ? Avec la patience et la
foi de Cornelius Van Baerle, le
héros de Dumas en quête de la tulipe noire, Michel Bertrandias (81)
œuvre depuis sept ans au développement du groupe X-Pays-Bas, en
association avec d’autres grandes
écoles.
Le triangle d’or
« Le groupe compte en moyenne
une quinzaine de camarades répartis sur tout le territoire néerlandais, dont les promos s’échelonnent entre 1970 et 2008. Les
pôles d’attraction sont Amsterdam
et La Haye, où je réside moi-même.
Même si le pays n’est pas très
grand, les déplacements peuvent
prendre pas mal de temps. La plupart des manifestations sont organisées dans le Randstad (triangle
Amsterdam-Rotterdam-Utrecht, incluant La Haye).
« Les camarades peuvent être ici
pour de longues durées, comme
ceux qui travaillent à l’Office européen des brevets ou à l’Estec (European space research and tech-
« C’est à l’occasion de la création
du réseau Grandes Écoles PaysBas (GEPB), en 2004, que j’ai pris
la décision de fonder un groupe X
aux Pays-Bas, rappelle-t-il.
« En effet, je connaissais d’autres
groupes d’anciens de grandes écoles, comme HEC, et l’adhésion au
GEPB devait se faire via un groupe
existant et non en tant qu’individu.
« Ce groupement a vu le jour car la
plupart des écoles comptent peu
d’anciens élèves ici et les groupes
n’atteignent pas une taille critique
suffisante pour fonctionner régulièrement. »
50
LA JAUNE ET LA ROUGE • MAI 2012
© J.-M. CHABANAS
Une taille critique
Le musée Frans-Hals à Haarlem, Pays-Bas.
P.50 Focus
24/04/12
16:45
Page 51
FOCUS
X-Pays-Bas
Président :
Michel Bertrandias (81)
Paulinaastraat 19
2595 GG Den Haag
Tél. : 00 31 (70) 382 5937
michel.bertrandias@
polytechnique.org
© J.-M. CHABANAS
D.R.
Michel Bertrandias (81) choisit
le corps de l’armement à la
sortie de l’X. Après l’Ensta,
travaillant dans le domaine de
la simulation, il a l’opportunité
de partir aux Pays-Bas en tant
qu’officier de liaison et expert à
l’Otan. En 1998, il est embauché
à l’Otan pour travailler sur les
systèmes d’information.
Marié depuis vingt-sept ans, il a
trois enfants dont deux résident
actuellement en France pour
leurs études supérieures.
Joueur de football durant l’année, sa grande passion est le
ski nautique qu’il pratique à un
bon niveau l’été. « À cet égard,
dit-il, la Floride serait plus
adaptée que les Pays-Bas ! »
La Haye (Den Haag).
Grandes Écoles aux Pays-Bas
Le réseau Grandes Écoles Pays-Bas (GEPB) regroupe des anciens élèves
de Centrale, l’ENA, l’ESCP, HEC, l’Insead, les Mines, Polytechnique,
Sciences-po, etc. Dans une perspective interculturelle et européenne,
il propose chaque année un certain nombre de rencontres et de visites.
Avec 41 528 km2, dont le quart en dessous du niveau de la mer,
les Pays-Bas comptent environ 16,5 millions d‘habitants.
© J.-M. CHABANAS
nology Centre), Centre européen
de recherche et de technologie
spatiales, situé à Noordwijk.
« D’autres ne restent que quelques
années, trois ans en moyenne,
comme ceux travaillant chez les
pétroliers. Enfin, nous accueillons
de jeunes camarades venant en
stage pour une année environ. »
Réseau et relais
« Les contacts se font presque exclusivement par courriel, car nous
fonctionnons à budget et cotisation
zéro. Les activités
sont doubles : il y
a celles, peu nombreuses, organisées en propre et
celles du groupe
GEPB que nous
relayons auprès
des membres du
groupe X.
«Récemment, une
partie des X présents aux PaysBas s’est retrouvée à l’occasion de
la Chandeleur
dans une crêperie
à Noordwijk.
Noordwijk, haut lieu de la recherche spatiale.
« Quand un camarade arrive et me
contacte, je m’efforce de l’aider et
de répondre à ses questions. J’habite en effet à La Haye depuis dixhuit ans et mon épouse est viceprésidente de l’Accueil des
Francophones de La Haye. Nous
connaissons donc assez bien ce
pays et de nombreuses personnes.»
Trop proche de la France
« Les deux principales difficultés,
estime Michel Bertrandias, sont la
petite taille du groupe et le turnover des membres. Certains ne découvrent l’existence du groupe que
peu de temps avant de repartir. La
proximité de la France fait aussi
que bon nombre de membres, surtout ceux qui sont ici pour un
temps relativement court, partent
facilement en week-end, soit aux
Pays-Bas pour visiter, soit en
France. Il est parfois difficile de
trouver une date commune. »
Des satisfactions ?
« J’aime bien rencontrer de jeunes
camarades car cela me permet, en
échangeant avec eux, de suivre les
évolutions de l’École. » ■
Propos recueillis
par Jean-Marc Chabanas (58)
LA JAUNE ET LA ROUGE • MAI 2012
51
P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:49 Page53
Le 2 juin, je serai au Point Gamma
Pauline Métivier, trésorière du Point Gamma 2012
Le Point Gamma, événement phare pour les promotions en place sur le campus, se déroulera cette année
encore en plein cœur de l’École polytechnique. Il marque de son sceau le court mais intense passage des
polytechniciens au sein de l’institution. Regroupant plus de 7 000 personnes, le gala de l’X est la plus
grande soirée étudiante de France.
Les Spectos sont chargés de
la programmation musicale
(que vous découvrirez page
suivante) ainsi que des activités lors de la soirée (saut à
l’élastique, combat de catch,
espace mousse, etc.).
Les Sponsos doivent trouver
les fonds nécessaires pour assurer le caractère grandiose
et unique de la soirée tout en
maintenant un prix d’entrée
abordable pour les étudiants.
La cellule Sécu a la lourde responsabilité d’éviter tout débordement
pendant la soirée et d’assurer la
sécurité de chacun. Elle supervise
l’ensemble du dispositif déployé
pour permettre à tous de profiter
pleinement de l’événement.
La Technique transforme le Grand
Hall en véritable discothèque et la
cour Vaneau en espace musical de
plein air.
La BarBouffe est responsable du ravitaillement en boissons et nourriture de tous les bars, très actifs pen-
© COLLECTIONS ÉCOLE POLYTECHNIQUE
■ Organiser un événement
d’une telle ampleur requiert de
multiples moyens. Le binet Point
Gamma est composé de trente
étudiants qui ne comptent pas
leur temps pour permettre aux
milliers de participants de passer une soirée inoubliable. Chacun joue un rôle particulier au
sein du binet ; voici ces postes
en quelques mots.
dant la soirée. Elle sera appuyée par
près de quatre cents X de la promo
2011 pour servir dans ces bars.
La Manute supervise l’installation
de tout le matériel non technique
de la soirée, mais aussi et surtout
la préparation des trente bars. Elle
met en place un défilé de chars en
plein cœur de Paris, le 24 mai, auquel participeront activement les
X 2011 nouvellement arrivés.
La Com' doit faire en sorte que
tous les étudiants de la région parisienne entendent parler du Point
Gamma. Ses membres sont res-
ponsables de l’impression et
de la distribution des affiches, des partenariats publicitaires, du site Internet et
de la promotion de l’événement en général. Ils sont
ceux qui doivent faire le plus
avec le moins d’argent ; leur
rôle est capital.
Enfin le Bureau, composé du
président, du vice-président
et de la trésorière, est chargé
de coordonner le travail de
toutes les cellules et des relations avec les différents services de l’École, l’AX, ainsi
qu’avec les autorités publiques.
Vous l’aurez compris, le Point
Gamma est l’accomplissement d’un grand projet (plus
de 300 000 euros de budget)
et la suite de longs mois de
préparation intense. Son déroulement sur le campus même de
l’École est l’un de ses points forts
et un atout majeur pour que les
promotions puissent s’y investir
fermement. Son organisation sur
le site de l’École dans les années à
venir est pour autant remise en
question. Nous avons besoin du
soutien de la communauté polytechnicienne pour que cet événement majeur demeure à l’École,
garde son empreinte polytechnicienne et ne devienne pas une
simple soirée étudiante. ■
CETTE ANNÉE ENCORE, VENEZ NOMBREUX LE 2 JUIN AU POINT GAMMA
LA JAUNE ET LA ROUGE • MAI 2012
53
P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:50 Page54
P OINT G AMMA
Bob Sinclar
D.R.
Christophe Le Friant, alias Bob Sinclar, a produit des tubes dancefloor
d’envergure internationale. Né en 1967 en Bretagne, il fait ses premières
armes dans des clubs parisiens au début des années quatre-vingt-dix.
Après un album remarqué en hommage au pape de l’electrodance
Cerrone, sorti en 2000, Bob Sinclar produit les DJ’s Kid Loco ou Dimitri
from Paris, et s’impose comme un fleuron de la french touch avec
l’album III, qui contient les tubes The Beat Goes on et Kiss my Eyes.
Bob Sinclar le Magnifique donne une suite à son célèbre album Africanism,
en y apportant les beats afro susceptibles de compléter la panoplie funk
et soul qui a contribué à sa notoriété.
Le king de la disco soul compose le générique de la Star Academy 2006,
Love Generation, avant de livrer le mix Soundz of Freedom et de réaliser
la compilation Dancefloor FG Winter 2008.
Le lundi 30 janvier 2012, Bob Sinclar sort son nouvel album intitulé
Disco Crash. Dans cet album il est en featuring avec de nombreux
artistes : Sean Paul, Snoop Dogg, Sophie Ellis Bextor et Pitbull entre
autres.
Michael Calfan
D.R.
Michael Calfan, la nouvelle priorité du label Yellow
Productions, est un condensé de talent, de
créativité et un travailleur acharné. « Cela faisait
longtemps que je n’avais pas ressenti un tel talent
chez un jeune artiste », dixit Bob Sinclar. Michael
Calfan dévoile en 2011 son tube Resurrection,
produit par Axwell. Le succès est immédiat et la
chanson se hisse en tête de toutes les playlists
électro.
Pablo Denois
D.R.
Venu tout droit de Leverkusen, Pablo Denois fait partie de la
nouvelle vague de DJ’s allemands qui déferle sur l’Europe. À tout
juste 19 ans, il s’est déjà forgé une véritable identité à travers des
tubes comme Shunky Fit ou Rockin’Well. Majoritairement
influencé par Hardwell et Nicky Romero, Pablo Denois mêle à la
fois mélodies entraînantes et beats dévastateurs dans ses
chansons.
54
LA JAUNE ET LA ROUGE • MAI 2012
P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:51 Page55
POINT GAMMA
Alexandra Stan
D.R.
Jeune artiste roumaine pleine de talent,
Alexandra Stan est née le 10 juin 1989 à
Constanta. Elle participe à différentes
compétitions de chanson, pour finalement
sortir en 2009 son premier single, Lollipop.
Elle connaît ensuite un succès planétaire
avec ses tubes Mr Saxobeat et Get Back. Sa
musique sensuelle, aussi envoûtante que
son physique doré, rencontre un triomphe
fracassant dans les clubs à travers
l’Europe.
Example
D.R.
Elliot John Gleave, plus connu sous le pseudonyme
Example (né le 20 juin 1982), est un rappeur britannique.
Chanteur aux influences rap-électro-pop, il se démarque
en 2009 avec le tube Watch the Sun Come Up qui le place
numéro un des charts en Angleterre. Son troisième album,
Playing in the Shadows, sorti en septembre 2011, se
propulse directement en tête des charts britanniques, avec
notamment deux singles classés numéro un, dont le
célèbre Changed the Way You Kiss Me.
Uffie
D.R.
Uffie est une chanteuse de musique électronique américaine. La
jeune artiste est devenue presque malgré elle une égérie de sa
génération. Révélée sur Internet, l’Américaine née en Floride
n’est pas, comme beaucoup aujourd’hui, un symptôme de
l’époque, elle en est un visage. Et la sortie de Sex Dreams &
Denim Jeans vient brillamment le prouver. Avec cet album, Uffie
signe le manifeste d’une jeunesse dont elle saisit mieux que
personne les espoirs et les doutes.
Electric Suicide Club
D.R.
Vitesse et légèreté : voilà qui pourrait bien qualifier le rock
débridé d’Electric Suicide Club. Et de cet esprit frondeur et
agité, le groupe n’en manque pas sur scène. Un vrai bonheur
à partager sans modération tant leur Indie punk s’approche
de l’essence même du rock : à fond et en deux minutes
chrono.
LA JAUNE ET LA ROUGE • MAI 2012
55
P. 56 Point Gamma_essai_JR Focus.indd 27/04/12 13:42 Page56
© COLLECTIONS ÉCOLE POLYTECHNIQUE
P OINT G AMMA
56
LA JAUNE ET LA ROUGE • MAI 2012
P. 53-60 Point Gamma_JR Focus.indd 24/04/12 16:53 Page57
Par Émile Lemoine (1860), premier organisateur du Point γ
Extraits d’une Notice rédigée en 1901.
Le choix des passages et les intertitres sont de l’actuelle Rédaction.
À mes chers camarades, à leurs dames, à leurs demoiselles, etc.
Le soleil passe ordinairement au point vernal sur l’équateur, c’est-à-dire au point γ, à l’équinoxe de
printemps. Cette année, c’est le 21 mars à 7 h 32 min 11 s, temps moyen civil de Paris ; mais les
polytechniciens sont assez forts, par définition, en astronomie, pour modifier cette date avec effet rétroactif,
s’il en est besoin, voilà pourquoi nous pouvons célébrer la fête du Point γ le 24 avril.
■ En 1861, j’étais jeune et beau,
la jeunesse n’est plus, j’aime à
croire en revanche que personne
ne me démentira quand je dis que
la beauté est restée, tout en changeant légèrement de caractère,
donc j’étais jeune et beau, et de
plus j’avais pour professeur de
géodésie, ainsi qu’à peu près tous
mes cocons d’ailleurs, le capitaine
Laussedat (depuis colonel et ancien directeur du Conservatoire,
sinon de Musique, au moins des
Arts et Métiers), savant bien connu
et que j’ai l’honneur de compter
parmi mes meilleurs amis. Il avait
trente-cinq ans environ, ce qui ne
nous empêchait pas de l’appeler le
Père Laussedat.
De l’ennui à la fête
Ne digressons pas trop. La géodésie est une noble science, captivante quand on la cultive, utile
entre toutes, seulement l’apprendre au tableau en trente leçons, se
mettre dans la tête des formules,
les repères, les précautions de la
pratique, etc., oh ! Jamais pour
autre chose l’ennui ne se concentre
à un tel degré.
Le point γ avait un beau rôle dans
toute une partie du cours où cette
lettre fatidique apparaissait à
chaque instant, et je ne sais quelle
idée me vint (par antinomie sans
doute, puisqu’il nous avait tant ennuyés) de célébrer le passage de
Phoebus Apollon au point γ par une
fête renouvelée des peuples adorateurs du soleil.
S’amuser le plus possible
Je précisai mon idée, elle mûrit rapidement dans l’austérité silencieuse de mes méditations, j’esquissai un plan, je fis passer un topo,
d’abord dans notre promotion où la
proposition eut le succès qu’elle
méritait; puis nous honorâmes nos
conscrards, ces conspuables glands
jaunes, en leur communiquant le
projet ; ils n’avaient qu’à s’incliner
respectueusement, mais ils le firent
avec enthousiasme.
Le plan était simple : s’amuser le
plus possible dans le cadre d’une
fête avec ouverture musicale, chansons, grand défilé costumé, bannières illustrées et danses.
Le père et la mouche
C’était donc décidé, mais de la
coupe aux lèvres quelle distance !
Obtenir l’autorisation pour une
chose sans précédent et aussi peu
réglementaire, ou au moins avoir
l’assurance de l’obturation oculaire
de l’autorité de l’École pour les préparatifs et pour l’exécution ; trouver les éléments d’un orchestre
dans les deux promotions, avoir une
POINT GAMMA
Notice sur la Fête
musique originale pour l’ouverture,
répéter, fournir aux camarades les
moyens de se costumer en les leur
présentant de manière qu’ils n’aient
plus qu’à les mettre en œuvre, préciser tous les détails, etc.
C’était ma besogne obligatoire, car
dans toute chose qui se crée, il faut
une mouche du coche qui bourdonne sans relâche et surtout
agisse. Père du Point γ , j’en fus
aussi la mouche.
Un costume pour chacun
Pendant cinq semaines, à toutes les
sorties du mercredi et du dimanche, je me fis courtier ; je prenais
les commandes des cocons et des
conscrits : masques, papiers dorés,
chinés, gaufrés, coloriés, oripeaux,
étoffes, objets biscornus, selon la
fantaisie de chacun. Je les cherchais dans Paris aux endroits idoines et je les rapportais à l’École où
je les livrais aux clients le lendemain dans leurs salles respectives.
Avec cela et divers objets empruntés au matériel de l’École, grands
rideaux rayés de bleu qui entouraient les lits, rideaux gris des fenêtres, abat-jour des lampes, etc.,
chacun de nous se composa un
costume.
Cornu se chargea de composer
l’ouverture, un pot-pourri des airs
de l’École.
LA JAUNE ET LA ROUGE • MAI 2012
➤
57
P. 53-60 Point Gamma_JR Focus.indd 26/04/12 07:02 Page58
P OINT G AMMA
➤
Cueille le jour présent
J’aurais été heureux aussi de reprendre mon bâton de chef d’orchestre et de conduire devant vous,
à trente-neuf ans de distance, l’ouverture du Point γ. Mais il y a pour
moi, dans ce rôle, des impossibilités de santé devant lesquelles je
m’incline avec philosophie (ne pouvant faire autrement) ; je cède la
place au jeune Protée, réincarné
sous les apparences de notre ami
Gariel, j’admirerai sa maestria et
vous vous direz : voilà comment
était jadis le comparable Lemoine.
Je ne suis pas du tout de l’avis de
Boileau quand il prétend que le moi
est haïssable ; je m’aime beaucoup
et je juge le mien tout à fait charmant. J’espère d’ailleurs trouver
près de vous de l’indulgence, parce
que je suis persuadé que ceux qui
me connaissent pensent de moi
beaucoup de bien que je n’en puis
dire, tant à cause de ma modestie
que pour ne pas humilier les camarades.
Sur ce, je vous confie comme
conclusion ma maxime favorite :
… dum loquimur fugerit invida
Aetas, carpe diem, quam minimum
credula postero 1. ■
1. « Pendant que nous parlons, le temps jaloux
s’enfuit. Cueille le jour présent sans trop croire
à l’avenir » (Horace, Odes).
Éclipse de soleil
Extraits d’un article du début du XXe siècle.
Le choix des passages et les intertitres sont de l’actuelle Rédaction.
Lancé en 1862, le Point γ fut interrompu en 1870. Il fit sa réapparition en 1877, pour être de nouveau
suspendu en 1880, au motif du temps excessif que les élèves y consacraient. Nous décrivons ici les deux
dernières éditions de 1878 et 1879. La tradition fut reprise quelques années plus tard.
■ En 1878, Dou représentait le
soleil, Humbert était chef d’orchestre, la paysanne court-vêtue était
Homolle. Ces trois camarades sont
aujourd’hui ingénieurs des Ponts
et Chaussées. Quant à la séduisante Italienne, elle est devenue le
révérend père Marchal, de la Compagnie de Jésus.
58
vêtus, de défroques bigarrées. Leur
chef seul portait correctement l’habit noir.
C’est ainsi qu’on va se tenir en joie
jusqu’à l’heure du souper, auquel
l’indulgence paternelle du général
permet d’ajouter quelques douceurs, douceurs militaires bien entendu.
sur les autres pour mieux voir. Mais
le soleil est deux fois de la fête. À
l’heure où il ira se coucher, son
substitut terrestre aura encore
quelques heures de royauté éphémère. Le bal se prolonge jusque
bien avant dans la soirée, dans une
tente construite ad hoc et décorée
de pochades fantaisies.
Premières lampes électriques
Deux ou trois cents costumes
Trop, c’est trop
Les salles de billard, transformées
pour la circonstance en galerie des
glaces, sont éclairées par la lumière électrique.
Signalons, parmi les principaux
travestissements, le vrai kiosque à
journaux de la salle 16, un majestueux grand prêtre, un sous-préfet, un artilleur de la garde, un
juge, un postillon, un officier de
marine, un zouave, un pompier, un
jockey et la foule des pierrots, débardeurs, gentilles soubrettes, élégants toréadors, etc.
Ajoutons que les musiciens de l’orchestre étaient couverts, plutôt que
En 1879, le soleil était Belot, ingénieur des tabacs ; le chef d’orchestre Vallet, capitaine d’artillerie.
Citons, parmi les nouveaux costumes, un véritable cardinal sur sa
mule, un obélisque couvert de hiéroglyphes, un poireau monstre accompagné d’une carotte géante, de
vrais pauvres en haillons, une immense cocotte en papier, des astrologues, des magiciens, etc.
Deux ou trois cents costumes tourbillonnent dans la cour. Les maisons voisines, avec leurs façades
roussies et lézardées qui surplombent, semblent grimper les unes
Maintenant, faut-il le dire? Les premiers essais de Point γ nous paraissaient plus gais. C’était l’enfance de l’art, mais l’enfance avec
ses jolies naïvetés et son rire sonore. Le bal du 15 mars 1879 rappelle ses aînés, comme l’arlequin
moderne, brodé et passementé
rappelle le héros de la comédie italienne dans ses loques bigarrées.
Trop de soie, trop de perruques
blondes, trop de lumière. À force
de vouloir se surpasser, on en était
arrivé à des excès. L’autorité
s’émut et la fête du Point γ fut interdite. ■
LA JAUNE ET LA ROUGE • MAI 2012
P.61 Poincaré
24/04/12
16:56
Page 61
CENTENAIRE DE LA DISPARITION D’HENRI POINCARÉ
NANCY 1854 – PARIS 1912
Hommage numismatique
DE
M
ÉD
AIL
LE
C’est une médaille qui a fait connaître Henri Poincaré au public : la médaille en or attribuée en
1889 au lauréat du concours organisé par le roi de Suède Oscar II sur la stabilité du Système
solaire.
DU ROI DE
È
SU
ZE
,
Plus récemment, Raymond Corbin (1907-2002) a gravé une médaille qui représente Henri
Poincaré de face, à l’avers, et, au revers, la porte de sa maison natale à Nancy ; y figure
également cette belle citation : « La pensée n’est qu’un éclair au milieu d’une longue nuit…
mais c’est cet éclair qui est tout. »
RB
IN
(1971), BRON
N
D
GON
ORT 1 M M.
,4
O
(1954), BR
EC
H
G
UZ
MA
N
ZE
,6
00M
M.
CO
72
MM.
PRUD’HOMME (1934),
BRONZE, ENV. 58 X 78 MM.
Bien entendu, la notoriété de cet immense savant a été honorée de plusieurs médailles ou
plaques en bronze. Celles que je connais ont été frappées ou fondues par la Monnaie de Paris.
Georges-Henri Prud’homme (1873-1947) a réalisé une jolie plaquette, de style Art nouveau,
qui montre, à l’avers, Poincaré de profil et, au revers, la Science éplorée qui dépose une gerbe
de fleurs sur une stèle funéraire qui porte l’inscription : « À Henri Poincaré la science
reconnaissante, MDCCCCXII. »
AR
L
D(
1993 ), MAI L
Mentionnons également l’important médaillon, d’une soixantaine de centimètres de diamètre,
modelé par Aleth Guzman-Nageotte (1904-1978), sans doute pour le centenaire de la naissance
de Poincaré qui est, ici aussi, représenté de profil. Ce médaillon se trouve à l’entrée de l’Institut
Henri Poincaré.
Pour ma part, j’ai eu l’honneur de me voir confier plusieurs commandes de travaux en hommage
à Henri Poincaré. En 1993, tout d’abord, à l’occasion du Bicentenaire de l’École polytechnique,
j’ai réalisé une série de douze petites médailles en maillechort (frappe monétaire, qualité
épreuve) consacrées à des polytechniciens qui ont marqué leur époque. Bien entendu, Henri
Poincaré était l’un d’eux.
En 2010, l’Institut Henri Poincaré m’a commandé une grande plaque en bronze pour son entrée.
Elle représente Henri Poincaré au milieu d’une évocation de ses travaux : le problème des trois
corps, la topologie, les probabilités, la théorie du chaos, etc.
G
O
ND
N
ZE
, 72
MM.
GONDARD (2010), BRONZE,
410 X 500 MM.
O
BR
ARD
(2012),
Aujourd’hui, la célébration du centenaire de sa disparition me donne l’occasion de créer
une nouvelle médaille, en bronze, qui s’inscrit dans une collection consacrée aux grands
mathématiciens. À l’avers de ces médailles figure une effigie du mathématicien dont
les œuvres sont évoquées au revers.
Claude Gondard (65),
artiste médailleur
LA JAUNE ET LA ROUGE • MAI 2012
61
P.62-66 Arts et Lettre
26/04/12
7:34
Page 62
ARTS, LETTRES ET SCIENCES
MUSIQUE EN IMAGES
BÉLA BARTÓK : CONCERTO POUR ORCHESTRE
Orchestre philharmonique de Radio France,
dir. Myung-Whun Chung
Présenté par Jean-François Zygel, « Les clés de l’orchestre »
1 DVD Naïve
■ Les talents de
pédagogue de JeanFrançois Zygel sont
désormais unanimement connus. Avec ses
conférences tout
d’abord, rapidement
filmées et diffusées à
la télévision et en DVD,
puis ses émissions
didactiques également
à la télévision, il est
devenu le symbole de
la musique classique
« expliquée », et donc
de la musique classique rendue accessible à tous. Après une série consacrée
aux plus grands compositeurs (tous ses
DVD sont à conseiller, mais ses analyses des Français Debussy et César
Franck nous paraissent particulièrement passionnantes), Zygel a entamé
une belle collection plus ambitieuse
qui consiste à décortiquer une œuvre
symphonique, avec l’appui de l’Orchestre philharmonique de Radio
France et de son chef coréen MyungWhun Chung. Après la Symphonie du
Nouveau Monde, la Symphonie pastorale, le Boléro de Ravel, Zygel nous
présente ici le Concerto pour orchestre de Béla Bartók.
Ayant fui le nazisme aux États-Unis,
Bartók, à soixante-deux ans, est
malade et sans subsistance à partir
de 1942. La Société des auteurs américains, sous l’influence du chef d’orchestre Serge Koussevitzky, lui commande ce Concerto pour orchestre.
Le titre Concerto pour orchestre est
évidemment un oxymore, puisque
habituellement un concerto fait intervenir un ou plusieurs solistes pour
concerter justement avec l’orchestre. Le titre montre le besoin de vir62
LA JAUNE ET LA ROUGE • MAI 2012
tuosité de l’orchestre
dans cet œuvre, virtuosité comme celle
d’un soliste de concerto, et signifie aussi que
Bartók fait intervenir
des soli de la plupart
des instruments, ou
même de pupitres
entiers, tout au long
de l’exécution.
Les explications linéaires de Zygel, avec le
soutien de son piano
ou de tout l’orchestre,
maintiennent l’intérêt et restent continûment pertinentes. Elles analysent
notamment les thèmes du Concerto,
et mettent l’accent sur les signes
reconnaissables du style de Bartók,
tels que les mélanges de rythmes et
d’atmosphères, thèmes folkloriques,
et son constant hommage à Bach
(ostinato, contrepoint, canons et fugue,
choral, etc.). Ces explications sont
parfois agrémentées des commentaires de Myung-Whun Chung qui
parle un français parfait (il dut remplacer Daniel Barenboïm à la tête de
l’Opéra Bastille à la fin des années
1980). De plus, les commentaires du
livret, très riches et très documentés, permettent d’aller encore plus
loin dans l’analyse du contexte de
composition de l’œuvre.
Le DVD contient naturellement aussi
l’exécution intégrale de l’œuvre. Grâce
aux images très bien réalisées, avec
des gros plans pertinents (les bois,
les pupitres de cordes) et aux explications de Zygel, cette œuvre emblématique devient aussi accessible que
du Beethoven ou du Mozart. ■
RÉCRÉATIONS
SCIENTIFIQUES
Jean Moreau de Saint-Martin (56)
[email protected]
1) POSITIF EN TOUT ESPACE
Montrer que AB 2 + BC 2 + CD 2 + DA 2 – AC 2
– BD 2 ≥ 0, quels que soient les points
donnés A, B, C, D, pas nécessairement
dans le même plan.
2) D‘UNE DIFFÉRENTIELLE L‘AUTRE
Soit y une solution de l'équation différentielle ay'' + by' + cy = 0, où a, b, c sont des
fonctions données de x. Montrer que z = y 2
vérifie une équation différentielle
Az''' + Bz'' + Cz' + Dz = 0, A, B, C, D étant
des fonctions de x, les mêmes quelle
que soit la façon dont on a choisi y.
3) COMBINAISON CACHÉE
Dans une variante simplifiée d'un jeu de
réflexion bien connu, Jules doit deviner
une combinaison de 5 couleurs choisie par
Romain (sans répétition) dans un ensemble
de 8 couleurs. Jules propose des combinaisons de 5 couleurs, et obtient de
Romain, en réponse, les scores correspondants (nombre de couleurs de la combinaison proposée qui sont présentes dans
la combinaison à deviner).
De combien d'essais Jules a-t-il besoin
pour être sûr d'identifier la combinaison
cherchée parmi les C 58 = 56 possibles?
a) s'il doit donner un programme complet
de combinaisons avant que Romain
commence à répondre,
b) s'il obtient les réponses une à une
et peut ajuster la question suivante
en fonction des réponses reçues.
Solutions page 66
BRIDGE
Gaston Méjane (62)
1) ÉNONCÉS
Ce mois-ci une donne de la division nationale par paires 2.
LES ENCHÈRES
O
N
E
1♥
–
X
–
–
–
S
3SA
Ouest entame le 7 de ♦.
Quel est votre plan de jeu?
Solutions page 66
Marc Darmon (83)
SUD
♠ V
♥ A
♦ 8
♣ A
NORD
♠ D 8 6 3
♥ 5
♦ A R D 10 9
♣ V 7 4
10 2
D 9
5
9 8 6 3
P.62-66 Arts et Lettre
26/04/12
7:34
Page 63
ARTISTES INSPIRÉS OU ARTISANS APPLIQUÉS
La sincérité est un calcul comme un autre.
JEAN ANOUILH, Becket
■ Il est tentant de distinguer celui
qu’une force irrépressible pousse à
créer sans souci de trouver un public,
comme Rimbaud, Van Gogh ou Monk,
de celui dont le but premier est de
parvenir à vendre le produit de son
travail, comme Monet, Balzac ou
Ellington. Mais y a-t-il une réelle
opposition entre les œuvres « spontanées » et les œuvres dites alimentaires ? À l’écoute, peut-on faire la
différence entre un interprète habité
par ce qu’il joue et un autre dont le
jeu est dicté par le souci de séduire
le public ? Une œuvre de commande
est-elle moins sincère qu’une pièce
composée pour soi-même ?
Bach
Pour Bach, cette distinction est vaine,
comme le montre un enregistrement
récent de l’ensemble Le Banquet céleste
dirigé par le contre-ténor Damien
Guillon : deux très belles cantates avec
voix d’alto solo, Geist und Seele wird
verwirret et Vergnügte ruh, beliebte
Seelenlust, compositions hebd o m a d a i re s
auxquelles
Bach était
tenu par son
contrat de
maître de
chapelle de Leipzig ; la
monumentale Fantaisie et fugue pour
orgue en sol mineur, écrite sans doute
en mémoire de sa femme Maria
Barbara, et la transcription pour orgue
de la Sonate en trio n° 3, avec Maude
Gratton à l’orgue de l’église réformée
du Bouclier à Strasbourg 1. Aucune
différence de niveau, est-il besoin de
le dire, entre ces quatre œuvres – mais
peut-on parler de niveau pour Bach ?
Les Variations
Goldberg sont
l’exemple même
de l’œuvre de commande – pour meubler, dit-on, les
insomnies du comte de Kaiserling –
qui est en même temps un chef-d’œuvre intemporel. Le claveciniste français Frédérick Haas les a enregistrées sur un clavecin Hemsch de 1751
pour l’ambitieuse collection La Dolce
Volta 2, qui veut faire du CD un objet
de luxe, démarche courageuse pour
renouveler et sauver l’édition phonographique menacée par les téléchargements et le piratage. Comparée
aux versions de référence jouées au
piano par Glenn Gould et Murray
Perahia, cette interprétation sur un
clavecin d’époque se situe sur un
autre registre, si l’on peut dire, moins
abstraite, plus fragile, plus humaine.
Exceptions
John Cage aurait eu cent ans cette
année. Schoenberg, dont il fut l’élève,
ne le considérait pas comme un compositeur, mais comme un « inventeur de génie ». Cédric Pescia vient
d’enregistrer l’intégrale des Sonates
et Interludes pour piano préparé 3,
pièces qui méritent la découverte
pour ceux qui ne sont pas familiers
de la musique de cet artisan minutieux et profondément original, qui
occupe une place à part dans la musique du XXe siècle. Il s’agit de pièces
très courtes (de deux à quatre minutes en général), qui mettent à profit
les timbres multiples que l’on peut
extraire des cordes du piano en le
préparant. Le résultat est une musique au pouvoir apaisant et presque
hypnotique, semblable, d’une cer-
ARTS, LETTRES ET SCIENCES
DISCOGRAPHIE
taine manière, aux musiques traditionnelles tibétaines ou balinaises.
Avec l’album Va et reviens , notre
camarade pianiste François de Larrard
(78) a enregistré le troisième et dernier opus de son quintette de jazz
contemporain Rose Vocat 4. Les aficionados du jazz, les familiers des
concerts Jazz X connaissent bien le
jeu aérien et rigoureux de notre camarade (qui touche également du clavecin et joue aussi bien Couperin).
Ce dernier disque, qui rassemble des
compositions de François de Larrard
et de son trompettiste Evans Gouno,
a les mêmes caractéristiques que
les précédents : arrangements rigoureux, rythmes complexes, structures modales, un jazz sans concession, presque austère, plus proche
de Bartók que des Jazz Messengers,
et qui surtout est parfaitement original, même s’il avoue quelques
emprunts à Monk.
Enfin un interprète qui ne se prend pas
au sérieux et qui nous donne une
petite merveille de musique pure,
sans ambition autre que de réjouir
l’âme : sous le titre Banalités, le ténor
Thomas Blondelle, accompagné au
piano par Daniel Blumenthal, a enregistré trente et une chansons de
Poulenc, Satie, Ravel, Rossini, Brahms,
Mahler et bien d’autres, en passant
par Richard Strauss, Copland, Berio 5,
sans oublier l’inoubliable Cathy
Berberian et son Stripsody, hilarante
plaisanterie musicale. Des pièces
exquises et jubilatoires, sur des textes qui se veulent banals : Hôtel, Sur
l’herbe, Lob des hohen Verstandes,
Schlechtes Wetter, The Lady who
Loved a Pig , Red Roses and Red
Noses, Amor marinato, etc.
Au fond, si l’on excepte quelques rares
moments d’exaltation ou de gravité,
que nous soyons artistes ou artisans,
nos vies elles-mêmes ne sont-elles
pas tissées de ces banalités que nous
pouvons, pour peu que nous ayons
la grâce, sublimer en autant de petits
bonheurs ? ■
Jean Salmona (56)
1. 1 CD ZIG ZAG.
2. 1 CD DOLCE VOLTA.
3. 1 CD AEON.
4. 1 CD [email protected].
5. 1 CD FUGA LIBERA.
LA JAUNE ET LA ROUGE • MAI 2012
➤
63
P.62-66 Arts et Lettre
26/04/12
7:34
Page 64
ARTS, LETTRES ET SCIENCES
➤
MAGNAN
CARTOUCHE D’ENCRE
LIVRES
LES GRANDS ENSEMBLES
Pierre Merlin (57)
Paris – La Documentation française,
direction de l’information légale
et administrative – 2010
On parle aujourd’hui des cités ou des
quartiers sensibles. Ils ont été construits
pendant les trente glorieuses et on
les appelait alors les grands ensembles. Ils constituaient la principale
réponse à la crise du logement de
64
LA JAUNE ET LA ROUGE • MAI 2012
tes, propices à
séduire aussi bien
nos solides gaillards que les inoffensifs convives
que nous sommes. Dans une
carte aux plats
variés, évoquant
un terroir dompté par les idées modernes, je choisis une terrine de veau qui
malheureusement ne tiendra pas tout
à fait ses promesses (un peu trop
grasse, comme devaient l’apprécier,
sans doute, les bandits d’antan). Je
regrette de ne pas avoir choisi (goûtée dans l’assiette de ma voisine) la
grecque tiède de champignons à la
coriandre, plus subtile. Heureusement,
le sancerre me trouble et m’enivre de
sa gouleyante palette et le pain, un
campagnard à la parisienne, est délicieux. Soucieux d’échapper à la crise
de goutte, nous continuons par un filet
de bar de ligne sur son lit de betteraves râpées, honorable. Malgré ces
agapes, je n’ai pas pu résister à l’élégance sucrée du macaron blanc orné
Le Repaire de Cartouche,
8, bd des Filles-du-Calvaire, Paris XIe.
Vendredi 30 mars 2012.
l’après-guerre. Pour la première fois,
l’État investissait massivement dans
le logement social. Les architectes
prétendaient mettre en œuvre la charte
d’Athènes (inspirée par Le Corbusier).
Les premiers habitants y ont trouvé
un logement correspondant à la taille
de leur famille et doté de tout le confort
sanitaire, ce qui n’était le cas que de
2 % des logements français au sortir
de la guerre. Dès les années
1960, on a fustigé la monotonie de l’architecture, l’absence d’emplois, de commerces et d’équipements à
proximité, etc. À partir de
1978, la réforme du financement du logement incita les
ménages à revenus moyens
à acquérir une maison individuelle en
périphérie des villes. Ils furent remplacés par des familles plus pauvres, souvent d’origine étrangère (on était à
l’époque de la résorption des bidonvilles et du regroupement familial). On
connaît la suite : paupérisation, chômage, montée du racisme, sentiment
d’exclusion, trafics, violence, émeutes. Depuis les années 1970, les gouvernements ont multiplié les
plans, tantôt pour améliorer le
cadre bâti, tantôt pour aider à
créer des emplois. Ces plans,
dont le dernier avatar est le programme national de rénovation
urbaine, n’ont pas été inutiles.
Ils ont ralenti la spirale négative, mais sans l’interrompre.
D.R.
■ Le magnan de La Jaune et la
Rouge, ça se passe chez Cartouche.
Aussi ai-je suivi le bouclage du journal qui s’achève, chaque dernier vendredi du mois, dans ce restaurant
pour un rituel de détente. Il va sans
dire que ce nom de Cartouche n’est
pas sans provoquer une certaine
appréhension de ma part : repaire
de brigands? Tire-laine prêts à dérober mon portefeuille ? Gargote à
étouffe-chrétiens? Notre arrivée dans
la sombre taverne évoque un refuge
confortable et discret, à la mesure
de personnages ambigus tel notre
terrible Rédac-Chef. Dans ce monde
d’hommes, la secrétaire de rédaction, aux yeux innocents et cheveux
blonds, fait figure de Constance parmi
les mousquetaires.
Le tavernier (comment l’appeler autrement) nous accueille de sa haute taille
chaleureuse, on sent les habitués.
Dès que nous sommes installés, une
accorte servante nous apporte un vin
blanc qui chatouille agréablement le
palais. Il est accompagné d’amusegueule, crème de pissenlits et rillet-
de quartiers de mandarine, qui m’est
servi en fin de repas ; très spectaculaire à l’œil, un peu moins au palais.
En sortant du lieu, un peu étourdie, je
me dis que l’essentiel de ce repaire,
c’est la gentillesse de l’accueil, le
caractère reposant du lieu, la bonne
humeur du groupe avec lequel j’ai
déjeuné – et la bonne tenue des vins.
Après cette halte conviviale, j’ai décidé
de mettre mon grain de sel dans tous
vos repas de groupes. Alors chers X
gourmands ou gourmets, n’hésitez
donc pas à m’inviter. ■
Lady GastronomiX
P.62-66 Arts et Lettre
26/04/12
7:34
Page 65
André Grimaldi, Didier Tabuteau (78), François Bourdillon, Frédéric Pierru, Olivier Lyon-Caen
Odile Jacob – 2011
Le système français de santé était classé premier dans le monde en 2000, une nouvelle
analyse a été faite en 2011. En une décennie, nous avons subi plusieurs crises : crise économique 2008-2011 (ralentissement de la croissance mondiale), crise de la santé en France
(sang contaminé, canicule 2003, hormone de croissance et on oublie la prévention), crise
d’identité professionnelle (accroissement de l’écart entre mission et moyens, coût des moyens),
crise démographique (réduction de 1970 à 1990 du nombre des médecins formés). Nous avons
subi une déconstruction des services publics de santé (les sept points suivants) : la distinction
public-privé est progressivement effacée ; la tarification à l’acte a eu des inconvénients (aggravation des inégalités) ; la dérive des dépassements d’honoraires ; des hésitations entre avancées et renoncements : pas assez de
sécurité routière et d’IVG, trop d’alcool et de tabac ; l’insuffisance de la place accordée aux associations de patients ;
l’augmentation du « reste à la charge du patient » (forfaits, franchises, dépassement d’honoraires) ; le débat sur
la « dépendance » est enfin amorcé mais il l’est à peine.
Six propositions en vue d’une nouvelle politique : solidarité (entre malades et bien portants, riches et pauvres) ;
égalité (accès à des prestations identiques) ; prévention (nous n’y consacrons que 7 % des dépenses de santé ;
domaines à développer) ; qualité des soins (d’abord guidage par les généralistes et les pharmaciens, évaluation
des résultats) ; éthique médicale (autonomie du médecin, prescription du juste soin au juste coût) ; démocratie
sanitaire (la part des richesses à consacrer à la santé peut résulter d’un choix démocratique).
Il faut donc conforter et développer les quatre services publics de santé :
– service public d’assurance maladie (pour un accès universel) : améliorer les remboursements,
– service public de médecine de proximité à reconstruire (délégué aux médecins libéraux éventuellement regroupés),
– service public hospitalier à refonder (réduit aux hôpitaux et aux cliniques avec des dépassements),
– service public de sécurité sanitaire et de prévention collective à instituer (police sanitaire, veille épidémiologique, vigilance sanitaire, médecine du travail, médecine scolaire, médecine de PMI, promotion de la santé).
Nous ne pouvons, faute de place, citer les 123 signataires, mais nous croyons utile cependant d’évoquer : Olivier
Bernard (Médecins du monde), François Bourdillon, Rony Brauman, André Grimaldi, Stéphane Hessel, Évelyne Lenoble,
Olivier Lyon-Caen, Frédéric Pierru, Didier Tabuteau (78), Pierre Tartakowsky (droits de l’homme), Michel Tubiana.
Jacques Bourdillon (45)
15, rue Soufflot, 75005 Paris. www.odilejacob.fr
Le livre de Pierre Merlin replace ces
quartiers en difficulté dans la longue durée. Ils sont nés d’un mouvement d’idée (le mouvement moderne)
né entre les deux guerres, qui a rallié tous les acteurs après la guerre.
Après la satisfaction des débuts, ils
ont subi une longue descente aux
enfers. La crise des grands ensembles ne serait que le reflet exacerbé
de la crise actuelle de la société française. Une solution est-elle possible ? Il faudra beaucoup d’argent,
beaucoup de temps (au moins une
génération) et surtout beaucoup de
volonté collective.
Madeleine Jullien
Conservatrice générale
des bibliothèques
29, quai Voltaire, 75007 Paris.
www.ladocumentationfrançaise.fr.
LA ONZIÈME HEURE
Isabelle Pestre
épouse de Gilles Pestre (76)
et mère de Renaud Pestre (2008)
Belfond – 2011
Ce premier roman est de ceux dont
le souvenir vous habite longtemps
après l’avoir refermé.
L’histoire est simple,
sinon ténue. Lisbeth a
onze ans, ce sont les
vacances au bord de la
mer. Elle est sensible et
délaissée par son entourage. Une amitié comme
un coup de foudre la lie à
un jeune homme étrange;
l’enfance bascule à jamais.
Elle deviendra une femme
secrète, insaisie (selon le
mot du poète), au seuil d’elle-même.
Lisbeth vit sans exister, comme ces
ouvriers de la parabole qui attendent
avant d’être embauchés par le Maître
de la vigne. (La parabole se trouve
dans le Nouveau Testament au chapitre 20, versets 1 à 16 de l'Évangile
selon saint Matthieu.) Certains sont
pris dès le matin, d’autres
plus tard. Quand arrive le
soir, à la onzième heure,
alors qu’il ne reste plus
qu’une heure de travail,
le Maître vient encore une
fois chercher des ouvriers.
Bien des hommes sont
partis, certains n’y
croient plus, d’autres
refusent son appel. De
même, quand sonnera
pour Lisbeth « la
onzième heure », l’ac-
LA JAUNE ET LA ROUGE • MAI 2012
ARTS, LETTRES ET SCIENCES
MANIFESTE POUR UNE SANTÉ ÉGALITAIRE ET SOLIDAIRE
➤
65
P.62-66 Arts et Lettre
26/04/12
7:34
Page 66
ARTS, LETTRES ET SCIENCES
➤
cueillera-t-elle ? Consentira-t-elle
enfin à vivre ?
Isabelle Pestre écrit ici son premier
livre. Dans ce roman, elle donne libre
cours à un authentique talent d’écrivain. L’histoire est menée solidement,
l’écriture magique, profuse, bouleversante.
Le lecteur aimera ce livre, je le lui
promets.
Henri Brunel, écrivain
Belfond, 12, avenue d’Italie, 75013 Paris.
ANTOINE-RÉMY
POLONCEAU
(1778-1847)
Un homme libre
Un ingénieur au parcours
éclectique
Denis Hannotin et Christine Moissinac
Presses des Ponts – 2011
Que faut-il au fond transmettre, et
cela, quelle que soit l’époque, il y a
deux cents ans comme maintenant,
sinon la force d’imaginer, la capacité d’analyse, la volonté d’entreprendre et de servir, la force d’initiative,
même dans des
domaines hors
des compétences initiales, et enfin
l’esprit de
rigueur ?
Telle est la
question,
plus que
jamais
d’actualité, que pose
Claude Martinand (64) dans
l’introduction de cette biographie.
X1796, une des toutes premières promotions de l’École polytechnique,
Antoine-Rémy Polonceau, ingénieur
du corps des Ponts et Chaussées, personnifie la réussite de cet objectif.
Ce livre très documenté s’apparente
à un travail universitaire par sa rigueur
et ses sources mais c’est, surtout,
le récit d’aventures d’un ingénieur
haut fonctionnaire n’hésitant pas à
intervenir dans le développement du
paysage industriel français : intro66
LA JAUNE ET LA ROUGE • MAI 2012
SOLUTIONS DES RÉCRÉATIONS SCIENTIFIQUES
1) POSITIF EN TOUT ESPACE
Factorisons les éléments de la somme comme produit scalaire de vecteurs, dans
un espace (à 2 ou 3 dimensions) contenant les 4 points.
AB 2 – BD 2 = (AB + BD) (AB – BD) = AD (AB – BD), CD 2 – AC 2 = (CD + AC) (CD – AC) =
AD (CD – AC), d'où la somme BC 2 + DA 2 + AD (AB – BD + CD – AC) = CB 2 + AD 2 +
AD (2CB) = (CB + AD) 2.
C'est le carré d'un vecteur CB + AD = AB + CD qui s'annule si et seulement si ABCD
est un parallélogramme, cas où l'inégalité de l'énoncé devient égalité.
2) D‘UNE DIFFÉRENTIELLE L‘AUTRE
Notons F l'expression ay'' + by' + cy. Les 7 expressions z, z', z'', z''', yF, y'F, yF' sont
fonctions linéaires des 6 monômes y 2, yy', yy'', yy''', y' 2, y' y''. Éliminant ces derniers,
on obtient a 2z''' + 3abz'' + (4ac + ab' +2b 2 – ba' ) z' + 2(2bc – a'c + ac' ) z = 2ayF' + 6ay'F +
2yF (2b – a' ) d'où l'équation différentielle demandée, le second membre étant nul.
3) COMBINAISON CACHÉE
Notant abcdefgh les 8 couleurs, on peut tester abcde, puis (si le score n'est pas 5)
remplacer successivement a, b, c,... par h : dès qu'apparaît un changement du score
initial, on connaît la nature (bon ou mauvais) de h, de la couleur que h remplace
à ce moment, et des couleurs déjà comparées à h. Un 6e test peut être nécessaire pour
connaître la nature de f et g.
Mais on peut faire mieux : 5 questions bien choisies suffisent, dans le cas a) comme dans
le cas b). Solution dans un prochain numéro.
POST-SCRIPTUM À POLYGONE EN RÉSEAU
(LA JAUNE ET LA ROUGE DE FÉVRIER 2012)
Christian Stéfani (69) et Pierre Ranvier (47) forment, à partir d'un polygone régulier
convexe A 1 A 2 ... Ap de p > 4 côtés, le polygone B 1 B 2 ... Bp dans lequel Bi complète
le parallélogramme Ai –1 Ai Ai +1 et appartient au réseau si c'est le cas des Ai.
Ce polygone est homothétique au premier par rapport au centre O, dans le rapport
2cos(2π/p) –1 (strictement compris entre –1 et 1), et ne se réduit pas au point O si p ≠ 6.
D'où, en répétant l'opération, une infinité de polygones de plus en plus petits,
impossibles à inscrire dans un réseau sauf si p = 3, 4 ou 6.
POST-SCRIPTUM À INTÉGRITÉ HYPERBOLIQUE
(LA JAUNE ET LA ROUGE DE FÉVRIER 2012)
Roger Lassiaille (54) a étendu l'étude de la récurrence des coordonnées au cas de d non
entier. Quand 0 < |d| < 2, la courbe est une ellipse où la suite des coordonnées peut être
(ou non) périodique.
duction en France de techniques routières (de Mac Adam), création de
routes et de canaux, développement
de voies ferrées, conception de ponts
en fonte, création de la première
école d’agriculture de France
(Grignon).
Sa marque reste visible : viaduc de
Meudon, tracé de la route du Simplon,
conception du pont de Triana à Séville,
itinéraire des voies Paris-Versailles
et Paris-Rouen et, bien sûr, l’Agro où
la grange Polonceau existe toujours.
Charles-Henri Pin (56)
15, rue de la Fontaine-au-Roi,
75127 Paris Cedex 11.
SOLUTIONS DU BRIDGE
Il faut jouer ♣ du mort et couvrir la
carte d’Est. Ouest est en main et n’a
pas de retour, vous allez faire 5 ♦,
3 ♣ et 1 ♥.
OUEST
♠ A
♥ R
♦ 7
♣ D
R 9
V 7 6 4
6 4
2
EST
♠ 7
♥ 10
♦ V
♣ R
5
8
3
10
4
3 2
2
5
Malheureusement mon partenaire
Dumazet a joué ♠ et a fini par chuter
d’une – il ira cependant en DN1 l’an
prochain.

Documents pareils