Le SI collaboratif : centralisé ou décentralisé - IT

Transcription

Le SI collaboratif : centralisé ou décentralisé - IT
L’exploitation du patrimoine de données :
un nouveau territoire à conquérir par les DSI
PAGE 6
Le SI collaboratif :
centralisé ou décentralisé ?
PAGE 12
Les véritables enjeux
économiques de la qualité
interne des applications
Bimestriel - septembre/octobre 2009
PAGE 22
n°81
Les moteurs de règles
et l’agilité du SI
PAGE 32
Marché de l’outsourcing et
réalités de l’offshore en France
PAGE 40
ZOOM OUTSOURCING
L’avis des Directions Informatiques
Ministère des Finances
Direction Générale des Impôts
Nadine Chauvière
Sous-Directrice des SI de la DGI
« Les solutions d’Application Intelligence
CAST nous aident à obtenir une meilleure
visibilité de notre parc applicatif au travers
de tableaux de bord composés d’indicateurs
techniques objectifs afin de faciliter le
dialogue avec les équipes et avec nos
maîtrises d’ouvrage. »
Groupe SFR Cegetel
Eric Eteve
Directeur Informatique
Centre Ingénierie Mobilité
« La solution CAST de gestion de la soustraitance est un élément clé dans le système
de pilotage mis en place par SFR-Cegetel
sur ses TMA. Nous avons constaté une
attention plus particulière apportée par les
SSII à la qualité des livrables et à la fiabilité
des chiffrages depuis qu’ils savent que nous
pouvons facilement les auditer. »
Framatome - Groupe AREVA
Michel Fondeviole
DSI de Framatome-ANP
« CAST fournit des critères objectifs
d’appréciation dans le dialogue parfois
difficile avec le sous-traitant ainsi que des
indicateurs nécessaires au suivi de l’évolution
des applications et constitue au sein de
Framatome un outil de progrès partagé. »
En savoir plus
Demandez le Livre Blanc rédigé par le
Gartner Group et CAST sur ce thème :
« Information Series on Application
Management » :
www.castsoftware.com/outsourcing
Découvrez l’expérience de plusieurs
sociétés utilisatrices de solutions
d’Application Intelligence :
www.castsoftware.com/customers
www.castsoftware.com
La maîtrise des applications
et des prestataires dans
une opération d’outsourcing
De la valeur ajoutée de l’Application
Intelligence pour piloter efficacement
un parc applicatif sous-traité
Dans l’externalisation des applications
métier, c’est surtout la volonté d’accroître
l’efficacité opérationnelle de l’informatique
qui est motrice : pouvoir fournir plus
rapidement un service à valeur ajoutée
aux utilisateurs et aux clients dans un
contexte en perpétuelle évolution.
C’est là que le bât blesse : l’externalisation
des applications métier occasionne un
risque de perte rapide de savoir-faire
technologique et par conséquent critique.
Vigilance et suivi sont de mise pour garder
le contrôle de la qualité de service et
éviter les dépendances par nature
dangereuses.
L’externalisation réussie d’applications
métier est donc le fruit d’une vision
anticipatrice partagée avec le prestataire.
Sont ainsi apparues des solutions dites
d’Application Intelligence, basées sur
Publi-Reportage
La valeur ajoutée de ce type de
solutions d’Application Intelligence est
visible à chaque étape d’une opération
d’outsourcing, comme décrit ci-après.
trat
con
de
Fin
Appe
ls d
'off
res
Cycle de vie
d'une opération
d'Outsourcing
Co
ntr
ôle
des
coûts
i de
Suiv
connaissance
s
sfert de
Tran
Comme dans n’importe quelle opération
d’outsourcing, le contrat liant le
fournisseur est capital, en particulier les
SLAs. Néanmoins, les applications métier
étant par nature soumises à de fréquents
changements en cours de contrat, les
seuls SLAs se révèlent vite insuffisants
pour garantir la qualité de service et éviter
les dérives de coûts.
une technologie avancée d’analyse de
code source.
En fournissant des indicateurs techniques
aux donneurs d’ordre, ces solutions
permettent de piloter un parc applicatif
sous-traité en temps réel, tant en terme de
qualité, que de maintenabilité et de coût.
Résultat : le donneur d’ordre conserve la
maîtrise intellectuelle de ses applications
métier et le contrôle de la relation avec
son sous-traitant.
technique
Recette
L
es entreprises, devenues plus
mûres vis-à-vis de l’outsourcing,
sont désormais capables d’opérer
des externalisations plus stratégiques. On
l’a récemment observé dans l’automobile
avec Renault ou dans la grande distribution
avec Carrefour.
jet
pro
Audit de l’existant et préparation des
appels d’offres
• Déterminer les caractéristiques
techniques du portefeuille applicatif
existant avant de le sous-traiter
• Disposer d’informations de référence
pour évaluer les propositions des soustraitants
• Obtenir une image à l’instant t des
applications pour permettre un suivi
dans le temps
Transfert vers le prestataire
• Réduire la phase d’acquisition de la
connaissance pour entreprendre plus
vite des tâches productives
• Diminuer le coût lié à la production
d’une documentation exploitable et
maintenable par le prestataire
Contrôle de la qualité et des coûts en
cours de projet
• Suivre l’évolution de la maintenabilité et
de la qualité pour éviter toute dérive
• Etre capable de valider la quantité et
la qualité du travail facturé
• Etre en mesure de challenger le
sous-traitant lors des négociations
d’avenants
• Industrialiser les recettes techniques
Renouvellement de contrat, transfert ou
ré-internalisation
• Déterminer et qualifier les écarts entre
la prestation prévue et les livrables
recettés
• Disposer des informations techniques
caractéristiques du portefeuille
applicatif en fin de prestation
Le leader mondial de ce type de solutions
est d’ailleurs un éditeur français, CAST.
Reconnu par les analystes informatiques
comme précurseur du marché, CAST
compte plus 500 comptes utilisateurs de
sa plate-forme d’Application Intelligence
dans le monde.
édito
Des bienfaits de la chlorophylle
IBM vient de communiquer une étude auprès de
dirigeants de PME/PMI dans 17 pays. Sur près
de 1 800 sondés, 180 Français ont été interrogés
d’avril à juin 2009. Parmi les résultats sans surprise,
il semblait qu’une erreur s’était malencontreusement
glissée dans le tableau final. Au rang des priorités
attendues de ces décideurs, on retrouve : « la gestion
de l’information », « la gestion et la disponibilité
des informations et des centres IT » ou « la conformité réglementaire et
législative ». Jusque-là, les Français avancent globalement des priorités
identiques à celles des autres nations. Et que voit-on apparaître au
quatrième rang, avant même la sécurité ? Le green-IT ! Eh oui : l’écologie
avant même la survie de l’entreprise. Or, comme on l’apprend lors des
initiations au secourisme, la première personne à protéger afin de pouvoir
secourir les autres, c’est vous !
La posture du bobo peut devenir destructrice… pour l’environnement
La médiatisation à outrance de certains thèmes peut décidément rendre…
suspect. Les décideurs de PME (souvent issus de grandes entreprises)
seraient-ils devenus si politiquement corrects qu’ils en perdraient la raison ?
Comment peut-on imaginer un avenir radieux où le sacrifice deviendrait
la règle ? Pour vérifier cette position -qui n’engage pas à grand-chose
lors d’une réponse à une enquête-, il faudrait mesurer le réel engagement
de ces décideurs si l’État décidait de taxer réellement leur entreprise
proportionnellement à ce que certains estimeraient polluant. Ce qui pourrait
ne pas tarder. Peut-être ces préoccupations Green IT passeraient-elles en
second plan. Attention toutefois, à ne pas prendre la position opposée,
pas beaucoup plus constructive !
José Diz
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
José Diz
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Abonnements/Publicité
Email : [email protected]
Conception Graphique
Nicolas Herlem
Email : [email protected]
Parution
IT-expert - (ISSN 1961-9855) est un journal
édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 e.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
marques déposées.
Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Vous pouvez vous abonner gratuitement
sur http://www.it-expertise.com/
Abonnements/Default.aspx
ou nous écrire à :
[email protected]
4
IT-expert n°81 - septembre/octobre 2009
IT-expert n°81 - septembre/octobre 2009
Sommaire
6
Dossier
L’exploitation du patrimoine de données : un nouveau territoire à conquérir
par les DSI
En exploitant les richesses cachées de leurs bases de données, les entreprises peuvent
découvrir des trésors pour améliorer leurs performances. La création d’une cellule
d’analyse peut devenir très utile aux métiers, mais aussi à la DSI, comme le démontrent
les deux auteurs de ce dossier.
12
Technique
Le SI collaboratif : centralisé ou décentralisé ?
Si le distribué n’incarne pas la panacée pour le système d’information collaboratif, le
mode centralisé présente aussi des limites. Jean-Michel Davault et Fabrice Barbin de la
SSII Hommes & Process (spécialiste du collaboratif) expliquent pourquoi une approche
mixte devient incontournable, à travers des expériences concrètes.
18
Actualités Internationales
22
Quoi de neuf docteur ?
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances.
Les véritables enjeux économiques de la qualité interne des applications
Alors que la plupart des entreprises sont en mesure de quantifier le coût des interruptions
de service de leurs applications, elles peinent à justifier les investissements à réaliser
en qualité logicielle pour prévenir ces défaillances. Bill Curtis, co-auteur du CMM et
directeur du nouveau Consortium international sur la qualité logicielle (CISQ) aborde
dans cet article les véritables enjeux de la qualité interne des applications et propose
une méthode permettant d’estimer et de mesurer les conséquences économiques de
son amélioration.
32
Comment ça marche ?
Les moteurs de règles et l’agilité du SI
Définir les règles métiers indépendamment du code ou les en extraire, les centraliser
dans un référentiel et utiliser un moteur d’exécution… Autant de préoccupations
actuelles utilisant des technologies des années 80. Voyage au cœur des moteurs de
règles avec un guide spécialisé.
39
Livres
Management et gouvernance des SI, ouvrage collectif coordonné par Camille
Rosenthal-Sabroux et Americo Carvalho et GREEN IT - Les meilleures pratiques
pour une informatique verte par Christophe Corne, Adrien Porcheron, Pénélope
Guy et James Pavia.
40
Rubrique à brac
Marché de l’outsourcing et réalités de l’offshore en France
Infogérance d’infrastructure ou d’applications, externalisation, TMA, Hosting, BPO…
l’outsourcing gagne du terrain dans l’Hexagone, et l‘off-shore reste plutôt européen.
Panorama d’un marché en croissance par Vincent Gelineau, Consultant senior chez
Pierre Audoin Consultants (PAC).
IT-expert n°81 - septembre/octobre 2009
5
L’exploitation du
patrimoine de données :
un nouveau territoire à conquérir
par les DSI
De l’importance de la fonction d’analyste et de la structuration d’une cellule d’analyse
pour maximiser la contribution des systèmes d’information au développement du
Business futur.
6
IT-expert n°81 - septembre/octobre 2009
Dossier & Interviews
Les données de l’entreprise :
un patrimoine à réveiller pour mieux avancer
Les investissements accumulés dans les systèmes d’information
depuis des dizaines d’années se sont traduits par des générations
d’applications toujours plus pointues, couvrant maintenant
l’ensemble de l’écosystème de l’entreprise. Ce capital immatériel,
principalement constitué des données accumulées lors des
actes de gestion, est à la fois peu valorisé (en comparaison du
capital de marque en marketing) et relativement sous-utilisé. Bien
évidemment, les actes de gestion sont assurés, et l’exécution des
tâches et processus est pilotée et mise en regard des objectifs
via des systèmes de pilotage de plus en plus avancés. Mais
l’information générée est rarement exploitée pour en dégager
du « sens » (microsegmentation, personnalisation à la volée des
actions…) ou, tout aussi faiblement, pour aider les dirigeants
à piloter le devenir de l’entreprise (non pas contrôler dans le
rétroviseur la bonne exécution des directives, mais fixer le
nouveau cap, et les objectifs induits, cf. figure 1).
En effet, en ces périodes économiquement troublées, de
globalisation toujours plus intense, et de concurrence toujours
plus innovante, il est essentiel pour le dirigeant de fixer le cap
avec assurance dans la tourmente, et d’être apte à prévoir,
anticiper et riposter au plus vite. En regard de cette attente
légitime, quelles réponses apporte le DSI aux dirigeants : quels
sont les modèles mis à disposition ? Quelles sont les données
ENVIRONNEMENT
externes, capitalisées et confrontées au patrimoine de données
internes ?… Ensemble de domaines encore bien souvent en
friche et vis-à-vis desquels il ne faut plus se contenter du seul
flair (professionnalisme) des dirigeants. C’est pourquoi il devient
nécessaire de les « outiller », non pas pour les remplacer, mais
pour leur donner la capacité de tester un nombre plus important
de scénarios, permettant de mieux cibler les mouvements
stratégiques à conduire et les orientations à fixer.
Une pratique d’exploitation du patrimoine
de données à peine naissante
En regard de ces attentes, les entreprises ne manquent pas
de données, mais sont-elles structurées pour répondre à ces
besoins ? Ont-elles été capitalisé dans cet objectif ? Et par
delà les données, l’entreprise dispose-t-elle des technicités et
des logiques d’exploitation pour contribuer aux réflexions des
dirigeants ? En fait, cette « fonction d’analyste » est actuellement
peu présente ou encore éclatée entre différents acteurs. Comment
structurer une offre lisible pour les dirigeants qui souhaitent à la
fois de la simplicité et de l’efficacité.
En fait, l’analyse nécessaire nécessite la réunion au minimum
de trois composants :
• une expertise métier, pour traduire en orientation stratégique
les résultats chiffrés ;
STRATEGIE
D'ENTREPRISE
ORIENTATION
Modélisation
Simulation - Prévision
ORIENTER
VISION
situation
analyses
analyses
directives
objectifs opérationnels
AIDE A LA DECISION
PILOTER
Évaluation
Contrôle
Analyse
actions
objectifs
CONNAISSANCES
qualité
efficacité
FAITS
INFORMATIONS
DATA WAREHOUSE
GERER
DONNEES
SYSTEMES TRANSACTIONNELS
MOYENS
Gestion
Animation
RESULTATS
Figure 1 : la vocation des analystes est de faciliter l’orientation
IT-expert n°81 - septembre/octobre 2009
7
• une technicité de traitement de données (modélisation, statistique) pour faire « parler les données » par un choix judicieux
des informations majeures allié à un choix adapté de restitution
(graphiques) mettant en exergue les traits marquants,
• et une forte maîtrise de l’exploitation des données dans un
mode « boîte à outils » permettant par des circuits courts et
de façon itérative de converger rapidement vers des résultats
significatifs. Tout en tenant compte de la forte confidentialité de
cette convergence de données manipulées, de la complexité
dans certains métiers de modéliser l’activité, de la dimension
culturelle (notamment en France ou l’on s’appuie moins, pour
décider, que dans les pays anglo-saxons, sur les « faits et les
chiffres »).
Il convient donc de structurer ce besoin et de l’organiser autour
d’une « cellule d’analyse » en soutien des dirigeants s’appuyant
sur une fonction « d’analyste » qui regroupe les expertises
précitées. L’entreprise doit aussi en expliciter les apports et
les modalités de fonctionnement (passage de commandes…).
Bref : la promouvoir auprès des « consommateurs » et non pas
« utilisateurs » que sont les dirigeants. Pour ce faire, l’approche
de type « proof of concept » est préférable, car elle met en lumière
sur des cas concrets l’utilité et la pertinence de l’approche. Enfin,
la montée en maturité peut s’avérer lente pour la structuration
de modèles d’exploitation pertinents des données.
Une offre de services utile à tous
La population des dirigeants concernés par cette approche ne
se cantonne pas au directeur général, mais à l’ensemble des
membres du comité de direction, qui dans leur domaine ont pour
responsabilité d’orienter au mieux le devenir de l’activité.
Le directeur financier appréciera de pouvoir préparer les
instances auxquelles il doit rendre compte en ayant accès à
une vision chiffrée accompagnée d’exemples fouillés sur les
cas explicatifs de telle dérive ou de tel risque.
Pendant les 3 premiers mois qui suivent le lancement d’un nouveau
produit, le directeur marketing, souhaitera, au moins une fois par
semaine, une vue 360° avec des zooms ad hoc sur les zones de
risques (cannibalisation, impact des campagnes de publicité…).
À l’issue des 3 mois, la plus grande partie des analyses effectuées
ne sera plus utile et les outils décisionnels standards pourront
reprendre leur place pour un reporting plus durable.
Un autre usage des cellules d’analyse dont sont friands la
direction des risques et/ou la direction marketing est la détection
des doublons non pas dans l’objectif de réaliser la fusion
rapidement (c’est presque toujours utopique) mais afin de chiffrer
les risques de contrepartie, les risques réglementaires ou les
risques d’image liés à la prolifération des doublons.
Sous un autre angle, la capacité à recouper l’information, à
zoomer sans fin sur différents axes d’analyse et surtout la facilité
à classer et extraire les exceptions, les cas les moins standards…
intéresseront notamment la lutte contre la fraude.
8
IT-expert n°81 - septembre/octobre 2009
Et ces exemples issus de cas réels n’épuisent bien sûr pas la
liste des usages possibles des cellules d’analyse.
Face à ces attentes tacites, le DSI doit se positionner en offreur
de services, et ne pas attendre une hypothétique expression de
besoins en la matière. Plus qu’un outil à déployer, il s’agit de tout un
dispositif à mettre en œuvre (systèmes, processus, organisation,
offre de services, interaction client…) pour lequel les ressources
internes seront sollicitées (statisticiens, chargés d’études…). Il s’agit
d’une démarche volontaire, mais qui se caractérise par sa très forte
visibilité du fait des « consommateurs » visés : les dirigeants.
Des facteurs favorables et des opportunités
insoupçonnées
Pourquoi engager cette exploitation avancée d’un patrimoine
de données souvent laissé en friche ? De nombreux facteurs
externes poussent à initier ce mouvement : les attentes toujours
plus fortes de « transparence » dans des cadres réglementaires
toujours plus denses… mais également des attentes internes
peu ou mal assouvies : décider plus vite, dans des contextes
de plus en plus larges (lignes d’activité, couverture territoriale,
segmentation des offres, personnalisation de la relation client…)
induisant une complexité difficile à maîtriser par les dirigeants quel
que soit leur « métier ». Il faut donc formaliser et « industrialiser »
cette approche.
En outre, d’autres opportunités permettent de tirer un bénéfice
plus important de cette exploitation avancée des données.
Par exemple : revendre de façon anonymisée des résultats à
un acteur en aval de sa filière métier, ce qui a pour avantage
de financer le coût interne d’exploitation des données, tout en
accroissant « l’intelligence » de la filière.
Aujourd’hui, de nombreuses bases de données d’entreprises
contiennent des données de marché avec une volumétrie qui
ferait rêver bien des panélistes. De surcroît, ces données ont
été acquises de façon contrôlée, ce qui les rend au moins aussi
fiables que des données déclaratives. Certes, le champ est plus
restreint (on y lit rarement des données sur les intentions d’achat).
Cependant, l’intérêt réside dans la démarche et dans la volonté
d’analyser ces données pour leur faire dire ce qu’elles peuvent
dire : avec quelques pourcentages de part de marché sur un
marché exprimé en millions de foyers, une forme de « loi des
grands nombres » s’applique sur de grands indicateurs avec la
possibilité de détecter les signaux faibles. La matière première
immatérielle est là. Le talent consiste à la valoriser.
Une dynamique à engager par le DSI
Le DSI dispose aujourd’hui de tous les éléments pour se
positionner comme un acteur clé sur ce nouveau champ
d’activité, à très forte visibilité des membres du comité de
direction et à très fort levier de génération de chiffre d’affaires.
Ceci d’autant plus que la période de crise/reprise actuelle est
tout à fait opportune pour engager ce genre d’initiative.
Dossier & Interviews
Le territoire étant neuf, et dépassant la seule construction et
mise en œuvre d’applications, il s’agit de mettre en place la
gamme pertinente d’offres de services, de la « vendre » aux
dirigeants ciblés (finances, marketing, risques…), d’en assurer
le fonctionnement au quotidien, de veiller à l’apport de valeur en
regard des attentes exprimées ou non par les dirigeants…
Pour ce faire, s’appuyer sur une assistance externe permet
une montée plus rapide en maturité, et évite les errements et
les étapes d’apprentissage essais/erreurs.
Structurer une « cellule d’analyse » pour garantir
la pertinence des résultats
La cellule d’analyse se nourrit de données qu’elle exploite en
utilisant des méthodes et outils ad hoc issus des savoir-faire
décisionnels (business intelligence) et de traitements de données
avancés, notamment l’amélioration de la qualité de données
et le datamining.
Les données sources peuvent être aussi bien des données
opérationnelles de granularité fine que des données détaillées
sur les projets stratégiques. Certaines données opérationnelles
peuvent être captées dans le système décisionnel de l’entreprise,
mais le cœur du travail de la cellule d’analyse consiste surtout
à rapprocher ces données issues du SI de l’entreprise avec de
nombreuses autres sources.
La cellule d’analyse n’a pas vocation à traiter les sujets pouvant
l’être dans le cadre d’un projet décisionnel. En revanche,
lorsque la source est ponctuelle (cas d’un retour de coupons
d’une campagne), trop peu fiable pour intégrer l’entrepôt
d’entreprise, l’information peut quand même être valorisée pour
l’entreprise. La cellule d’analyse a l’expérience de nombreuses
sources externes pour qualifier et enrichir les données traitées
(référentiels, données de marché, données acquises auprès
de partenaires). Ces analyses se révèlent intéressantes pour
mesurer, par exemple, le taux d’obsolescence des données
d’une base clients.
Une autre dimension de la cellule d’analyse concerne sa neutralité
par rapport au sujet traité : les résultats bruts sont mis en exergue
par des analyses qui en éclairent le contexte et précisent surtout
les limites. À côté du nombre de clients que l’on peut contacter,
a-t-on une vision sur la fraîcheur des données de contact ?
En face d’une cohorte de clients, sait-on évaluer l’impact des
doublons ?
Les livrables de la cellule d’analyse s’adressent uniquement aux
dirigeants. Ils peuvent comporter des résultats qui ne sont pas
« politiquement corrects » ou ne pas correspondre aux positions
tenues jusqu’à présent. Mais c’est justement cette indépendance
de l’analyse que doit garantir une telle structure qui en fait sa
valeur auprès des membres du comité de direction.
CONFIANCE
vérifiée/
prouvée
(origine, condition d’acquisition, rapprochement)
justifiée/
recoupée
CONFORMITÉ
DE LA DONNÉE
déclarée
en
vis-à-vis
prouvée
fausse
non
conforme
douteuse
conforme
non
connue
refus
de réponse
non
demandée
Niveau de qualité stable
Risque de donnée fausse
ou inexploitable
Donnée inexploitable
non testée
tests non
applicables
Donnée
client
COMPLÉTUDE
Action qualité à mener
rectifiable
déclarée
à distance
renseignée
« le client
n’a pas »
« à jour »
à priori
CARACTÈRE « À JOUR »
DE LA DONNÉE
risque
de
péremption
Indice(s)
donnée
obsolète
obsolète
Hors champ
Figure 2 : axes d’analyses de la qualité des données : les outils et méthodes permettent de classer automatiquement les données selon ces axes
IT-expert n°81 - septembre/octobre 2009
9
Au cœur d’une cellule d’analyse, plusieurs acteurs maîtrisent le
socle commun d’outils et méthodes qui permettent de réaliser
rapidement, et de façon reproductible et traçable si besoin, les
traitements qui transforment de gros volumes de données brutes
non qualifiées en bases prêtes pour les analyses poussées et
le datamining :
• Redressement d’adresses (RNVP), de téléphones et de
méls
• Rapprochement de données sur clés complexes
• Identification de doublons
• Classification automatique par niveaux de qualité
• Correction automatique des erreurs de saisie les plus
fréquentes sur les grands référentiels (zones géographiques,
prénoms…)
• Classification automatique par niveau de qualité
• Modélisation en étoile et techniques d’indexation de bases
de données
• Les bonnes pratiques de représentation graphique des
données qualitatives
• …
Une représentation graphique intelligible
et efficace
On notera que parmi toutes ces techniques, l’une des moins
évidentes est sans doute celle relative à la représentation graphique du résultat chiffré. Sa nécessité s’impose lorsque l’on
prend conscience de la densité d’information que permet cette
représentation (jusqu’à 30 fois celle d’un tableau de chiffres classique avec une accélération notable de la vitesse de lecture).
Année de
naissance
Les outils décisionnels de reporting, même les plus avancés,
ne disposent pas à ce jour des options indispensables pour
cet exercice. Quelques outils spécialisés (Tableau Software ®,
Visokio ®…) explorent de nouveaux territoires, mais il est encore
trop souvent nécessaire de recourir aux outils graphiques
génériques (PowerPoint ® ou Adobe Illustrator ®) pour obtenir
un résultat précis et conforme aux règles de l’art.
Le plus important, au-delà des moyens à mettre en œuvre pour
obtenir le résultat, revient aussi à savoir instituer de nouvelles
habitudes de lecture à travers des représentations graphiques qui
deviennent des standards pour les dirigeants (qui ne disposent
que d’un temps restreint pour appréhender le sujet). La pyramide
des âges en est un bon exemple, puisqu’elle est largement
comprise, qu’elle paraît simple et reprend les conventions de
l’arbre généalogique (cf. figure 3).
La DSI : acteur référent de la gestion du capital
immatériel de l’entreprise
Le capital immatériel désigne l’ensemble des actifs non monétaires et sans substance physique détenus par l’entreprise en vue
de son utilisation pour la production ou la fourniture de biens et
de services. Ce capital est une source de valeur et d’innovation
pour l’entreprise. Il faut le gérer et le valoriser.
Tous les domaines de l’entreprise comportent une large part de
ressources immatérielles et tout collaborateur de l’entreprise
participe de fait au capital immatériel de l’entreprise. Cependant,
le DSI apparaît, de par sa connaissance de la dématérialisation
Âge
révolu
1908 ou av.
100 ou +
1913
95
1918
90
1923
85
1928
80
1933
75
1938
70
1943
65
1948
60
H
1953
1958
50
1963
45
1968
40
1973
35
1978
30
1983
25
1988
20
1993
15
1998
10
2003
5
0
2008
2,0%
F
55
1,5%
1,0%
0,5%
0,0% 0,0%
0,5%
1,0%
1,5%
2,0%
Figure 3 : un des graphiques standard permettant de caractériser une cohorte : exemple (anonymisé) des « chasseurs de prime » positionnés sur la pyramide des âges des clients
10
IT-expert n°81 - septembre/octobre 2009
Dossier & Interviews
des activités (processus et produits) de l’entreprise et sa
position dans l’entreprise (le SI est l’infrastructure de mesure
de l’immatériel), comme une des personnes clés pouvant devenir
le gestionnaire de ce capital immatériel.
En effet, les systèmes d’information représentent près de 60 %
de l’investissement immatériel dans les économies développées.
Le système d’information d’une entreprise est composé à
plus de 80 % de capital immatériel. Il est donc normal que les
DSI cherchent à disposer d’une bonne compréhension des
composantes, des spécificités et des outils de mesure et de
gestion associés au capital immatériel.
La fonction de DSI est donc à même de supporter de nouvelles
responsabilités :
• montrer que l’entreprise ou l’entité a à sa disposition les
actifs tangibles et intangibles dont elle a besoin pour créer
la valeur pour les actionnaires ou les parties prenantes.
• améliorer continuellement la manière dont ces actifs
sont utilisés pour en assurer un usage aussi efficace que
possible.
• accroître de manière continue l’efficacité avec laquelle ces
actifs sont utilisés pour créer de la valeur.
• accroître la valeur des ressources de l’entreprise et de ses
activités aux yeux des différentes parties prenantes.
renforcé par le fait que la mise en œuvre du dispositif dépend
en premier lieu des praticiens hommes et femmes dont la
méthode, l’efficacité, et la discrétion donnent confiance, alors
même que la curiosité reste une qualité indispensable dans
cette discipline.
Dans ce contexte, une « cellule d’analyse » ayant fait les preuves
de sa capacité à rendre intelligible de gros volumes de données
internes (souvent qualifiées et comparées à des bases de
données externes), à en extraire les informations pertinentes,
habituée à manipuler des informations sensibles et à comprendre
et traduire les besoins de leurs clients au plus haut niveau, se
révèle un excellent socle pour renforcer un service d’intelligence
économique. n
Benoît Noël,
Expert : mise en place et pilotage
de cellules d’analyse auprès
de dirigeants
La « cellule d’analyse », a légitimement vocation à contribuer
à améliorer la prise en compte par l’entreprise de cette valeur
ajoutée pouvant, dans certains cas, induire un « goodwill »
financier.
Au service de l’intelligence économique numérique
L’intelligence économique répond au besoin croissant de
comprendre l’environnement dans lequel évolue l’entreprise,
d’être alerté au plus tôt des modifications de cet environnement
y compris lorsque les signaux sont faibles. L’objectif vise à
protéger le patrimoine productif et intellectuel et à préparer la
meilleure riposte sur le terrain économique.
Le traitement numérique de l’information permet désormais une
automatisation efficace de l’ensemble de la chaîne classique
du renseignement, de la donnée « brute » non nécessairement
structurée (que les technologies des moteurs de recherche
savent de mieux en mieux cerner) à la synthèse à haute valeur
ajoutée (présentée dans son contexte, vérifiée par recoupement,
avec une marge d’erreur ou d’incertitude qualifiée).
L’innovation peut se mesurer par la diversité des approches et
des outils, et s’avère alors plus importante, car la réalité des
progrès et des résultats acquis incarne déjà une information
que chacun protège. Le caractère sensible de ces résultats est
Laurent Dequeant,
Partner en charge de l’activité
« Strategic Planning »
Benoît Noël constitue, forme et pilote des cellules d’analyse au service de dirigeants.
Il est expert de la modélisation dimensionnelle et des traitements d’amélioration de
la qualité des données et dispense régulièrement des formations sur ces sujets.
Laurent Dequeant assiste les Dirigeants dans l’exécution de leur stratégie et la
mise en œuvre de programmes de transformation et a recours à ces approches
pour optimiser l’exécution des opérations et maximiser la contribution Business
de nouveaux produits et initiatives.
ORESYS est un Cabinet de Consultants qui aide les entreprises à piloter leur activité,
à conduire leurs projets de transformation et à améliorer leurs performances.
ORESYS a développé, en s’appuyant sur sa maîtrise des approches BI, une expertise
et des savoir-faire spécifiques en matière de mise en place et d’animation de
cellules d’analyste, ayant pour vocation de mieux éclairer les dirigeants sur les
orientations à prendre.
http://www.oresys.eu/
IT-expert n°81 - septembre/octobre 2009
11
Le SI collaboratif :
centralisé ou décentralisé ?
Centralisé versus décentralisé… Connecté versus déconnecté… Des concepts réputés antagonistes
qui animent depuis des années les discussions entre professionnels de l’informatique… L’enjeu
est en effet de taille : miser sur le modèle qui offre le meilleur compromis entre usages et gestion.
Illustration au travers des solutions collaboratives Microsoft.
12
IT-expert n°81 - septembre/octobre 2009
Technique
Les architectures centralisées sont facilement perçues, car elles
apportent incontestablement de nombreux avantages.
• Des économies d’échelle
La centralisation offre des possibilités de concentration et de mutualisation de ressources. Par ressources, on entend aussi bien les
ressources humaines (administrateurs, techniciens), matérielles
(salles normées, climatisation, protection incendie, sécurité physique, éléments de redondance…) que proprement informatiques
(équipements et logiciels de sécurité, de communication réseau,
de gestion, capacité de stockage, de calcul, d’archivage…). Ce
partage engendre naturellement une meilleure rentabilité des
investissements de base. Il constitue également un accélérateur
financier et organisationnel quand une évolution – installation d’un
nouveau composant logiciel ou matériel – devient nécessaire,
tout en bénéficiant des éléments déjà en place. Le recours à la
virtualisation massive au sein de centres d’hébergement et à des
systèmes de stockage SAN vont également dans ce sens.
• Une information exhaustive et pertinente
La centralisation joue également un rôle important dans la
constitution et l’enrichissement du patrimoine des connaissances
de l’entreprise. Ainsi, elle facilite l’indexation des contenus et donc
augmente la pertinence des résultats de recherche. Si la quantité
incarne parfois un frein à une exploitation aisée de l’information,
elle constitue pour autant un critère prédominant dans la vérification d’un résultat (consolidation de résultats concordants) et
dans la détection de tendances (tableaux de bord).
• Accessibilité et sécurité simplifiées
Des ressources centralisées favorisent l’accessibilité à
l’information. La définition des politiques de sécurité (dont les
droits d’accès) est simplifiée, car elle s’appuie sur un référentiel
unique, consultable en temps réel.
• L’unicité de l’information
Autre avantage, la centralisation facilite la mise sur pied
d’un référentiel global, garantissant l’unicité de l’information
et simplifiant les contrôles d’intégrité et les approches
transactionnelles. En effet, les ressources étant locales, les
vérifications techniques (versions, unicité de clé, cohérence
globale, etc.) peuvent être effectuées en temps réel.
Des avantages à relativiser
Si les avantages sont nombreux, la centralisation souffre
également de quelques effets de bords. Ainsi, les économies
d’échelles n’ont parfois aucun sens si elles engendrent une
dégradation de qualité de service pour l’utilisateur final. Par
exemple, pourquoi héberger une application à Paris si elle est
exclusivement utilisée pour des équipes distribuées en Asie ?
De même, l’unicité de l’information et la normalisation qui
l’accompagne ne doivent pas remettre en question la gestion
de documents temporaires, de révisions, de brouillons… mais
plutôt intégrer une souplesse pour gérer « l’imprévu ». Enfin,
l’accessibilité à l’information pour les populations nomades, si
elle peut être fournie par des solutions basées sur la téléphonie
mobile (Blackberry, IPhone), n’est toutefois pas optimale : débit
disponible limité, capacité de traitement limitée, temps de saisie,
temps de latence, difficulté de sécurisation des échanges…
Un décalage avec un monde
de plus en plus ouvert et distribué
L’approche centralisée est également confrontée à de nouvelles
problématiques devant être impérativement adressées pour
répondre aux besoins des activités de l’entreprise. En effet, force
est de constater que les entreprises fonctionnent de façon de
plus en plus ouverte, de plus en plus « agile » : leurs collaborateurs
dispersés au sein de multiples sites géographiques doivent
souvent travailler en situation de mobilité, et parfois en situation
dite « austère ». Les projets sont menés de plus en plus sous
forme de consortiums, de pôles, d’équipes d’expertise… En
outre, les relations entre clients et fournisseurs sont de plus en
plus intégrées et sans pour autant être systématiquement régies
par des processus informatiques formalisés.
L’actualité nous démontre également à quel point les entreprises
doivent être aujourd’hui en mesure de repenser les méthodes de
travail de leurs salariés pour répondre à de nouvelles contraintes
ou directives. Ainsi, le télétravail, qu’il soit motivé par des raisons
sanitaires, des considérations sociales ou environnementales,
engendre de lourdes conséquences pour le système d’information
centralisé. Dans ce contexte, le SI doit s’adapter rapidement
pour répondre à ces nouveaux besoins, tout en préservant au
maximum la qualité de service et la sécurisation.
Dans le cas de filiales ou d’agences réparties géographiquement,
cela nécessite par exemple un dimensionnement précis de la
bande passante et une architecture adaptée (extranet ou intranet
étendu, « VPNs », authentification forte, identités numériques,
centres délocalisés…). Dans le cas de salariés mobiles, cela
nécessite de pouvoir assurer la continuité de connexion ou de
disposer de procédures de reprise automatique de session afin
de ne pas pénaliser l’utilisateur dans ses usages quotidiens.
Quel que soit le besoin, il faut retenir qu’une incapacité à y
répondre rapidement et efficacement engendre un risque
immédiat de perte de contrôle de l’information pour l’entreprise :
les salariés cherchent par eux même à s’équiper et peuvent
– parfois inconsciemment – faire des choix « indélicats » aux
conséquences parfois lourdes pour l’entreprise (exemple :
recours à des services disponibles sur Internet, sans garantie
de confidentialité ou de sécurité).
Les architectures centralisées doivent donc être en mesure d’offrir
une grande souplesse d’ouverture, ce qui, nativement, il faut le
reconnaitre, constitue le plus souvent l’une de leur faiblesse.
Architectures distribuées : toujours et partout
De son côté, l’approche décentralisée ou distribuée permet de
fournir aux utilisateurs une proximité immédiate avec l’information
IT-expert n°81 - septembre/octobre 2009
13
utile. Elle se caractérise par une indépendance partielle ou totale
vis-à-vis d’un « pivot centralisé » et est en mesure de supporter
dans la plupart des cas l’absence de connexion à un réseau (qu’il
s’agisse d’internet ou du réseau de l’entreprise). À défaut de
constituer des solutions totalement déconnectées (la connexion
étant nécessaire pour partager les informations), on pourrait tout
du moins parler de solutions « déconnectables »…
L’approche – tant d’un point de vue technique qu’organisationnel –
se révèle donc intéressante pour les populations mobiles
évoluant dans des environnements où les connexions continues
ne peuvent pas être assurées ou dans des lieux où la faible
disponibilité de bande passante génère des coûts induits
« d’attente » : zones blanches, milieux austères…
L’accessibilité à l’information est immédiate, non conditionnée
par la disponibilité d’une bande passante suffisante entre un
site central et le ou les utilisateurs. Cette approche fournit
également un modèle intéressant en termes de continuité de
fonctionnement. Si une panne survient, son impact est limité,
car elle ne touche que l’utilisateur local. Il n’existe pas de nœud
unique sensible comme dans une approche centralisée. Par
ailleurs, dans le cas d’un réseau local d’entreprise, même étendu,
l’indisponibilité des serveurs applicatifs classiques tels que la
messagerie ou les applications métier, sera compensée par la
simple présence d’une connectivité réseau !
Vers une nouvelle organisation
À l’image des modèles de hiérarchie d’entreprise, cette approche
se veut « matricielle » et non pas « arborescente ». D’un point de
vue organisationnel et psychologique, cette approche impacte
donc directement le rapport au pouvoir, car comme on le sait, la
maitrise de l’information est l’une des composantes du pouvoir
au sein de l’entreprise. Cette démarche confirme une fois
encore l’évolution constatée du métier du DSI, où la dimension
stratégique, métier et organisationnelle prend une place de plus
en plus importante.
Dans le cadre de coopération entre plusieurs entités distinctes,
l’approche décentralisée permet également de répondre à la
question de la propriété de l’information. Cette dernière n’est pas
hébergée dans un lieu central unique, mais bien auprès de chacun
des intervenants de la coopération. Cette distribution équitable
assure également une propriété répartie de l’information, et lève
ainsi l’un des freins psychologiques classiques liés au travail
collectif. Cette approche permet de définir entre les participants
14
IT-expert n°81 - septembre/octobre 2009
une zone de collaboration neutre, indépendante du système
d’information de l’un des intervenants.
Organisation et coordination s’imposent
L’approche décentralisée se heurte toutefois à plusieurs
problématiques. La distribution des usages et de l’information doit,
dans un cadre professionnel, pouvoir être encadrée et contrôlée. Il
est ainsi impératif de pouvoir définir des règles de fonctionnement
et de s’assurer qu’elles sont effectivement appliquées. Il faut
aussi bien distinguer les règles de fonctionnement techniques
(qui doivent être les plus transparentes possible pour l’utilisateur
final, telle la gestion des machines, du chiffrement…) des
règles organisationnelles : responsabilité de projet, niveau
de confidentialité, définition des objectifs et des méthodes à
adopter.
L’approche décentralisée pose également la problématique de
l’unicité et la connaissance de l’information : comment s’assurer
que l’ensemble de l’information partagée est cohérent, répond
aux « normes » définies par l’entreprise (nommage, validation)
et conforme aux pratiques de capitalisation (« versionning »,
indexation) ? L’approche décentralisée ne recourant pas à un
système de gestion global et centralisé, ces problématiques
doivent pouvoir être résolues différemment.
Illustration d’une approche mixte au travers
des solutions collaboratives Microsoft
L’analyse des tendances du marché, tous éditeurs confondus,
montre que l’approche centralisée poursuit sa généralisation
et s’étend notamment grâce au Cloud Computing. Et ce, afin
de réduire les coûts de possession et d’exploitation, les temps
de mise en place, d’assurer une meilleure montée en charge en
fonction des besoins effectivement constatés, mais également
d’optimiser la qualité de service (« temps de service garantis »).
Cette tendance souligne également la maturité de stratégies
locales et mobiles menées en parallèle. Compte tenu des intérêts
et des contraintes liées aux modes centralisé et décentralisé,
il s’avère parfois pertinent d’implémenter conjointement les
deux approches.
Technique
Microsoft mixe les approches
La stratégie portée par Microsoft qui fusionne la notion de serveur
– in situ ou dans le « nuage » via son offre « BPOS » (Business
Productivity Online Services) – avec l’accessibilité locale aux
données via Windows 7, Office Groove ou Live Mesh, illustre
parfaitement cette tendance. Microsoft fournit également une
telle implémentation mixte dans sa gamme de produits dédiés
au collaboratif professionnel. En effet, depuis la version 2007 de
sa gamme Office, Microsoft dispose de produits implémentant
à la fois les approches centralisées et décentralisées du travail
collaboratif : SharePoint et Groove.
SharePoint constitue la plate-forme de prédilection de Microsoft
pour la mise à disposition de ressources structurées au sein
de l’entreprise. Support des politiques Intranet, Extranet voire
Internet, le produit tend à devenir version après version, le support
de publication, mais aussi de « business intelligence » unique
dans l’entreprise. Et ce, qu’il s’agisse de portails, de publication
de contenu, de partage de ressources documentaires, de support
d’applications CRM ou de gestion de projets, de création de
rapports et tableaux de bord ou de support de « workflows ».
Office Groove de son côté se positionne sur le travail collaboratif
sécurisé et distribué. D’un point de vue conceptuel, il peut être
considéré comme une version professionnelle de Live Mesh, bien
que ses usages tout comme son architecture soient différents.
La force du produit réside dans sa capacité à réunir des individus
en faisant une totale abstraction de leur localisation ou de leur
organisation d’appartenance, tout en assurant le contrôle
d’accès à l’information. Le produit supporte donc aisément
les projets entre filiales ou entre organisations distinctes. Son
haut niveau de sécurité, ainsi que sa capacité à fonctionner en
étant déconnecté de tout réseau, font également de Groove
une solution idéale pour les équipes mobiles ou évoluant en
environnements austères. Afin de combler les problématiques
inhérentes aux solutions décentralisées (telles que celles citées
précédemment), l’architecture Groove s’appuie également sur
des composants serveur dont les rôles sont de pouvoir définir
les politiques de sécurité (définition des identités numériques,
intégration de PKI, gestion des utilisateurs) et d’usages (droits
et restrictions, sauvegardes…). L’originalité de l’architecture
réside dans le fait que les politiques sont définies de manière
centralisée, puis automatiquement déployées auprès des
utilisateurs, qui peuvent ensuite évoluer de façon autonome,
sans connexion vers le serveur. En résumé, un cadre d’usage
est défini de manière centralisée. Les utilisateurs ont ensuite
une totale autonomie pour évoluer au sein de ce cadre.
Dans le même ordre d’idée, Groove dispose de capacités
d’intégration avec SharePoint. Il est ainsi possible de créer
de manière collective et distribuée un contenu qui sera
ensuite synchronisé au sein d’un référentiel d’entreprise sous
SharePoint.
La solution hybride : exemples d’usages
Une approche mixte, alliant à la fois les apports des architectures
centralisées et décentralisées, semble prometteuse, comme le
prouvent ces quelques scénarii :
• Des équipes mobiles sont dotées d’une solution décentralisée
de consultation de procédures d’intervention et effectuent
sur le terrain – éventuellement sans connexion – des relevés
d’informations. De retour à « leur base », les informations
collectées par chacune des personnes sont remontées
vers un système centralisé, qui les analyse et les consolide.
Des rapports de synthèse sont alors produits et constituent
éventuellement la source d’informations qui seront réinjectées
au sein du système décentralisé.
Si ce scénario est présenté de manière théorique, il
illustre toutefois des pratiques réelles constatées auprès
d’équipes de professionnels intervenants sur des sites où les
connexions sont interdites (exemple : hôpitaux) ou évoluant
en environnement austère (exemple : ONG telle que la Croix
Rouge, forces armées).
• Dans le même ordre d’idée, il est tout à fait envisageable
d’équiper des télétravailleurs avec une solution décentralisée.
Qu’ils évoluent au sein de l’entreprise, depuis leur domicile
ou lors de leurs déplacements, ils disposent des informations
utiles à leur activité quotidienne avec eux. De retour dans
l’entreprise, les informations sont réinjectées dans le système
d’information. Une approche utile en cette période où les
IT-expert n°81 - septembre/octobre 2009
15
pouvoirs publics anticipant des risques pandémiques incitent
les entreprises à promouvoir les politiques de télétravail de
leurs salariés.
l’enrichir – en étant déconnectés et/ou mobiles. De retour
dans l’entreprise, les données présentes dans SharePoint
Workspace 2010 peuvent être synchronisées pour mettre à
jour le référentiel. Les contrôles de cohérence ou de validation
(« versionning », « workflow », métadonnées) sont gérés au
moment de la synchronisation.
• L’approche décentralisée, illustrée par SharePoint Workspace 2010, se voit complétée par une meilleure intégration
avec SharePoint 2010. Ainsi les espaces de collaboration
distribuée présents dans Groove 2007 persistent et offrent
toujours cette réelle facilité de collaboration en mode 100%
distribué. Ils s’agrémentent toutefois dans cette nouvelle version
d’une capacité accrue de collecte et de remontée d’informations
vers SharePoint 2010. Il devient ainsi aisé d’alimenter une
équipe avec des données issues du SI centralisé, de travailler
en mode décentralisé sur ces données, puis éventuellement
de les remettre à jour en fin de cycle de travail.
• L’approche décentralisée va également permettre à des
individus provenant d’organisations différentes de collaborer
efficacement entre eux. Ils pourront éventuellement collecter
de l’information utile au sein de leur système d’information
respectif, puis la mettre en commun au sein d’une solution
décentralisée. Cette approche prend toute sa pertinence dans
le cadre des projets en consortium (pôles de compétitivité,
consortiums pétroliers, projets européens) ou dans le cadre
de fusions-acquisitions.
Office 2010 confirme l’approche hybride de Microsoft
Le contenu exact d’Office 2010 n’est pas encore totalement
dévoilé. Certains éléments seront clarifiés lors de la SharePoint
Conférence de Las Vegas en octobre prochain mais parmi
les tendances lourdes déjà rendues publiques, on note la
volonté de Microsoft de faciliter l’accès à l’information en
toutes circonstances. Ainsi, si on se focalise sur la composante
collaborative illustrée notamment par SharePoint et Groove
(renommé SharePoint Workspace pour cette version 2010), on
notera un rapprochement important entre les deux outils : les
approches centralisées et décentralisées fusionnent…
• L’approche centralisée illustrée par SharePoint 2010 se
voit complétée par SharePoint Workspace 2010, qui lui offre
au travers des espaces « SharePoint Workspace » un support
pour le mode déconnecté (donc temporairement décentralisé).
Les utilisateurs ont ainsi la possibilité de collecter l’information
utile dans SharePoint et de l’exploiter – la lire, la modifier,
16
IT-expert n°81 - septembre/octobre 2009
Au regard des contraintes liées aux nouveaux usages dans
l’entreprise, mais également aux challenges de bonne gestion
du SI, on ne peut que noter les bénéfices apportés par cette
approche mixte !
L’évolution des méthodes de travail dans l’entreprise impacte
directement les systèmes en place. Qu’ils soient basés sur
une approche centralisée ou décentralisée, de manière isolée,
ils bénéficient d’avantages, mais également d’inconvénients.
Couplant les deux approches, ils permettent de répondre
à de nouveaux scénarii d’usage et constituent une solution
globale agile et efficace, alliant les exigences de gestion pour
l’entreprise et de bon usage pour les utilisateurs. Ce constat
motive aujourd’hui les éditeurs à proposer de nouvelles solutions.
Ces tendances préfigurent d’ailleurs les notions de « nuage
étendu » (Extended Cloud Computing) ou les « grilles du futur »
associant dynamiquement à la volée des données centralisées
avec des (bribes de) données sur le terrain… n
Jean-Michel DAVAULT (à droite) et Fabrice BARBIN (à gauche) sont les fondateurs de
la société HOMMES & PROCESS (http://www.hommesetprocess.com), spécialisée
dans le travail collaboratif sécurisé et distribué. Ils sont également Microsoft MVP
et fortement impliqués au sein des différentes communautés Microsoft.
Jean-Michel DAVAULT : http://www.linkedin.com/in/jeanmicheldavault
Fabrice BARBIN : http://www.linkedin.com/in/fbarbin
La maîtrise de l’empreinte CO2 des entreprises devient une urgence au regard des
contraintes réglementaires existantes ou prochainement annoncées mais surtout en raison
du montant de la facture énergétique inexorablement plus élevée.
Evidemment, l’informatique est concernée et ce pour deux raisons majeures : d’une part,
en tant que contributeur à la facture environnementale et d’autre part en tant que levier
d’une meilleure prise en compte du développement durable par les entreprises.
Idc vous donne rendez-vous mercredi 18 novembre 2009 (9h – 15h) à Paris
ConferenCe Idc Green :
Developpement Durable et
r e s p o n s a b i l i t e s o c i a l e D e l’ e n t r e p r i s e :
le role Determinant De l’it
Au programme :
▪ Comment s’organiser pour mettre en place des initiatives
Green ? Keynote du Syntec
▪ Politique de développement durable - Les nouvelles priorités
de l’entreprise : de l’intention à l’engagement concret
▪ Comment les départements informatiques peuvent-ils
procéder pour diminuer leur empreinte carbone ?
Plan Green IT, dépense énergétique des data center, bâtir
une infrastructure informatique propre et verte, gestion des
postes de travail, managed print services (MPS),
▪ Evolution du rôle de la DSI
▪ Contribution des NTIC à une organisation d’entreprise et
des modes de travail plus respectueux de l’environnement
▪ Les outils informatiques au service de l’optimisation des
processus métier qui doivent tous être repensés (R&D,
partenariats de production, conception, supply chain, …)
Avec le retour d’expérience de :
Philippe BALIN, chargé de mission, Sanofi-Aventis :
comment les TIc peuvent-elles servir la composante
sociale du développement durable ?
Conférence organisée par
en partenariat avec
Face à l’inévitable arrivée du développement durable en entreprise et dans les
collectivités, et face à des réglementations qui se durcissent,
Participez à la conférence Idc Green le 18 novembre 2009, à Paris
PROGRAMME dETAILLE ET INScRIPTION GRATUITE :
http://www.idc.com/france/events/green09
code invitation « ITX »
OU cONTAcTEZ EdITH TRIcHEUX : [email protected] - tel. : 01.56.26.26.91
Actualités
internationales
Oracle 11g R2 : consolidation et disponibilité
Atout majeur de cette version, les avancées de l’architecture « grid » permettraient de diviser par cinq le coût des serveurs
(acquisition, maintenance, administration, etc.). La gestion des matrices de serveurs dédiés est assurée par la technologie
maison RAC (Real Application Clusters) qui automatise l’intégration de machines dans le « grid ». Une centralisation qui
explique aussi les économies d’échelles, également pour
le personnel spécialisé. La nouvelle option RAC One Node
centralise aisément sur une même matrice les SGBD les moins
critiques de l’entreprise.
Autre tour de force notable, les mécanismes de compression
des données atteignant des taux de 2 à 4 contribuent également
à la réduction des coûts. En outre, Oracle Automatic Storage
Management prend aussi en charge des systèmes de fichiers
classiques en cluster, pour mutualiser les ressources de
stockage de toute l’entreprise. Et pour assurer un maximum
de disponibilité, Oracle Active Data Guard utilise les ressources
serveurs et de stockage pour une meilleure tolérance aux
pannes ou répartition de la charge.
Avec Oracle Database Machine, Oracle annonce que la « 11G R2 améliore ses performances jusqu’à un facteur 10 ! ».
Enfin, les fonctions d’auto-administration doubleraient la productivité des administrateurs Oracle par rapport aux versions
précédentes. L’éditeur met les bouchées doubles pour faire évoluer les SGBD installés de ses clients. Certains arguments
devraient effectivement faire mouche. n
Les opérateurs télécom français ne veulent pas d’un quatrième
Décidément, les opérateurs en place font tout leur possible pour barrer la route à un éventuel quatrième
opérateur, et à l’attribution d’une nouvelle licence 3G. Ils ont tous successivement menacé de porter plainte
devant la Commission Européenne : Orange début août, puis Martin Bouygues lors de la présentation
des résultats du groupe fin août, en enfin Vivendi/SFR début septembre. LE péril semble favoriser
l’union sacrée !
Motif ? Les fréquences seraient bradées. En octobre 2007, l’Arcep rejetait la candidature unique
de Free, et le gouvernement décidait de diviser la licence en trois lots de 5 MHz pour 240 millions
d’euros chacun, contre 619 millions d’euros pour l’ensemble. Les candidats doivent déposer
leur dossier de candidature avant le 30 octobre.
Sur un marché à maturité (de nombreux habitants sont abonnés, et il reste peu de place), l’arrivée
d’un quatrième larron est mal vécue. D’autant qu’il pourrait s’agir de Free qui réussit plutôt bien
en jouant la guerre des prix. SFR a beau argumenter que la guerre des prix est permanente, les soupçons de connivence
entre opérateurs sur les tarifs ne facilitent pas sa tâche. D’ailleurs, les tarifs du mobile en France sont selon l’OCDE parmi les
plus chers en Europe. Martin Bouygues avançait également les problèmes d’extension des réseaux face aux interdictions
d’installation d’antennes. Et il se montre sceptique sur la mutualisation ou la location de ses équipements.
Les opérateurs mettent aussi en avant le fort investissement nécessaire. En revanche, pas un mot sur leurs immenses
profits, qui amène même le gouvernement à penser régulièrement à une taxe sur ces énormes bénéfices… En attendant,
Iliad/Free pose sa candidature. n
18
IT-expert n°81 - septembre/octobre 2009
Actualités internationales
Windows 7 : des promesses et déjà du succès
Si le lancement de Vista a été réalisé dans la douleur
pour Microsoft (et ses utilisateurs : drivers, compatibilité,
lourdeurs…), l’éditeur semble bien décidé à tirer les leçons
de cette mésaventure pour faire de Windows 7 un succès
sans précédent. Et les opérations portent leurs fruits, puisque
le nouvel OS est déjà très populaire avant son lancement
officiel : téléchargements, programme de compatibilité...
sans compter les articles de presse.
Les entreprises abonnées à la Software Assurance peuvent
déjà accéder au système d’exploitation en téléchargement, et
le font selon Microsoft. Sinon, la date de lancement officielle
est fixée au 22 octobre. Il suffira aux acquéreurs d’un nouveau
PC d’ajouter quelques euros pour obtenir une licence Windows
7, quelle que soit l’édition concernée.
Pour les entreprises ne bénéficiant pas de téléchargements illimités aux anciennes versions, Microsoft propose
de revenir jusqu’à deux versions en arrière (soit Windows XP Pro ou Entreprise). Jusqu’à présent l’éditeur se
limitait à la version précédente. Attention, cela ne sera possible que jusqu’à la sortie du premier Service Pack,
en général 18 mois après. De toute façon, la licence Windows 7 est perpétuelle pour l’ordinateur concerné.
La gamme Windows 7 est limitée en nombre de versions :
• Windows 7 Starter équipe des netbooks,
• Windows 7 Familial Premium concerne les ordinateurs domestiques,
• Windows 7 Pro gagne plusieurs nouvelles fonctions dont : l’XP Mode (virtualisation d’applications XP), la
gestion de domaines réseau, la prise de contrôle à distance…
• Windows 7 Entreprise (pour les abonnés à la Software Assurance) ajoute Bitlocker-to-go (chiffrement de
disque et de clés USB), Direct Access (accès automatique sécurisé de type VPN au réseau distant), entre
autres.
Windows 7 Intégrale est la version Entreprise pour tous. n
Le « Virtual private cloud » by Amazon
Acteur incontournable du Cloud avec ses offres Amazon Web Services (AWS), le leader du e-commerce américain lance
« VPC » : une solution de cloud privé permettant de compléter en toute sécurité une infrastructure
réseau interne. L’éditeur de services en ligne répond ainsi aux craintes liées à la
sécurité des communications des services en mode cloud.
L’entreprise établit donc un pont sécurisé vers un espace sur Amazon pour
bâtir un réseau sans couture. Et les utilisateurs continuent à travailler avec
leurs applications sans aucune différence. Bien entendu, Amazon Web Services
permet à l’entreprise d’utiliser ses propres outils de sécurité et de pilotage. La connexion
permanente s’établit à travers un VPN. La tarification reste celle des offres Cloud, sans
qu’Amazon n’impose des contrats sur plusieurs mois, ni un montant minimal.
Autre nouveauté, AWS lance « Multi-Factor Authentication » ou MFA, son
service d’authentification renforcée. n
L’Europe enquête sur la fusion Oracle-Sun
Bien que les autorités américaines aient validé sans difficulté le rachat de Sun Microsystems par Oracle, la Commission
européenne réclame un temps de réflexion supplémentaire. En effet, elle souhaite vérifier si la fusion Oracle-MySQL
n’aboutirait pas à une situation privilégiée et anticoncurrentielle sur le marché des bases de données. C’est pourquoi elle a
lancé une enquête le 3 septembre afin de s’assurer du respect des règles de libre concurrence suite à rachat (7,4 milliards
de dollars, soit 5,6 milliards d’euros).
L’alliance du leader des bases de données propriétaires et du numéro un des SGDB open source inquiète Bruxelles, ainsi que
la position renforcée (mais bien moins dominante) sur le middleware applicatif. La Commission annonce la communication
de ses conclusions pour le 19 janvier 2010. Patience… En attendant, l’européen SAP doit être aux anges. n
IT-expert n°81 - septembre/octobre 2009
19
Apple lâche son Leopard des neiges
Le 28 août, Apple fait une rentrée remarquée en lançant la dernière version de
son système d’exploitation Mac OS X 10.5. Nom de code du Mac OS X Mac OS
X 10.6 : Snow Leopard.
Cette nouvelle mouture intègre le client Microsoft Exchange Server 2007 dans la
messagerie, le carnet d’adresses et l’agenda. Le Mac devient ainsi un poste de travail
d’entreprise plus « politiquement correct »… pour synchroniser ses informations
sur le réseau interne comme à distance. Néanmoins, Apple souffre du manque de
support ou de services aux entreprises. Nouveauté technologique intéressante,
Snow Leopard prend aussi en charge le mode 64 bits. Avec la fonction Grand
Central Dispatch (GCD), Snow Leopard tire pleinement profit de la puissance des
processeurs multicoeurs. Toujours côté performance, les développeurs apprécieront le support de l’OpenCL, qui les autorise
à s’appuyer sur les processeurs graphiques pour accélérer tous les types d’application. Parmi les autres améliorations, on
notera : un Finder optimisé, l’intégration d’Exposé dans le dock, Quicktime 10 relooké. Apple promet une installation plus
rapide de l’OS qui vérifie la compatibilité des applications et optimise l’espace disque. Apple toutes griffes dehors ?
Cette mise à jour est tarifée à 29 euros pour un poste, et 49 euros les cinq licences (pack familial). Une mise à niveau est
proposée pour 8,95 euros aux clients ayant acheté un Mac entre le 8 juin et le 26 décembre 2009. n
IBM sur le point de s’offrir SPSS
Après les rachats de Cognos (5 milliards de dollars
fin 2007) et du français Ilog, Big Blue annonce
son désir d’acquisition de la société SPSS, un
éditeur spécialiste de l’analyse prédictive, très
renommé dans le mode de la BI, du datamining et du marketing,
entre autres. Montant de l’offre : 1,2 milliard de dollars !
Les deux entreprises déjà partenaires ont une vision assez claire
des synergies possibles et de leur complémentarité. SPSS
rejoindrait la nouvelle division IBM Information Management aux
côtés de Cognos, Ilog et Infosphere pour incarner la stratégie
« Information-Led-Management » du géant de l’informatique.
En outre, les consultants d’IGS apporteront certainement une
expertise indispensable pour généraliser ces technologies de
dataming. Bref, les synergies ne fonctionnent pas uniquement
entre solutions logicielles.
Il faudra attendre le 2 octobre que la réunion des actionnaires ait
annoncé sa position. Avec une surprime de plus de 42 % du cours
la veille de l’annonce, un refus serait plus qu’étonnant. n
LogMeIn propose le réseau virtuel
aux petites entreprises
Spécialiste de la connexion des périphériques
distants via Internet (ordinateurs, smartphone,
points de vente, équipements médicaux…),
l’éditeur LogMeIn lance son offre Central pour
offrir aux petites entreprises une solution de « mise
en réseau sans réseau local ». En toute sécurité,
l’entreprise dispose ainsi d’un « réseau privé »
et sécurisé sur lequel connecter ses différents
ordinateurs (smartphones, etc.). Une solution qui
séduira sans doute les professionnels nomades
non informaticiens.
Pour 225 E par an, le client bénéficie du déploiement illimité du service gratuit d’accès distant
LogMeIn Free, de la connexion automatique et
sécurisée pour éviter d’avoir à ressaisir ses mots
de passe, et de la connectivité VPN instantanée
à la demande sans matériel additionnel. n
Microsoft et Yahoo! en prennent pour dix ans
Cette fois c’est fait ! Non, Microsoft n‘a pas encore racheté Yahoo ! Mais le partenariat engage les deux entreprises pendant
dix ans. Selon l’accord, Microsoft acquiert une licence exclusive sur les technologies de recherche Yahoo! et le droit de les
intégrer dans ses propres plateformes de recherche. Par ailleurs, Bing devient le seul algorithme de recherche et la seule
plate-forme de gestion des paiements liés à la recherche sur les sites Yahoo!. En outre, la publicité des sites de recherches
des deux acteurs sera gérée par la plateforme AdCenter de Microsoft. Et Yahoo maintient ses activités d’affichage publicitaire
et conserve ses équipes commerciales. Le partage des revenus a été arrêté en commun, et Microsoft garantit un chiffre
d’affaires sur les sites concernés de chaque pays, dans les 18 mois suivant l’implémentation technique. Tous les pays
devraient être déployés 24 mois après la signature de l’accord, soit août 2010.
Yahoo! évalue le bénéfice annuel de l’opération à 500 millions de dollars, auxquels s’ajoutent 200 millions de dollars de
réduction sur les investissements, pour une augmentation du cash-flow de 275 millions de dollars. Pourtant, quelques
heures après l’annonce, la bourse -que ces chiffres ne semblent pas avoir convaincus- sanctionnait Yahoo! Cet accord
suffira-t-il à faire décoller Bing, et à venir chatouiller l’omnipotent Google ? n
20
IT-expert n°81 - septembre/octobre 2009
Actualités internationales
Microsoft Office 2010 pour le printemps prochain
Début septembre, Microsoft France a inauguré ses nouveaux
locaux à Issy-les-Moulineaux, et évoqué à plusieurs reprises
la prochaine version d’Office qui devrait arriver au printemps
2010. Sur un PC, un smartphone, un netbook, en ligne…
Office 2010 veut rendre les documents bureautiques
accessibles à tous et sur un maximum de terminaux. Et
lorsqu’il s’agit d’Office Web Apps, l’accès sera non seulement
en consultation, mais aussi en mode édition (modification,
mise à jour…). Mieux encore, Office devient même accessible
depuis Mac, Linux, Unix, etc. depuis un navigateur Internet
Safari ou Firefox. De plus, Microsoft a également signé un
accord avec Nokia pour assurer la compatibilité de sa suite
bureautique avec le système d’exploitation Symbian.
La collaboration a été renforcée au cœur de la gamme Office 2010, et les utilisateurs peuvent travailler ensemble sur les
documents en temps réel, non seulement à partir des versions logicielles, mais aussi en ligne.
Le ruban de menus est étendu à Outlook et à SharePoint. PowerPoint s’enrichit de fonctions vidéo avancées avec l’enregistrement
des présentations aux formats vidéo. Autre nouveauté. Et une traduction multilingue (mot et phrases) devient possible via
Internet depuis les logiciels sur simple survol avec la souris.
Le nombre de packs Office passe de huit à cinq.
Deux versions Entreprise :
• Office standard avec Word, Excel, PowerPoint, Outlook, Publisher,
OneNote et Office Web Apps
• Office Pro Plus avec en supplément Access, InfoPath, Communicator
et SharePoint.
Et trois versions grand public :
• Office Pro (sans les clients de serveurs Microsoft),
• Office Home & Business (Office pro sans Access ni Publisher),
• Office Home & Student (la version ci-dessus sans Outlook).
Les tarifs n’ont pas été arrêtés. n
Création du CISQ : Consortium pour la Qualité Logicielle
Difficile de contrôler la qualité structurelle des applications et d’évaluer les risques inhérents à des développements
de mauvaise qualité. Un problème complexe auquel tentent de répondre deux organismes internationaux spécialisés
dans le génie logiciel.
Le Software Engineering Institute (SEI) et l’Object Management Group (OMG) ont annoncé mi-août un partenariat
pour créer et animer le Consortium pour la Qualité Logicielle des Systèmes d’Information ou CISQ (Consortium of
IT Software Quality). Cette initiative vise à définir un standard mondial permettant l’évaluation précise et objective
de la qualité, de la complexité et de la taille des applications, suffisamment détaillé pour pouvoir automatiser ces
mesures. Objectif ambitieux ! Toutefois, ces deux organismes ont à leur actif la création de standards comme CMMI,
Corba ou encore UML.
Le CISQ s’est fixé cinq objectifs prioritaires :
1 - Sensibiliser les autorités, les entreprises et le marché à l’importance de la qualité interne (non fonctionnelle) des
logiciels
2 - Développer un standard pour permettre aux organisations IT d’évaluer objectivement la qualité de leurs
applications
3 - Proposer une méthodologie basée sur les indicateurs qualité pour négocier l’acquisition et la maintenance des
logiciels
4 - Développer et promouvoir un programme de certifications
5 - Ouvrir un forum en ligne pour répondre aux demandes liées à la qualité des applications.
Le CISQ est dirigé par le Dr Bill Curtis, co-auteur du CMM, autorité en qualité logicielle, et actuel Directeur Scientifique
de l’éditeur de logiciel français CAST. n
IT-expert n°81 - septembre/octobre 2009
21
Les véritables
enjeux économiques
de la qualité interne
des applications
22
IT-expert n°81 - septembre/octobre 2009
Quoi de neuf Docteur ?
Alors que la plupart des entreprises sont en mesure de quantifier les coûts des interruptions de service
de leurs applications, elles peinent à élaborer des dossiers pour justifier les investissements en qualité
logicielle à réaliser pour prévenir ces défaillances. Les bugs en production sont rarement imputables
à une mauvaise définition des besoins fonctionnels et sont trop souvent dus à des défauts techniques
(non-fonctionnels) qui résultent d’une mauvaise conception ou d’un mauvais codage n’apparaissant
clairement qu’après la mise en production.
Un risque majeur insidieux et onéreux…
La mauvaise qualité des applications est la cause de nombreux problèmes critiques qui mettent
en danger le revenu : pannes des systèmes stratégiques, données corrompues, failles de sécurité,
non-conformité avec la réglementation, etc. Ces problèmes échappent généralement à la détection
lors de la phase de tests. De ce fait, les problèmes de performance métier dus à une qualité interne des
applications insuffisante réduisent de façon conséquente la valeur économique générée par l’entreprise
et augmente les dépenses IT durant toute la vie d’une application.
… transformable en opportunité
Cinq domaines critiques en termes d’impact sur le revenu ont été identifiés pour évaluer la qualité interne
d’une application. L’amélioration de ces « facteurs de santé » impacte directement l’augmentation de la
productivité métier, l’accélération de mise sur le marché, l’amélioration de la satisfaction utilisateurs et
la réduction des dépenses IT. C’est une situation gagnant-gagnant : des bénéfices métier conséquents
tout en réduisant les dépenses IT.
En mesurant et en contrôlant les facteurs de santé dès le début du cycle de vie de l’application,
l’entreprise garantit aux divisions métier une livraison de qualité. En outre, les problèmes de qualité des
applications sont découverts avant qu’ils ne se transforment en incidents majeurs lors du déploiement.
Et les causes de ces défauts sont identifiées et peuvent être supprimées une bonne fois pour toutes,
évitant toute interruption importante de l’activité et la frustration des clients. Une baisse de 10% de la
performance des applications peut rapidement se transformer en une perte de productivité d’un demimillion d’euros en un trimestre. Si des améliorations de la qualité interne génèrent une réduction du
rework de 25 % par an et permettent aux équipes de maintenance de réduire de 60 % le temps passé
à déchiffrer le code, cela permet d’affecter les 75 000 E économisés par application à la création de
nouvelles fonctionnalités.
Des méthodes concrètes existent pour calculer les coûts métier et informatiques inhérents à une
baisse de la qualité des applications. En mesurant et en améliorant de façon proactive les facteurs de
santé, les équipes informatiques peuvent améliorer notablement la qualité et la valeur business d’une
application, tout en réduisant les coûts. Lorsque des pertes dues à une faible qualité des applications
ne sont évaluées qu’en regard des coûts de développement ou de maintenance, leur impact demeure
invisible. Toutefois, lorsqu’elles sont évaluées par rapport aux coûts et aux pertes d’opportunités
« business », investir dans la qualité des applications devient une évidence.
Pourquoi se pencher sur la qualité interne d’une application métier ?
Les activités en ligne prenant une part de plus en plus importante dans l’activité des entreprises, les
préoccupations sur la qualité des applications métier sont passées du service informatique au comité
de direction. Les indisponibilités d’un site d’e-commerce se mesurent en ventes perdues. L’échec de
l’enregistrement d’un client peut être mesuré en termes de défection de client. Des données financières
corrompues représentent autant de frais de retraitement. Ces trois incidents se mesurent également
en détérioration de l’image de l’entreprise.
Les problèmes le plus souvent à l’origine de ces catastrophes ne sont pas des défauts de logique
fonctionnelle (« ce que l’application est supposée faire »). Ces problèmes sont généralement provoqués
par les défauts non fonctionnels causés par une mauvaise conception ou une mauvaise programmation
(« la façon dont l’application le fait »).
IT-expert n°81 - septembre/octobre 2009
23
La plupart des défauts fonctionnels sont détectés pendant la phase de tests. Les défauts non fonctionnels
sont souvent invisibles jusqu’à ce qu’ils soient révélés au cours d’opérations courantes et entraînent
des incidents critiques. Comme Diomidis Spinellis le précise dans son ouvrage récent, Code Quality,
« manquer de satisfaire à une exigence non fonctionnelle peut être critique, voire catastrophique… les
exigences non fonctionnelles sont parfois difficiles à vérifier. Nous ne pouvons pas créer un test pour
vérifier la fiabilité du système ».
Alors que la plupart des entreprises sont en mesure de quantifier les coûts des pannes de leurs
applications, elles peinent à élaborer des dossiers pour justifier les investissements en qualité logicielle
à réaliser pour empêcher ces défaillances.
Cet article expose une méthode permettant d’estimer et de mesurer les conséquences des améliorations
de la qualité sur la valeur métier. Estimer les bénéfices qu’une organisation réalisera en améliorant la
qualité interne d’une application nécessite une connaissance approfondie du métier que l’application
supporte.
Cinq facteurs de santé mesurables
La qualité interne d’une application correspond, entre autres, à la robustesse de son architecture et au
fait que sa conception suive les bonnes pratiques de programmation. La qualité interne d’une application
n’est pas mesurée au moyen de tests conçus pour vérifier la justesse fonctionnelle d’une application.
Au contraire, l’évaluation de la qualité interne concerne les caractéristiques non fonctionnelles d’une
application - la structure interne et l’ingénierie du code.
Cinq domaines critiques en termes d’impact sur le revenu ont été identifiés pour évaluer la qualité interne
d’une application. Ces cinq points, ou « facteurs de santé » sont comparables, mais pas identiques,
aux mesures qualitatives d’un logiciel définies dans la norme ISO 9126. Chacun de ces cinq facteurs
peut être évalué en mesurant de nombreuses caractéristiques du logiciel et en agrégeant les résultats
dans un facteur de santé récapitulatif pour ce point (cf. figure 1). Ces facteurs de santé résument la
qualité interne d’un logiciel à un niveau pouvant être lié aux résultats et à la valeur métier.
Facteurs de santé
Description
Exemples de bénéfices pour les métiers
Transférabilité
Caractéristiques permettant à de nouvelles équipes ou à de
• R éduit l’inefficacité due au transfert entre les équipes
nouveaux employés de comprendre et de travailler rapidement • R éduit les courbes d’apprentissage
Évolutivité
Robustesse
sur une application
• R éduit la dépendance envers les prestataires
Caractéristiques permettant de modifier plus simplement
• Améliore l’agilité métier en répondant au marché ou aux clients
et plus rapidement une application
• R éduit le coût de possession en réduisant l’effort de modification
Caractéristiques affectant la stabilité d’une application
• Améliore la disponibilité des services métier
et la probabilité d’introduire des défauts en la modifiant
• R éduit le risque de pertes dû à un dysfonctionnement opérationnel
• R éduit le coût de possession d’une application en réduisant le rework
Performance
Caractéristiques affectant la performance d’une application
• R éduit le risque de perdre des clients à cause d’un service de faible qualité
ou de mauvais temps de réponse
• Améliore la productivité des utilisateurs de l’application
• Augmente la rapidité de prise de décisions et de transmission d’informations
• Améliore la capacité d’adapter une application à la croissance d’une entreprise
Sécurité
Caractéristiques affectant la capacité d’une application
• Améliore la protection des informations sensibles
à prévenir toute intrusion non autorisée
• Réduit le risque de perte de confiance des clients ou de dommages financiers
• Augmente la conformité réglementaire en matière de sécurité
Figure 1 - Les facteurs de santé et leurs avantages métier
24
IT-expert n°81 - septembre/octobre 2009
Quoi de neuf Docteur ?
Comment ces facteurs affectent-ils la valeur métier ?
Les coûts de la mauvaise qualité interne d’une application peuvent être évalués par rapport à cinq
objectifs business :
• Réduire les risques
• Augmenter l’agilité
• Améliorer la productivité
• Optimiser la contribution de l’informatique aux métiers
• Améliorer l’expérience client
La qualité interne des applications métier est cruciale pour obtenir de bons résultats informatiques.
Ces résultats, à leur tour, affectent un grand nombre de résultats métier indispensables pour réaliser
les objectifs business. Cette chaîne de création de valeur entre les facteurs de santé et les objectifs
business est représentée de droite à gauche sur l’illustration (figure 2). Ces relations sont multiples
puisque les facteurs de santé et les objectifs informatiques interagissent de plusieurs façons avec les
résultats et les objectifs business.
Objectifs
business
Minimiser
les risques
Augmenter
l’agilité
Augmenter
la productivité
Optimiser
la contribution
de l’IT
Résultats
métier
Maximiser la disponibilité métier
Minimiser la dégradation du service
Minimiser la perte de revenu
Minimiser les pénalités
Minimiser les coûts des clients
Minimiser la reconstruction de données
Minimiser les pannes involontaires
Maximiser la protection des informations
Maximiser la confiance des clients
Maximiser la fidélité client
Maximiser la conformité réglementaire
Accélérer les mises sur le marché
Améliorer le temps de réponse aux clients
Permettre la personnalisation de masse
Soutenir la croissance de l’activité
Accélérer la réactivité
Accélérer la récupération des informations
Augmenter les nouvelles fonctionnalités
Augmenter la disponibilité des ressources
Réduire le coût de possession
Réduire les coûts opérationnels
Réduire la dépendance au fournisseur
Objectifs
de l’IT
Réduire les défauts existants
Réduire les nouveaux défauts
Facteurs
de santé
Robustesse
Améliorer la stabilité
Garantir l’intégrité architecturale
Sécurité
Réduire les défauts de sécurité
Garantir la conformité avec
les règles de programmation
Améliorer la performance
Performance
Réduire la complexité du code
Optimiser l’évolutivité
Évolutivité
Réduire les efforts de modification
Réduire le rework
Améliorer la lisibilité du code
Transférabilité
Réduire les courbes d’apprentissage
Faciliter le transfert entre équipes
Figure 2. Relations entre les facteurs de santé et les objectifs business
La qualité d’une application peut être évaluée par rapport à un ensemble d’objectifs plus spécifiques
qui découlent de chaque objectif business. Exemples de risques business :
• pannes des systèmes critiques,
• données corrompues,
• violations de la sécurité
• non-conformités avec la réglementation
Chacun de ces objectifs plus spécifiques peut avoir un ensemble unique de résultats qui l’affecte. Les
résultats informatiques varient en fonction des résultats spécifiques qu’ils impactent le plus. La figure 3
présente une analyse détaillée de la façon dont ces facteurs de santé affectent les quatre sous-objectifs
qui composent la de réduction des risques.
IT-expert n°81 - septembre/octobre 2009
25
Ce schéma montre bien que la qualité interne d’une application impacte directement les résultats
business et la réalisation de ses objectifs. Même sans créer un modèle quantitatif des relations dans
ce schéma, il est possible d’utiliser des équations simples illustrant la manière dont la qualité d’une
application peut affecter la valeur économique dérivée d’une application.
Objectifs
business
Minimiser
les risques
Interruptions
de service
Données
corrompues
Violations de
la sécurité
Résultats
métier
Maximiser la disponibilité métier
Minimiser la dégradation du service
Minimiser la perte de revenu
Minimiser les pénalités
Minimiser les coûts des clients
Minimiser la reconstruction de données
Minimiser les pannes involontaires
Maximiser la protection des informations
Maximiser la confiance des clients
Maximiser la fidélité client
Maximiser la conformité réglementaire
Non-conformités
réglementaires
Objectifs
de l’IT
Réduire les défauts existants
Réduire les nouveaux défauts
Facteurs
de santé
Robustesse
Améliorer la stabilité
Garantir l’intégrité architecturale
Réduire les défauts de sécurité
Garantir la conformité avec
les règles de programmation
Améliorer la performance
Optimiser l’évolutivité
Sécurité
Performance
Évolutivité
Figure 3. Relation entre les facteurs de santé et les sous-objectifs de réduction du risque
Les équations exposées ci-dessous démontrent comment utiliser ces relations pour exprimer la valeur
économique de la qualité interne des applications. Ces équations ne sont pas présentées sous forme
de véritables analyses ROI puisqu’elles n’incluent pas le coût de l’argent, les périodes de recouvrement
des investissements et d’autres éléments des modèles ROI classiques. Elles représentent les pertes
liées à chaque objectif business, et illustrent comment la mauvaise qualité interne des applications se
traduit en une perte de revenu et en une augmentation des coûts.
Réduire les risques métier
Les risques sont souvent la façon la plus simple de quantifier les avantages qualitatifs. Le coût de la
non-qualité peut être exprimé en termes de perte de revenus, actuel ou futur, de coût de sous-utilisation
des employés, de pénalités et d’autres coûts basés sur des données métier historiques. Différents
types de risques entraînent différents types de pertes.
Les pannes qui mettent fin aux transactions commerciales
Considérons une évaluation simplifiée de la perte due à l’interruption de service d’une application commerciale
telle qu’un système de réservation ou de commande client. Les coûts engendrés impliquent une perte
de revenu, un effort de l’entreprise pour récupérer et réactiver les transactions, une saturation du service
Clients et les coûts associés pour gérer les relations clients, des pénalités et d’autres coûts dépendant du
secteur d’activité. Bien que l’ensemble de ces coûts ne survienne pas à chaque panne, ils doivent être pris
en considération pour s’assurer qu’ils ne restent pas dissimulés dans les activités courantes.
Perte = ((revenu moyen par minute) x (nombre de minutes d’indisponibilité)) +
coûts pour réactiver l’activité +
((minutes supplémentaires de service client) x (E par minute) +
future perte de revenu due à la défection des clients +
pénalités, le cas échéant +
autres coûts liés)
Données corrompues
Les coûts liés aux données corrompues comprennent la recréation de données exactes, le redéveloppement
ou la correction de rapports incorrects et toutes les pénalités résultant de l’utilisation ou du reporting
de données inexactes. Le coût de la corruption de données est déterminé par le temps écoulé avant
que les données incorrectes ne soient détectées puisque, dans de nombreux cas, cela augmente le
travail de correction. Le business supporte la plupart des frais engendrés par la corruption de données,
soit en ayant à corriger les données, soit en subissant des interruptions d’activité pendant que l’IT
restaure les données correctes.
26
IT-expert n°81 - septembre/octobre 2009
Quoi de neuf Docteur ?
Perte = coût de la reconstruction des données +
coût de la recréation de rapports corrects +
pénalités dues à des données incorrectes +
autres coûts
Violation de la sécurité
Les défauts dans l’architecture d’une application ou dans le code créent souvent des vulnérabilités
que les hackers et les cybercriminels exploitent pour pénétrer dans le système. Ces coûts peuvent
inclure ceux liés au vol d’informations sur l’entreprise ou sur les clients, à la réparation des dommages
malveillants, à l’information des clients sur d’éventuelles données compromises, aux améliorations
de la sécurité des systèmes et des processus métiers, aux pénalités et aux futures pertes de revenu
dues à la défection des clients. Bien que lourds, les coûts identifiables des problèmes de sécurité sont
souvent moins importants que la perte de revenu due aux clients qui n’utilisent plus les applications
ou qui se tournent vers la concurrence qui offre, selon eux, une meilleure sécurité.
Perte = coût des ressources volées +
coût de la correction des données, des rapports ou des comptes +
coût de l’information aux clients +
coût de l’amélioration de la sécurité +
futures pertes de revenu dues à la défection des clients +
pénalités, le cas échéant
Non-conformité avec la réglementation
La faiblesse du code d’une application peut placer l’entreprise en non-conformité avec les normes de
l’industrie ou les réglementations légales. Alors que la non-conformité peut engendrer des pénalités
financières, le non-respect des réglementations telles que Sarbanes-Oxley peut avoir des répercussions
pénales.
Perte = coût des pénalités pour non-conformité +
coût de la mise en conformité du système
Maximiser l’expérience client
De plus en plus de transactions étant réalisées en ligne, les applications métier deviennent la vitrine de
l’entreprise. L’expérience du client avec la société se transforme en expérience de la facilité d’utilisation et
de la performance des applications. Les interfaces utilisateurs confuses, les sites internet labyrinthiques et
les temps de réponse incroyablement lents frustrent les clients. Au minimum, ces problèmes réduisent le
nombre de transactions des clients, dans le pire des cas, ces derniers se tournent vers la concurrence.
Outre le problème de fidélisation, des clients non-autonomes engendrent davantage de frais par
transaction, car ils appellent le support client pour réaliser des achats qu’ils auraient pu effectuer seuls
en ligne. Plus l’interface est confuse et plus le nombre d’employés dédiés à l’assistance à la vente
doit être important. Par exemple, lorsque le temps de réponse du système est lent, les clients cliquent
souvent sur des boutons qui peuvent être interprétés comme des commandes en attendant les pages
à afficher. Ces entrées incorrectes nécessitent du personnel pour corriger et réinitialiser un compte
client. La facilité d’utilisation et la réactivité contribuent à l’augmentation du revenu et à la réduction
des coûts du service clientèle.
IT-expert n°81 - septembre/octobre 2009
27
Perte = future perte de revenu due à la défection des clients +
future perte de revenu due à la diminution des transactions des clients fidèles +
coût des transactions réalisées au niveau du service clientèle et non en ligne +
coût des appels au service clientèle liés à des difficultés d’utilisation en ligne.
Augmenter l’agilité métier
Les technologies de communication modernes (réseaux cellulaires, Internet, etc.) ont accéléré le
rythme de l’économie. La concurrence a ainsi réduit le temps de réaction face aux demandes des
clients et aux évolutions du marché. L’agilité d’une entreprise à répondre rapidement à ces besoins
dépend strictement de la qualité technique de ses applications. Plus l’architecture ou le code d’une
application est complexe sans raison, plus il est long d’ajouter ou de modifier une fonctionnalité, de
vérifier sa conformité, et de la livrer. Pire, une complexité inutile induit plus d’erreurs et de rework qui
allongent les temps de développement et de livraison des nouvelles fonctionnalités au métier.
Perte = perte de revenu liée à une offre tardive par rapport à l’intention d’achat du client +
perte de revenu due à des concurrents plus rapides +
future perte de revenu due à la défection de clients +
perte de profit due à l’affaiblissement du bénéfice du premier entrant +
diminution de l’économie d’échelle due à la perte de parts de marché
L’impact de la qualité interne d’une application sur l’agilité métier est exprimé en termes de coût
d’opportunités perdues. Cela représente la perte de revenu ou de parts de marché subie lorsque les
concurrents sont en mesure de répondre plus rapidement ou lorsque la réponse arrive trop tard par
rapport aux intentions d’achat du client. Même si l’importance de l’agilité ne remet pas en cause la
viabilité et la croissance à long terme d’une entreprise. Car améliorer l’agilité et réduire le risque business
engendre surtout des bénéfices immédiats. Des améliorations de l’agilité métier affectent quand même
l’aptitude d’une société à exécuter sa stratégie et à optimiser ses résultats à long terme.
Améliorer la productivité métier
L’une des principales raisons d’être des applications étant d’améliorer la productivité métier, les défauts
provoquant des pannes ou une dégradation de la performance privent l’organisation des bénéfices de
ses investissements, à la fois dans le développement de ces applications et dans la main d’œuvre qui
les utilise. Les pertes entraînées par des pannes ont été couvertes dans la section « risques métier ».
On ne traitera ici que l’impact de la productivité sur les employés et sur la génération de revenu. Les
coûts d’une perte de productivité sont généralement calculés en termes d’heures supplémentaires
pour terminer le travail ou de pertes d’opportunités pour la génération de revenu. Même si les heures
supplémentaires n’ont pas été rémunérées, l’impact sur le moral du personnel est susceptible de réduire
encore davantage la productivité ou de provoquer des départs volontaires. En outre, une réduction de
la productivité engendre des retards dans la réalisation des tâches, qui implique d’autres coûts tels
que des pénalités de retard.
Perte = [(1 – (production réduite en raison d’une mauvaise performance ÷
production moyenne pour une performance normale))
x nombre d’employés concernés
x coût horaire moyen
x nombre d’heures de mauvaise performance] +
[(1 – (baisse des revenus due à une diminution de la performance ÷
revenu moyen pour une performance normale))
x performance
x revenu moyen de l’heure] +
coûts du travail retardé
28
IT-expert n°81 - septembre/octobre 2009
Quoi de neuf Docteur ?
Augmenter l’impact de l’IT
Dans les grandes entreprises, l’informatique représente un pourcentage fixe du budget global, généralement de 4 à 4,5 %. Les économies réalisées représentent donc des investissements supplémentaires,
plutôt qu’un retour de fonds. La proposition de valeur devient alors « Comment obtenir davantage de
fonctionnalités métier pour notre investissement fixe ? » .
Généralement, environ la moitié du budget informatique est consacré au développement et à la
maintenance des applications. La qualité interne des applications métier contrôle étonnamment
une grande partie de ces coûts et dicte le volume des ressources à affecter au développement des
applications. Par exemple : chaque heure passée à régler des problèmes de qualité est une opportunité
perdue de fournir de la valeur supplémentaire. De même, des études ont prouvé que 50 % des travaux
de maintenance sont consacrés à comprendre le code plutôt qu’à enrichir l’application. Réduire la
complexité du code peut réduire le temps nécessaire à sa compréhension, et permettre de consacrer
plus de temps au développement de fonctionnalités très utiles.
Perte = ((pourcentage annuel de temps passé sur le rework)
x (coût moyen charges comprises d’un développeur) x (nombre de développeurs)) +
((pourcentage annuel de temps passé à modifier ou à améliorer le code existant)
x (0,5 soit le temps passé à comprendre))
x (coût moyen charges comprises d’un développeur) x (nombre de développeurs))
Un exemple de perte de valeur directement liée à une faible qualité interne
En utilisant la formule relative aux pannes des applications qui interrompent les transactions, considérons
les coûts pour 1 heure de panne d’une application qui rapporte 120 E à la minute (7 200 E de l’heure).
Outre la perte de revenu, l’entreprise dépensera 1 000 E en heures de travail pour vérifier, corriger ou
régénérer des transactions partiellement réalisées, et pour vérifier que le système fonctionne correctement
une fois l’application remise en ligne. Le service clientèle a subi 250 minutes supplémentaires d’appels à
2 E la minute. Des analyses de Business intelligence ont démontré que 20 clients n’ont plus pris contact
avec la société après la panne, le revenu généré par ces clients étant de 150 E par an. Heureusement,
cette panne n’a engendré aucune pénalité. Le coût total de cette panne est estimé à :
Perte = ((60 minutes) x (120 E la minute)) + 1 000 E de frais de réactivation +
500 E de frais de service clientèle + 3 000 E de pertes de revenu clients cette année
Perte = 11 700 E
Si la société subit une panne d’une heure de cette application une fois par trimestre, la perte annuelle
totale sera de 46 800 E, les coûts IT pour réparer la cause de la panne et retester l’application n’étant
pas inclus. Ces coûts IT seront considérés comme du rework dans un prochain calcul, car ils réduisent
l’aptitude de l’IT à contribuer au business.
Considérons ensuite qu’outre des pannes, la performance de l’application diminue de 10 % en raison
de mauvaises procédures d’accès à la base de données qui réduisent sa capacité à traiter un nombre
croissant de transactions. Considérons également que cette application occupe 100 employés à 25 E
de l’heure. Cette perte de productivité est calculée à la fois comme une perte de revenu et comme une
perte de valeur salariale. Le coût par trimestre de ces problèmes de qualité interne de l’application
est estimé à :
Perte = ((0,1 soit le pourcentage de baisse de productivité) x (100 employés) x (25 E de l’heure)
x (500 heures par trimestre)) +
((0.1 soit le pourcentage de baisse de productivité) x (7 200 E de l’heure)
x (500 heures par trimestre))
Perte = 485 000 E par trimestre
IT-expert n°81 - septembre/octobre 2009
29
Ce chiffre peut être réduit par des heures supplémentaires non rémunérées pour terminer le travail.
Néanmoins, une faible qualité interne prive l’organisation d’une partie conséquente du retour sur
investissement attendu (logiciel et humain).
Enfin, considérons le coût de l’amélioration et de la maintenance de cette application. Si l’on considère
que 5 développeurs travaillent à plein temps sur cette application pour un coût annuel charges comprises
de 100 000 E chacun. Ils passent environ 35 % de leur temps à supprimer les défauts et 50 % de leur
temps à maintenir et à améliorer le code existant. La non-contribution de l’informatique à l’activité de
l’entreprise est estimée à :
Perte = ((0,35 soit le pourcentage de temps passé sur le rework) x (100 000 E de coûts salariaux)
x (5 développeurs)) +
(((0,5 soit le pourcentage de temps passé à modifier le code) x (0,5 soit le pourcentage de la
maintenance passé à comprendre le code)) x (100 000 E de coûts salariaux))
x (5 développeurs))
Perte = 300 000 E
La perte due aux risques de pannes, la perte de productivité métier et la perte de contribution de l’IT
attribuée à la mauvaise qualité structurelle des applications est ainsi très élevée. Proportionnellement
à l’importance de ces pertes, les améliorations de la qualité des applications offrent des avantages
conséquents. Lorsque des pertes dues à une faible qualité des applications ne sont évaluées que par
rapport aux coûts de développement ou de maintenance, l’impact des pertes est invisible. Toutefois,
lorsqu’elles sont évaluées par rapport aux dépenses et aux pertes d’opportunités commerciales, un
dossier d’investissement irréfutable peut être élaboré pour la qualité applicative.
L’amélioration de la qualité interne des applications :
indiscutablement une valeur sûre
Améliorer la qualité des applications comprend deux éléments ; la qualité externe fonctionnelle et la
qualité interne non fonctionnelle. La plupart des détections de défauts et des initiatives qualité intégrées
dans les processus standards de développement et de maintenance sont axées sur la qualité externe
ou fonctionnelle. Il s’agit des défauts correspondant aux écarts par rapport au cahier des charges. Les
avancées en termes de tests, d’évaluation par les pairs, et des processus et technologies de gestion
des exigences ont amélioré les capacités des équipes de développement à détecter et à supprimer la
majorité de ces défauts avant de mettre l’application en production.
Puisque les défauts internes non fonctionnels sont plus difficiles à détecter, car ils sont dissimulés
dans l’architecture et dans la structure de l’application, ils sont souvent la cause de pannes, d’une
diminution de la performance, de failles de sécurité, de données corrompues et de problèmes divers.
Ces problèmes de qualité peuvent aller de mauvaises techniques de programmation aux architectures
complexifiées sans raison, en passant par les violations des normes de codage. En détectant ces
problèmes internes de qualité et en les corrigeant par ordre de priorité, les développeurs d’application
peuvent augmenter de façon conséquente la valeur d’une application pour le métier.
Si l’on revient sur notre exemple décrit précédemment, corriger un défaut qui aurait provoqué une
panne d’1 heure permettra à l’entreprise d’économiser 11 700 E par panne, et davantage si la panne
avait duré plus d’une heure. Considérons maintenant l’impact sur la productivité de la suppression
des problèmes de qualité interne ; la dégradation de la performance de 10 % tombe à seulement 7 %
de sa capacité d’origine. Cet impact permettra à l’entreprise d’économiser 145 500 E par trimestre,
par rapport à la perte originelle de 485 000 E.
Perte = ((0,07 soit le pourcentage de baisse de productivité) x (100 employés) x (25 E de l’heure)
x (500 heures par trimestre)) +
((0,07 soit le pourcentage de baisse de productivité) x (7 200 E de revenu de l’heure)
x (500 heures par trimestre))
Perte = 339 500 E par trimestre
30
IT-expert n°81 - septembre/octobre 2009
Quoi de neuf Docteur ?
Les améliorations de la qualité interne peuvent avoir deux types de conséquences sur la contribution de
l’IT au business. Si les améliorations de la qualité interne de cette application réduisaient le pourcentage
de rework de 25 % par an, l’équipe pourrait contribuer à hauteur de 50 000 E supplémentaires à la
production de nouvelles fonctionnalités métier. De même, si les améliorations de la qualité interne
réduisaient sa complexité et si les développeurs pouvaient ne passer que 40% de leur temps de
développement à comprendre le code, ils pourraient contribuer à hauteur de 25 000 E supplémentaires
à la production de nouvelles fonctionnalités métier. Comme il est démontré ci-dessous, le montant de
la non-contribution de l’informatique au business est passé à 225 000 E grâce aux améliorations de la
qualité interne, dégageant ainsi 75 000 E pour ajouter de la valeur à l’activité.
Perte = (0,25 soit le pourcentage de temps passé sur le rework) x (100 000 E de coûts salariaux)
x (5 développeurs)) +
(((0,5 soit le pourcentage de temps passé à modifier le code) x 0,4 pourcentage de
la maintenance passé à comprendre le code) x (100 000 E de coûts salariaux)
x (5 développeurs))
Perte = 225 000 E
En comparaison avec les coûts de licence, d’installation, de formation et d’utilisation des outils automatisés
permettant d’identifier des problèmes de qualité interne, le ROI pour les améliorations de la qualité interne
est conséquent. Les montants varieront en fonction de la taille et des caractéristiques de l’application, mais
pour les applications métiers critiques, la valeur de ces améliorations pour le business est spectaculaire
et s’inscrit dans la durée. Les organisations IT se doivent de réaliser ce type d’analyses pour défendre
les investissements visant à améliorer la qualité de leurs applications. n
Dr. Bill Curtis,
Directeur du nouveau Consortium international
sur la Qualité Logicielle (CISQ)
Co-auteur du CMM & Business Process Maturity Model.
Autorité mondiale en matière de Qualité Logicielle.
http://www.it-cisq.org/
IT-expert n°81 - septembre/octobre 2009
31
Les moteurs de règles
et l’agilité du SI
32
IT-expert n°81 - septembre/octobre 2009
Comment ça marche ?
Séparer les règles métiers du code, ou encore les en extraire.
Recourir à un moteur qui gère et orchestre ces règles et le
processus, et s’appuyer sur un référentiel. Telle serait l’architecture
d’une application moderne. Mais comment et pourquoi en est-on
arrivé là ? Et quelles sont les solutions types de ce marché ?
Un algorithme d’à peine 25 ans
L’algorithme de Rete fut créé en 1983 par Charles Forgy. Dès
lors, les solutions de moteur de règle basées sur cet algorithme
notamment autour du langage C++ apparaissent. Leur coût lié
à un besoin de compétences très pointues devenait prohibitif,
car elles fonctionnaient des machines puissantes de l’époque
(Station Unix). Autant de caractéristiques qui réservaient ce
type de solution à des industries à même d’en retirer une plus
value importante et donc de justifier les montants nécessaires
à leur implémentation.
Il existait déjà des solutions « gratuites » dans des langages
comme Lisp, prolog… Mais la faible distribution de ces langages
dans le monde de l’entreprise ne favorisait pas leur adoption :
le client/serveur autour de la base de données était roi !
Plusieurs phénomènes conjugués ont permis la modification
de cette situation:
• la diminution du prix de la puissance des machines,
• l’avènement d’internet et la montée en puissance des
communautés open source,
• la création d’un langage (java) associé au point précédent
qui va imposer un standard de fait dans le monde de
l’informatique et faciliter le portage des applications dans
plusieurs environnements.
Grâce à internet et à la création de communautés dédiées
(SourceForge, codehaus, etc.), une coopération mondiale
est devenue devient possible, relayée par une diffusion des
connaissances et les savoir-faire sur ces technologies. Alors, les
moteurs de règles ont émergé et pris de l’ampleur en dehors de
marchés de niches (banque/assurance, grandes administrations,
grandes industries) sur lesquels elles étaient cantonnées.
La diffusion de ces savoir-faire a permis l’avènement de projets
devenus des commodités et fournis en standard :
• Les systèmes d’exploitation, le navigateur Internet, le logiciel
de messagerie, les outils bureautiques, les applications
multimédias : toutes ces briques sont aujourd’hui accessibles
au grand public à un prix inclus dans celui de la machine
ou même à un prix nul pour celui qui fait le pas vers l’open
source.
• Pour internet et le monde de l’entreprise : système d’exploitation (Linux), serveur d’application (Apache, Jboss, etc.),
base de données, outils de développements, langages, outils
d’intégration (ESB), etc. Tous ces composants existent en open
source. La technologique n’est plus un frein pour la réalisation
de logiciels complexes.
L’algorithme de Rete et les solutions maison
Une des principales caractéristiques des langages de
programmation est leur mode d’exécution procédurale liée
aux matériels sous-jacents. En effet, le code est exécuté suivant
le codage écrit par le développeur sans aucune interprétation.
Derrière l’algorithme de Rete (prononcer « Rété ») se cache une
approche radicalement différente : la programmation déclarative.
Le programmeur code les règles unitairement, et l’algorithme
ordonnance les traitements en utilisant des composants et des
concepts codés d’une manière classique.
L’algorithme de Rete traduit les règles déclarées en un graphe
(rete = réseau en latin) qui sera parcouru par le moteur d’exécution
des règles.
ObjectTypeNode
AlphaNode
LeftInputAdapterNode
ObjectTypeNode
ReteNode
JoinNode
NotNode
TerminalNode
ReteNode
name == "cheddar"
Person
Cheese
strength == "strong"
Cheese
Les objets du graphe
Chaque règle se décompose en :
• conditions qui se basent sur des faits insérés dans un espace
de travail (« working memory » en anglais),
• actions si les conditions sont remplies.
Les conditions vont mettre à jour des données du modèle et il
est possible d’indiquer au moteur de règles de réévaluer un fait
qui peut déclencher éventuellement d’autres règles.
Person
name == "cheddar"
Person.favoriteCheese ==
Cheese.name
System.out.println (preson.getName () + " likes cheddar ")
Person.favoriteCheese !=
Cheese.name
System.out.println (preson.getName () +
" does not likes cheddar ")
Rule
when
Cheese( $chedddar : name == "cheddar" )
$person : Person( favouriteCheese == $cheddar )
then
Il était donc naturel que le monde de la connaissance métier dispose
également d’outils matures. Ces composants font maintenant parties des commodités au même titre que les autres composants.
System.out.println( $person.getName() + " likes cheddar" );
end
Rule
when
Cheese( $chedddar : name == "cheddar" )
$person : Person( favouriteCheese != $cheddar )
then
end
System.out.println( $person.getName() + " does not like cheddar" );
IT-expert n°81 - septembre/octobre 2009
33
Par exemple, il est possible d’ajouter un nouveau fait qui doit
être pris en compte. Ainsi, l’application des règles de calcul sur
un ticket de caisse va créer des bons de réductions. Ces mêmes
bons de réduction peuvent être limités en fonction du type de
carte de fidélité utilisé par le client. La règle qui génère le bon de
réduction va, dans sa partie action, notifier au moteur de prendre
en compte ce nouveau fait parmi les règles à évaluer.
L’insertion d’un fait permet au moteur de savoir quelle règle
peut-être déclenchée et celle qui ne peut pas l’être. D’ailleurs,
une des bonnes pratiques consiste à utiliser un modèle objet
« fin » (en opposition à un modèle type base de données avec
100 champs par table). Ce type de modèle crée des branches
dans le réseau de Rete, et donc la non-insertion d’un type
d’objet va permettre d’éliminer toutes les règles qui n’utilisent
pas ce type d’objet et ceci très rapidement par simple parcours
de graphe.
Un moteur de règle est constitué de plusieurs composants :
• une mémoire de travail qui contient les faits dont le moteur
doit tenir compte. Ces faits peuvent être insérés depuis
l’extérieur par le programme appelant le moteur de règle ou
par les règles elles-mêmes,
• une mémoire de production qui contient l’ensemble des
règles,
• un moteur d’inférence infère entre les faits et les règles. Il
dispose d’un agenda qui lui permet de stocker les règles
à exécuter (cf. illustration pour une vue simplifiée de
l’algorithme).
Inference
Engine
(ReteOO/Leaps)
Production
Memory
(rules)
Pattern
Matcher
Agenda
Les composants d’un moteur de règle
34
IT-expert n°81 - septembre/octobre 2009
Working
Memory
(facts)
Rule
base
Determine
Possible rules
to fire
Working
Memory
Fire Rule
Conflict Set
Rule Found
Select
Rule to Fire
Conflict
Resolution
Strategy
No Rule
Found
Exit if specified by rule
Exit
Algorithme du moteur de règle
Les moteurs de règles effectuent un « chainage avant » (« forward
Chaining »). C’est-à-dire qu’ils partent des faits pour arriver aux
conclusions. Cependant, certains moteurs de règles agissent à
l’inverse : ils partent des résultats (appelés fréquemment « les
contraintes ») pour proposer les solutions possibles.
Une disposition d’esprit particulière
Une des premières remarques des utilisateurs d’un moteur de
règle « Rete » est : « le moteur a des bugs ! ». En effet, le moteur
de règle « Rete » construit toutes les possibilités de parcours et
les développeurs lisent les règles comme du code « procédural »
en oubliant le paradigme de « programmation déclarative ».
De plus, le moteur de règles construit toutes les possibilités
de parcours, d’une manière exhaustive, et sans s’arrêter à la
complexité ni aux nombres de possibilités. Ceci est à opposer
à un être humain qui doit programmer les possibilités et peut
en oublier !
On rencontre fréquemment des moteurs de règles développés
en interne dans les entreprises. Ces moteurs n’implémentent
généralement pas d’algorithme de type Rete mais profitent des
fonctionnalités dynamiques des langages informatiques utilisés.
Comment ça marche ?
Par exemple, on voit souvent des règles de gestion codées dans
une base de données. Ces règles sont dynamiquement exécutées
par la base de données et d’une manière séquentielle.
On note régulièrement une réticence à utiliser un algorithme
de type Rete. Pourtant, il est plus généraliste, plus complet et
donc plus puissant pour exprimer l’exécution des règles de
gestion, car il est pensé pour cela dès le départ. Il existe le même
type de réticence lorsqu’il s’agit d’introduire un composant de
persistance objet/relationnel type « hibernate » (qui modélise
également sous forme de graphe les données à mettre à jour dans
la base de données) versus le composant maison dans lequel le
développeur a la main pour programmer les requêtes.
Dans ces deux situations, les types de composants sont le fruit de
nombreuses années de recherche et de pratique et implémentent
des algorithmes « complexes » et difficiles à appréhender par des
personnes habituées à d’autres technologies utilisant d’autres
abstractions (requête SQL, client/serveur).
Sortir les règles du code
Du point de vue de l’architecture logicielle, l’utilisation d’un
moteur de règle permet de séparer les règles du code.
Code
Règles Métier
Données
Code
Règles Métier
Données
Sortir les règles du code
Dans des développements classiques (objets ou non), les
règles de gestion sont distillées à travers le code. En cas de
modifications fréquentes des RDG (règle de gestion), le code
devient vite complexe à maintenir.
Les avantages de cette deuxième solution sont multiples :
• les règles de gestion sont partagées et donc réutilisables,
• les règles ne sont codées qu’une fois,
• les applications sont plus simples à coder, car le métier en
est extrait,
• les règles de gestion sont plus simples à tester, car elles
peuvent l’être en dehors de l’application et donc l’application
elle-même est plus simple à tester puisqu’elle ne contient
que du code sans règle,
• les règles de gestion sont modifiables sans impacter
l’application, les évolutions sont donc plus simples,
• les coûts de développement et de maintenance sont réduits.
La suite logique consiste à créer un référentiel de règle pour
l’ensemble des applications
Création de référentiel de règle et d’un outil
de gouvernance (BRMS)
Utiliser un moteur de règles amène à extraire les règles de
gestion du code informatique. Cette extraction peut s’effectuer
de plusieurs manières :
1. Les règles font toujours parties de l’application et sont
embarquées dans les livrables de l’application (dans une
webapp en java). Dans ce cas, l’agilité est utilisée dans le
développement de l’application. Un changement de règle
va entrainer une nouvelle version du logiciel, mais sans
modification de la partie codage informatique. L’informatique
garde la main sur le codage des évolutions des règles de
gestion implémentées dans l’application.
2. Les règles font toujours parties de l’application, mais ne
sont pas embarquées dans les livrables mais à côté (sur un
disque dur sécurisé). En cas de modification des règles de
gestion, seuls les seconds livrables sont à modifier.
3. Les règles sont extérieures à l’application (dans un référentiel)
et l’application demande au référentiel la version de production
d’un jeu de règle. Le codage des règles et leurs mises au
point sont réalisés par une application de gouvernance des
règles (BRMS). Cet outil pourra éventuellement être manipulé
par des analystes métiers et non plus par l’informatique. La
gestion des règles de gestion retourne aux personnes du
métier et non plus à l’informatique.
4.Une des variantes du cas précédent : l’application appelle
un service web qui exécute les règles et c’est ce web service
qui extrait les règles du référentiel et les exécute.
La première idée consiste à centraliser ces règles. Et cela peut
être mis en place grâce au Design Pattern Stratégie par exemple.
La manière d’encoder des règles de gestion avec ce Design
Pattern reste du code non prévu pour exprimer spécifiquement
les règles de gestion. De plus, le moteur d’exécution reste
procédural. Ceci n’est pas adapté pour des règles de gestion
qui interagissent entre elles.
La deuxième solution consiste à utiliser un moteur d’exécution
spécialisé dans les règles de gestion qui va implémenter un
algorithme de type RETE.
IT-expert n°81 - septembre/octobre 2009
35
Les cas d’usage cités ci-dessus dépendent du niveau d’utilisation
du moteur de règles (pour une application, pour tout le système
d’information, etc.). Il est courant d’utiliser un moteur de règles
pour une application, puis de s’apercevoir que les règles de
gestion peuvent s’appliquer à d’autres. Alors, les règles sont
extraites de l’application initiale et placées dans un référentiel
qui sera partagé pour tous.
1
3
Application 1
BRMS
Moteur
d'exécution
Application 2
Référentiel
Application 3
2
4
Référentiel de règle
Pour réaliser tous ces points, un moteur de règle est composé
de différents composants :
1. un outil de gouvernance (BRMS = Business Rules Management System) qui permet à un analyste métier de saisir
les règles dans un langage métier (DSL = Domain Specific
Language), en étant capable de les tester et d’enregistrer les
tests, et en gérant les droits d’accès ainsi que le cycle de vie
des règles,
2. un référentiel de règle,
3. un serveur d’exécution qui extrait les règles de gestion du
référentiel et expose des appels au moteur d’exécution,
4. le runtime d’exécution peut être embarqué directement dans
les applications.
L’utilisation d’un référentiel de règle et d’un outil de gouvernance
permet au « métier » et à « l’informatique » de communiquer dans
un même langage (les règles de gestion). La communication
va même plus loin, puisque les gens du métier n’ont alors plus
besoin de l’informatique pour modifier les règles de gestion
implémentées dans les applications.
Cette communication est du même type que l’approche BPM,
ou les processus métiers sont décrits initialement, puis plus
ou moins automatiquement transmis et exécutés du côté
informatique.
L’ESB booste les moteurs de règles
Les premières applications informatiques ne traitaient pas des
processus métiers, mais uniquement de l’enregistrement des
données et de leurs traitements.
Les moteurs de règles ont permis d’extraire les règles de
gestion du langage de programmation pour les placer dans
des référentiels. Toute la logique métier type processus était
36
IT-expert n°81 - septembre/octobre 2009
soit manuelle soit codée dans les applications ou dans les flux
entre applications.
Depuis quelques années sont apparus des outils de workflow,
souvent introduits pour permettre la transmission de documents
d’un service à un autre. L’apparition des ESB (Enterprise
Service Bus) a généralisé cette notion à la communication entre
applications. Chaque outil ESB inclut une gestion de corbeille
et permet donc de faire intervenir des actions humaines sous
forme de choix. Une des pratiques est d’utiliser également un
moteur de règles lorsque des choix s’effectuent depuis ces
processus (en général BPEL dans les ESB). C’est le processus
qui appelle les règles.
L’introduction des ESB permet de mettre en relation des
événements en provenance de plusieurs systèmes. Cette
mise en relation peut se faire non seulement par les données
contenues dans les événements, mais également par leur arrivée
temporelle les uns par rapport aux autres. Par exemple : si je
reçois le courrier de confirmation de virement dans les deux jours
qui suivent l’envoi d’un courrier électronique de réclamation pour
non-paiement, j’annule ma procédure d’impayée. Toute une
partie du métier se trouve dans ces règles de gestion et n’est
pas traitée par les moteurs de règle de gestion. Les moteurs de
règle actuels couvrent plus ou moins tous ces points.
Le cas du moteur de règles Jboss rules - drools
L’offre du marché des moteurs de règles est riche, mais quelques
grands noms se dégagent :
• le moteur de règle d’Ilog (maintenant IBM dans l’offre SOA)
offre un moteur de règles, un référentiel de règle (avec outil
de gouvernance), un serveur d’exécution et un outil de
développement sous la forme d’un plug-in Eclipse.
(http://www.ilog.fr)
• le moteur de règle FICO Blaze Advisor (ex Fair Isaac ex
Neuron Data), créé par des français de l’INRIA.
(http://www.fico.com)
• Visual Rules (http://www.visual-rules.com)
• Jess Rule (http://www.jessrules.com/) gratuit pour les
applications non commerciales
Toutes ces solutions « propriétaires » sont maintenues par une
entreprise et le code source non disponible. Toutes ces sociétés
ont eu une vie « agitée » souvent faite de rachats successifs, à
l’exception d’Ilog qui disposait d’un portefeuille suffisant de
composants logiciels ce qui lui a permis de tenir jusqu’à son
rachat par IBM.
L’évolution notable de ces cinq dernières années tient dans la
montée en puissance d’un outil open source : Drools.
(http://www.jboss.org/drools/)
La société Jboss a d’abord racheté ce produit (en salariant
les principaux développeurs) et a été rachetée par Redhat. La
solution a été conçue en 2001, sa première version « utilisable »
est apparue en 2004, et la première version « sérieuse », baptisée
Comment ça marche ?
drools 3, date de 2006. Ces premières versions étaient composées uniquement d’un moteur d’exécution.
Sortie en mai 2009, la version 5 de drools comprend:
• un moteur d’exécution (drools-expert) qui implémente
l’algorithme de Rete,
• un référentiel et un outil de gouvernance (drools-guvnor),
• un moteur BPM (drools-flow),
• un moteur CEP (drools-fusion) qui permet de définir des
raisonnements temporels et événementiels,
• un moteur de programmation par contrainte (drools-solver)
en version test,
• un environnement de développement sous la forme d’un
plug-in Eclipse.
Dans un même moteur se retrouve les trois composants métiers
que nous avons identifiés : les règles de gestion, un moteur de
workflow et un moteur CEP.
Le programmeur n’a pas à apprendre à programmer trois outils,
mais un seul et il est également possible de faire interagir les
règles avec un processus. Un procédé nommé l’inversion de
contrôle (Inversion of Control) : ce sont les règles de gestion
qui appellent les processus et non l’inverse.
Toujours plus d’agilité et de réactivité
L’apparition d’outils open source dans le domaine des moteurs
de règles est en passe de susciter une adhésion massive de ce
type de démarche pour développer des applications voire des
systèmes d’information.
Le nombre d’appels d’offres en cours avec l’utilisation d’un
moteur de règles (et drools est souvent cité) démontre l’évolution
de la maturité des clients sur la conception de leur système
d’information. Les moteurs de règles ne sont qu’un des aspects
de ce phénomène :
• la mise à disposition de composants open source mature
(ou propriétaires, mais inclus dans des offres plus globales)
autour de l’intégration et de l’ESB : ceci permet une adoption
massive pour une plus grande agilité dans l’intégration de
nouveaux composants, partenaires, etc.
• les moteurs de règles sont également un élément important,
car en parallèle de l’agilité technique des composants ESB,
il est également possible d’obtenir une agilité fonctionnelle
des applications.
• les outils de développement deviennent de plus en plus
puissants et l’adoption d’un langage dynamique (type Grails
ou RoR) permet d’implémenter rapidement des applications
qui tiennent la charge et sont d’une programmation aisée.
• l’utilisation de paradigmes type MDA (ou MDD) qui permettent,
à partir de modèle métier, de générer une grande partie de
l’application et de nécessiter des ajouts métiers faibles (et qui
peut se faire via des outils tels que les moteurs de règles).
• L’adoption de méthodes agiles type Scrum ou XP qui
permettent de s’adapter au mode de fonctionnement des
donneurs d’ordre et qui vont profiter de l’agilité technique
des autres composants pour rendre ces méthodes viables.
Tous ces phénomènes conjugués apportent une grande agilité
dans le développement du système d’information. Les moteurs
de règles et leurs composants sont appelés à jouer un rôle majeur,
car ils contiennent le métier et ils l’exécutent. n
Nicolas Héron,
Architecte J2EE, SOA et moteur
de règle dans une enseigne
de bricolage, contributeur
au projet drools
IT-expert n°81 - septembre/octobre 2009
37
L’agenda de cet informaticien
est déjà bien rempli !
S P É CmI AéLs ! 24 septembre - PARIS
c o n0 af ni rs d’expérience
CNIT - La Défense - 11h-21h
2à1
S
E
N
N
E
R
e
r
b
o
t
c
o
5
1
Stade Rennais - 11h-19h
26 novembre - LYON
Espace Tête d’Or - 11h-19h
Janvier 2Déf0en1se0- 11- Ph-21AhRIS
CNIT - La
Février 2010 - LILLE
Salle du Gymnase - 11h-19h
Marsat2io0na1le0des-CoNngArèNs -T11Eh-S19h
Cité Intern
Mars 2010 - GENÈVEh-18h
ces - 10
éren
Centre International des Conf
Liste des postes et pré-inscription sur www.lesjeudis.com
Livres
Management et gouvernance des SI
Si l’informatique existe et évolue depuis des décennies, et intègre régulièrement les évolutions ou
révolutions technologiques, il en va tout autrement de la gouvernance des systèmes d’information.
Longtemps considérée comme un outil par l’entreprise, l’informatique n’est devenue une direction et un
département à part entière que depuis quelques années. Néanmoins, elle restait un service « déconnecté »
de la stratégie opérationnelle. Le livre « Management et gouvernance des SI » aborde justement cette
problématique des usages des technologies de l’information et de la communication induisant de nouveaux
modes d’organisation. La réflexion sur les systèmes d’information étant ultérieure aux usages, les auteurs
tentent de faire comprendre, conceptualiser et appréhender ce monde modelé progressivement en fonction
de l’évolution des besoins et de la diffusion de ces technologies.
De la théorie à la pratique
L’ouvrage bénéficie pleinement d’une double approche. En effet, réunissant des auteurs scientifiques
et de terrain, il conjugue la théorie la plus opérationnelle et les retours d’expérience de professionnels
proches des entreprises. Visant à sensibiliser les dirigeants d’entreprise, les DSI, les professionnels ou
les étudiants aux enjeux du management et de la gouvernance des systèmes d’information, il explique
pourquoi une approche stratégique et globale du SI s’impose. Le lecteur y retrouvera, traités efficacement,
les thèmes aussi divers que : la stratégie, la notion d’écoute, le knowledge management, la modélisation
des processus, la sécurité, les normes et standards, l’urbanisation ou les aspects juridiques, éthiques et
sociologiques des organisations. Un large panorama pour voir plus clair et plus loin.
Management et gouvernance des SI
Ouvrage collectif coordonné par Camille Rosenthal-Sabroux et Americo Carvalho
Date de parution : octobre 2009
Éditeur : Hermes-Lavoisier
504 pages - environ 79 E
Green IT - Les meilleures pratiques pour une informatique verte
Aux États-Unis, les réseaux électriques peinent à fournir la puissance nécessaire aux entreprises. Cette
considération associée à la réduction des coûts a amené les grandes entreprises américaines à se
pencher sur ce qui est devenu le Green IT. Si la situation est différente en France, ces préoccupations
n’en restent pas moins d’actualité.
Consommation énergétique, recyclage des PC, mauvaise gestion des impressions… les auteurs de cet
ouvrage dressent un état des lieux de l’impact écologique de l’informatique. Au-delà d’une information
documentée, le livre se penche sur les moyens d’action possibles à mettre en œuvre dans la gestion des
infrastructures informatiques, et sur des comportements «responsables».
Pour définir le green IT, les auteurs ont choisi de s’appuyer sur la notion de cycle de vie du matériel, des
logiciels et des services. Ils s’adressent non seulement à tous ceux qui interviennent dans l’univers des
systèmes d’information (DSI, SSII, cabinets de conseil…), mais aussi à ceux qui utilisent quotidiennement
un (ou plusieurs) ordinateur(s) et qui sont sensibles aux questions environnementales.
Bien plus qu’un simple constat désolant, le livre décrit une méthode pour mener une action avec des
stratégies adaptées à l’entreprise. Puis plusieurs chapitres abordent les comportements incontournables :
l’achat responsable, bien gérer les impressions, évoluer les datacenters verts, les apports de l’informatique,
gérer la fin de vie du matériel… Indispensable pour aller au-delà du concept marketing !
Green IT – Les meilleures pratiques pour une informatique verte
Christophe Corne, Adrien Porcheron, Pénélope Guy, James Pavia
Date de parution : septembre 2009
Éditeur : Dunod
256 pages - environ 29 E
IT-expert n°81 - septembre/octobre 2009
39
Marché de l’outsourcing
et réalités de l’offshore
en France
Manque de compétences dans les entreprises, recentrage sur ses métiers, gains
de temps liés à l’industrialisation par les prestataires, qualité des prestations d’un
marché mature… externalisation et offshore gagnent du terrain sur l’Hexagone
40
IT-expert n°81 - septembre/octobre 2009
Rubrique à brac
Les stratégies de sourcing IT des grands comptes sont animées
par des mouvements opposés selon la conjoncture économique.
En période de croissance, la recherche de compétences prime.
Alors, les sociétés sont plus enclines à prendre des risques,
et à se démarquer de la concurrence en investissant dans
leurs systèmes informatiques, notamment dans l’innovation.
En période de crise économique, le focus est rapidement
repositionné sur la réduction des coûts, l’amélioration de la
productivité et l’accélération de l’industrialisation. Ces éléments
se traduisent de manière directe en termes de dépenses et
modes de sourcing IT.
Déficit de
compétences
Réduction
des coûts
Innovation
Productivité
Industrialisation
Part des différentes prestations d'externalisation
8,6 milliards d' en 2008
TMA
23%
Le management des systèmes d’information selon la conjoncture économique
Les investissements et évolutions des systèmes d’information
des entreprises ont alimenté depuis toujours les SSII. La soustraitance en services informatiques peut être délivrée selon
plusieurs types de prestations qui vont de la délégation de
personnel (régie) à l’externalisation en passant par les projets
au forfait. Si les prestations de régie et de forfait sont déjà
anciennes, l’externalisation - plus récente- a réellement explosé
sur le marché français dans les années 80. Elle se caractérise
par un engagement pluriannuel entre entreprises clientes et
prestataires de services, dans lequel ce dernier se voit confier
la gestion de tout ou partie du système d’information, selon des
engagements de services mesurables et suivis.
L’externalisation des infrastructures IT ou des applications a la
plupart du temps été motivée par la recherche d’économies.
L’accès à des compétences rares ou bien la volonté d’industrialiser
le système d’information ont aussi formé des leviers forts pour y
faire appel. L’industrie et la grande distribution, deux secteurs
chez lesquels la maîtrise des coûts est vitale, ont été parmi les
premiers secteurs à l’utiliser. Tous les autres y ont recours, même
le secteur public bien que celui-ci soit plus consommateur de
tierce maintenance applicative que d’infogérance, deux types
de prestation inclus dans l’externalisation.
Une croissance annuelle moyenne 2000-2012
• Externalisation: +9%
• Projets: +2,5%
• Total des services: +4,2%
2012 : 28,7 Mds euros
2008 : 24,8 Mds euros
Externalisation
37%
Autres prestations
63%
2000 : 17,6 Mds euros
Externalisation
23%
Au sein du marché des services informatiques, le segment de
l’externalisation est celui qui connaît la plus forte croissance
depuis une vingtaine d’années. Pierre Audoin Consultants (PAC),
dans le cadre de son étude « Outsourcing 2009 », a évalué le
marché de l’externalisation en France à 8,6 milliards d’euros
en 2008. PAC l’a réparti en six sous-segments avec chacun ses
évolutions spécifiques.
Crise économique
Croissance
Externalisation
34%
Un marché porteur et très fragmenté
Autres prestations
66%
Autres prestations
77%
Évolution du marché de l’externalisation au sein du marché des services IT en France
Infogérance
54%
BPO
9%
Hosting
14%
Structuration du marché de l’outsourcing en 2008 (France)
• L’infogérance globale : ce type d’infogérance consiste
pour une entreprise à externaliser auprès d’un fournisseur
l’ensemble de son système d’information. Cette pratique a
connu un certain succès autour des années 2000 dans les
pays anglo-saxons. Peu de grands contrats d’infogérance
globale ont été signés en France. Par contre, on rencontre
des contrats de moindre taille dans les moyennes entreprises
autour des ERP.
• L’infogérance d’infrastructures : de loin, le segment le
plus important en termes de volumes. Il a démarré avec les
mainframes, puis le serveur, enfin, les postes de travail et
autres infrastructures IT (ex : imprimantes). C’est le segment
majeur de l’externalisation par son poids et sa dynamique,
même si celle-ci est ralentie par la pression sur les prix
imposée par les clients.
• L’infogérance de solutions applicatives : ce marché,
qui consiste à confier à un fournisseur la gestion d’une
application et des infrastructures liées (comme la paye ou la
monétique), est en train de rebondir avec la mise sur le marché
d’applications en mode SaaS (Software as a Service). Les
applications sont ainsi mises à disposition des utilisateurs
via le web. Les offres les plus demandées concernent des
filières applicatives bien délimitées, comme le CRM ou la
bureautique. Des PME dont le parc applicatif est souvent plus
léger et donc plus facile à faire évoluer vont vers ce modèle
qui évite un investissement de départ.
IT-expert n°81 - septembre/octobre 2009
41
• La Tierce Maintenance Applicative : elle permet de prendre
en charge la maintenance des applications selon un mode
forfaitaire et pluriannuel. Elle évolue vers la prise en charge
du patrimoine applicatif, l’entreprise donnant au prestataire
la responsabilité non seulement de la maintenance de ses
applications, mais aussi de ses développements. C’est un
segment à forte croissance, de par l’évolution récente des
modes de sourcing qui tend à faire passer les prestations
de maintenance en mode TMA, alors qu’elles étaient
auparavant délivrées en assistance technique. On assiste à
une « massification » de la maintenance par laquelle un seul
fournisseur prend en charge cette maintenance, assortie de
solutions d’offshore.
• Le Hosting est un segment qui se limite à l’hébergement de
serveurs, et a connu un regain d’intérêt avec le développement
d’Internet en créant un marché dynamique de Web Hosting.
• Enfin, le Business Process Outsourcing (BPO) qui consiste
à opérer pour le compte d’un client des fonctions métiers
(ex : RH) reste un marché encore relativement peu mature
en France.
Surtout l’infrastructure, et bientôt le Cloud
Lorsque l’on évoque l’externalisation, on l’associe généralement
à une réalisation de la prestation hors du site client. En réalité, un
grand nombre de prestations sont réalisées à la fois sur le site du
client et hors site. Malgré la réticence des entreprises à voir les
services être délivrés hors site, l’évolution est inéluctablement
vers de plus en plus de services à distance. En effet, cette
démarche génère des économies substantielles grâce à la
mutualisation des compétences, l’organisation industrielle des
services et l’accès à des ressources plus économiques. En
revanche, l’externalisation implique une relation de proximité
très structurée entre client et prestataire.
La majeure partie du marché de l’infogérance concerne les
infrastructures IT. Même si l’externalisation de solutions
applicatives devrait connaître une croissance notable avec
les modèles SaaS, les applicatifs liés au cœur de métier d’une
entreprise en font des éléments plus difficiles à externaliser,
notamment dans les grands comptes où le système d’information
constitue de plus en plus un facteur de différenciation (et donc,
intègre des développements spécifiques) où les innovations
favorisent les gains de parts de marché. Le modèle SaaS pose
aussi beaucoup de questionnement sur la sécurité et les niveaux
d’engagement de services.
Les dernières évolutions technologiques vont offrir de nouvelles
voies au marché de l’externalisation. Le récent phénomène du
Cloud Computing peut être rapidement défini par une mise
à disposition à travers Internet d’un ensemble de services
directement utilisables par les clients. Certaines fonctions ou
pans de systèmes d’information traditionnellement gérés et
hébergés au sein d’un grand compte seront, dans ce modèle,
progressivement transféré vers des opérateurs de services
spécialisés. Le modèle le plus connu et dont la dynamique est
clairement avérée est celui du SaaS. On parle déjà d’autres
déclinaisons, telle la Plate-forme as a Services (PaaS) qui
permettent d’utiliser des plates-formes middleware au travers
d’Internet ou encore l’Infrastructure as a Services (IaaS)
qui consistent à utiliser à travers le réseau des capacités
d’infrastructures IT (ex : stockage, traitement). Ces deux derniers
modèles ne forment pas encore de véritables marchés, mais nul
doute qu’ils trouveront un jour leur place dans les prestations
d’externalisation.
TMA autonome
Processing & BPO
Prestations non IT
Infogérance
de solutions applicatives
Infogérance globale
Application
Application
Application
Infrastructure
Infrastructure
Infrastructure
Infogérance d’infrastructures
Système d’information de l’entreprise
Segmentation PAC du marché de l’externalisation
42
IT-expert n°81 - septembre/octobre 2009
Rubrique à brac
accru à l’offshore qui va se poursuivre dans les prochaines
années. Ce phénomène peut toutefois être légèrement ralenti à
court terme dans un souci d’utilisation de ressources salariées
inoccupées en France.
Partenaires
Entreprise
L’offshore est un phénomène déjà bien connu, initialisé aux
États-Unis qui a externalisé une partie importante de ses
développements d’applications en Inde, permettant à ce
dernier de devenir le pays de référence dans le domaine.
L’offshore cristallise l’arrivée à maturité du secteur des services
IT, dont l’industrialisation est suffisante pour envisager des
délocalisations dans les pays à bas coûts. Ce phénomène s’est
également développé très rapidement en Europe du Nord, et
connaît un véritable essor en France depuis 2003.
Clouds publics
Clouds privés
Clients
Le Cloud Computing au cœur des systèmes d’information
Le développement continu de l’offshore
Depuis l’éclatement de la bulle Internet et la crise qui a suivi, le
modèle offshore s’est progressivement développé en France.
Dans la logique d’industrialisation qui sous-tend l’évolution de
l’externalisation, la composante offshore a pris une part de plus
en plus importante.
Selon l’étude Pierre Audoin Consultants « Modèles de Delivery
2009 », les prestations de services IT réalisées en mode offshore
représentaient 5 % du marché français en 2008 et devraient être
proches des 10 % en 2011. La crise économique entraîne des
recherches encore plus significatives de réduction des coûts ; les
SSII mènent des stratégies à marche forcée d’industrialisation
pour pouvoir répondre à cette exigence. Cela passe par le recours
Les caractéristiques de l’offshore en France sont relativement
spécifiques. Tout d’abord, selon le type de client ou d’activité,
la francophonie sera un critère plus ou moins important.
Prenons par exemple les activités d’une banque de financement
française à vocation internationale, le recours à l’offshore
dans un pays anglophone et notamment l’Inde semble le
plus approprié. En revanche, lorsqu’il s’agit d’externaliser en
mode offshore certains pans d’un système d’information d’une
banque de détail française, un pays francophone sera préféré.
De même, la notion de créneau horaire demeure importante.
À ce titre, la zone Afrique ou Europe de l’Est dispose d’un
avantage certain s’il est nécessaire de communiquer beaucoup
entre maître d’ouvrage et réalisateur. Quant à la répartition
géographique, les dernières estimations de Pierre Audoin
Consultants indiquent que la géographie de l’offshore français
se décompose en 1/3 pour la zone Inde/Asie Pacifique, 1/3
pour la zone Europe de l’Est et environ 20 % pour le Maghreb
et 20% pour d’autres pays.
30-35%
Europe de lEst
Canada
Espagne
Maghreb
15-20%
Inde/
APAC
30-35%
Ile Maurice
Brésil
Argentine
© PAC 2009
Géographie de l’offshore
IT-expert n°81 - septembre/octobre 2009
43
L’offshore a traditionnellement porté sur la réalisation de tâches
standardisées relatives à des applicatifs non-critiques pour le
client en maintenance, migration ou développement. Il s’agissait
donc dans un premier temps de délégation de tâches à faible
valeur ajoutée auprès de pays qualifiés à bas coûts. Aujourd’hui,
sous la demande d’une plus forte industrialisation des services IT,
les prestations réalisées en modes offshore ont progressé dans
la chaîne de valeur. Les fournisseurs ont petit à petit spécialisé
leurs centres offshore par secteur d’activité (Banque, Télécom)
ou encore par typologies d’applications (ex : SAP, Oracle). Le
recours à l’offshore n’est donc plus uniquement observé sous
son aspect réduction de coûts, mais plutôt comme un moyen
de mettre à disposition auprès d’un client le meilleur ratio coûts/
compétence. Au niveau national, ce schéma s’est traduit par le
développement de centres de services spécialisés en province.
Ces centres connaissent un intérêt grandissant dans la mesure
où ils constituent une première étape d’industrialisation pour
des grands donneurs d’ordre encore très dépendants des
prestations en mode assistance technique.
Les Français conçoivent l’offshore aux couleurs
de l’Europe
Les prestations de maintenance applicative forment le principal
segment de l’offshore. On voit néanmoins apparaître des
solutions offshore relatives aux infrastructures IT. Les services
à distance (Remote Services) favorisent l’émergence d’offres
de type support/help desk, supervision et télédéploiements.
Ces services constituent actuellement un pôle d’investissement
important pour les SSII très actives en infogérance.
5 000 employés) apporte un éclairage plus précis de la réalité
de l’offshore en France.
• 59 % des entreprises ne souhaitent pas recourir à l’offshore
tandis que 32 % en sont déjà utilisatrices.
• 55 % considèrent que les meilleurs prestataires en services
offshore sont des prestataires européens (Capgemini, Logica,
Atos Origin), 33 % pensent en priorité aux prestataires
américains (IBM, Accenture, HP/EDS) et seulement 12 %
pensent aux « pure players » indiens (Wipro, TCS, Infosys).
• 43 % des entreprises préfèrent la région Europe de l’Est,
contre 33 % pour l’Inde et 15 % pour l’Afrique du Nord.
En synthèse, l’offshore ne constitue pas une finalité en soi, mais
bien un moyen permettant des gains de productivité, grâce à
l’accès à des ressources moins chères. Cependant pour en
tirer tout le bénéfice, il nécessite une forte industrialisation.
Les premiers projets confiés parfois trop rapidement en mode
offshore ont souvent rencontré des écueils. Bien souvent, les
coûts relatifs à la montée en compétences des ressources,
aux incompréhensions liées aux différences culturelles, aux
travaux de pilotages ont été sous-estimés rendant finalement
peu attractif les premiers projets. Seuls les fournisseurs ayant
durablement investi dans la création de centres offshore et ayant
fait de ces investissements des éléments clés de la stratégie
de leur entreprise sont en mesure aujourd’hui de fournir des
réductions de coûts significatives. n
Selon vous, qui sont les meilleurs prestataires en services offshore ?
Prestataires européens
(Capgemini, Logica,
Atos Origin)
55%
Prestataires américains
(IBM, Accenture, EDS)
33%
Prestataires indiens (Wipro,
Tata Consultancy Services,
Infosys)
n.a
12%
0%
Les principaux acteurs de l’offshore en France sont les architectes
de l’industrialisation des services applicatifs tels Capgemini,
Logica, Accenture, IBM pour les plus importantes, mais aussi
des sociétés comme SQLI qui ont su développer un modèle
industriel n’ayant rien à envier aux plus grandes. Sur ce marché
très concurrentiel, les acteurs indiens cherchent également à
renforcer leurs positions. Trois acteurs – Wipro, Infosys et Tata
Consultancy Services pour les plus importants – mettent en
avant le modèle indien, considéré comme le « Best in Class »
des modèles industriels. Pourtant, le déficit d’image que ces
acteurs ont sur le marché français ainsi qu’un manque de
proximité client, leur rend la tâche ardue.
Notre récente étude sur les modèles de delivery réalisée auprès
d’un panel de 249 entreprises (dont 75 % disposent de plus de
44
IT-expert n°81 - septembre/octobre 2009
Vincent Gelineau,
Consultant senior
Pierre Audoin Consultants (PAC) est une société internationale de conseil et d’études
de marché spécialisée dans le domaine du logiciel et des services informatiques. Sa
mission essentielle est d’accompagner sur un plan stratégique le développement
des principaux acteurs sur ces marchés : prestataires de logiciel et de services,
utilisateurs d’informatique, investisseurs financiers.
Son expérience de plus de 30 ans en Europe – combinée à sa présence aux
États Unis et sa couverture mondiale – constitue un socle unique pour offrir une
compréhension approfondie des marchés informatiques locaux partout dans le
monde et un accompagnement stratégique des acteurs sur ces marchés. PAC
utilise des méthodologies éprouvées, en interrogeant en face-à-face aussi bien les
vendeurs que les utilisateurs, et utilise une démarche « bottom-up » et « top-down »,
ce qui apporte une connaissance globale et cohérente des marchés.
PAC publie une large gamme d’études multiclients et personnalisées, dont son
programme de référence SITSI® (Software & IT Services Industries), en plus de
ses services en conseil et en marketing. Présents dans le monde entier, plus de
160 professionnels proposent des analyses qui peuvent faire la différence pour
une société.
Pour en savoir plus : http://www.pac-online.com / [email protected]

Documents pareils