Cloud computing ou l`informatique dans les nuages Les points de

Transcription

Cloud computing ou l`informatique dans les nuages Les points de
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Cloud computing
ou l’informatique dans les nuages
Les points de fonction
Bimestriel - mai/juin 2010
Green IT : fable écologique
ou sujet incontournable pour la DSI ?
n°85
Le web sémantique : la voie royale
pour gérer l’information ?
Ils diffusent leur code logiciel
en open source
ZOOM OUTSOURCING
L’avis des Directions Informatiques
Ministère des Finances
Direction Générale des Impôts
Nadine Chauvière
Sous-Directrice des SI de la DGI
« Les solutions d’Application Intelligence
CAST nous aident à obtenir une meilleure
visibilité de notre parc applicatif au travers
de tableaux de bord composés d’indicateurs
techniques objectifs afin de faciliter le
dialogue avec les équipes et avec nos
maîtrises d’ouvrage. »
Groupe SFR Cegetel
Eric Eteve
Directeur Informatique
Centre Ingénierie Mobilité
« La solution CAST de gestion de la soustraitance est un élément clé dans le système
de pilotage mis en place par SFR-Cegetel
sur ses TMA. Nous avons constaté une
attention plus particulière apportée par les
SSII à la qualité des livrables et à la fiabilité
des chiffrages depuis qu’ils savent que nous
pouvons facilement les auditer. »
Framatome - Groupe AREVA
Michel Fondeviole
DSI de Framatome-ANP
« CAST fournit des critères objectifs
d’appréciation dans le dialogue parfois
difficile avec le sous-traitant ainsi que des
indicateurs nécessaires au suivi de l’évolution
des applications et constitue au sein de
Framatome un outil de progrès partagé. »
En savoir plus
Demandez le Livre Blanc rédigé par le
Gartner Group et CAST sur ce thème :
« Information Series on Application
Management » :
www.castsoftware.com/outsourcing
Découvrez l’expérience de plusieurs
sociétés utilisatrices de solutions
d’Application Intelligence :
www.castsoftware.com/customers
www.castsoftware.com
La maîtrise des applications
et des prestataires dans
une opération d’outsourcing
De la valeur ajoutée de l’Application
Intelligence pour piloter efficacement
un parc applicatif sous-traité
Dans l’externalisation des applications
métier, c’est surtout la volonté d’accroître
l’efficacité opérationnelle de l’informatique
qui est motrice : pouvoir fournir plus
rapidement un service à valeur ajoutée
aux utilisateurs et aux clients dans un
contexte en perpétuelle évolution.
C’est là que le bât blesse : l’externalisation
des applications métier occasionne un
risque de perte rapide de savoir-faire
technologique et par conséquent critique.
Vigilance et suivi sont de mise pour garder
le contrôle de la qualité de service et
éviter les dépendances par nature
dangereuses.
L’externalisation réussie d’applications
métier est donc le fruit d’une vision
anticipatrice partagée avec le prestataire.
Sont ainsi apparues des solutions dites
d’Application Intelligence, basées sur
Publi-Reportage
La valeur ajoutée de ce type de
solutions d’Application Intelligence est
visible à chaque étape d’une opération
d’outsourcing, comme décrit ci-après.
trat
con
de
Fin
Appe
ls d
'off
res
Cycle de vie
d'une opération
d'Outsourcing
Co
ntr
ôle
des
coûts
i de
Suiv
connaissance
s
sfert de
Tran
Comme dans n’importe quelle opération
d’outsourcing, le contrat liant le
fournisseur est capital, en particulier les
SLAs. Néanmoins, les applications métier
étant par nature soumises à de fréquents
changements en cours de contrat, les
seuls SLAs se révèlent vite insuffisants
pour garantir la qualité de service et éviter
les dérives de coûts.
une technologie avancée d’analyse de
code source.
En fournissant des indicateurs techniques
aux donneurs d’ordre, ces solutions
permettent de piloter un parc applicatif
sous-traité en temps réel, tant en terme de
qualité, que de maintenabilité et de coût.
Résultat : le donneur d’ordre conserve la
maîtrise intellectuelle de ses applications
métier et le contrôle de la relation avec
son sous-traitant.
technique
Recette
L
es entreprises, devenues plus
mûres vis-à-vis de l’outsourcing,
sont désormais capables d’opérer
des externalisations plus stratégiques. On
l’a récemment observé dans l’automobile
avec Renault ou dans la grande distribution
avec Carrefour.
jet
pro
Audit de l’existant et préparation des
appels d’offres
• Déterminer les caractéristiques
techniques du portefeuille applicatif
existant avant de le sous-traiter
• Disposer d’informations de référence
pour évaluer les propositions des
sous-traitants
• Obtenir une image à l’instant t des
applications pour permettre un suivi
dans le temps
Transfert vers le prestataire
• Réduire la phase d’acquisition de
la connaissance pour entreprendre
plus vite des tâches productives
• Diminuer le coût lié à la production
d’une documentation exploitable et
maintenable par le prestataire
Contrôle de la qualité et des coûts en
cours de projet
• Suivre l’évolution de la maintenabilité
et de la qualité pour éviter toute
dérive
• Etre capable de valider la quantité et
la qualité du travail facturé
• Etre en mesure de challenger le
sous-traitant lors des négociations
d’avenants
• Industrialiser les recettes techniques
Renouvellement de contrat, transfert ou
ré-internalisation
• Déterminer et qualifier les écarts
entre la prestation prévue et les
livrables recettés
• Disposer des informations
techniques caractéristiques du
portefeuille applicatif en fin de
prestation
Le leader mondial de ce type de solutions
est d’ailleurs un éditeur français, CAST.
Reconnu par les analystes informatiques
comme précurseur du marché, CAST
compte plus 500 comptes utilisateurs de
sa plate-forme d’Application Intelligence
dans le monde.
édito
Révolution annoncée de la programmation
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Le rachat annoncé de Sybase par SAP remet sur
le devant de la scène trois avancées majeures des
SGBD. En premier lieu, les technologies In-memory
permettent de travailler en mémoire sur des volumes
de données très importants. Bien entendu, chaque
éditeur propose sa propre technologie, souvent
suite au rachat d’une société spécialisée.
Seconde technologie à examiner : le stockage des données en colonnes.
En limitant les résultats aux seuls champs utiles à la requête, le colonage
accélère encore l’accès aux données en les enregistrant dans l’ordre des
index, ce qui évite de « balayer » tous champs de chaque enregistrement.
Et cette optimisation devient plus sensible encore pour les applications
analytiques.
Enfin, le serveur analytique Sybase IQ rencontre un franc succès auprès
des sociétés financières et des opérateurs télécom, grâce à sa capacité
de détecter à la volée des contenus dans les flux transactionnels pour
des applications de type antiblanchiment financier.
Toutefois, cette approche de type CEP (Complex Event Programming),
le colonage ou In-memory seraient réellement plus intéressants avec
des programmes en exploitant tous les avantages. Ce qui réclame de
nouveaux modes de programmation, et promet donc une décade encore
riche en innovations !
José Diz
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
José Diz
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Abonnements/Publicité
Email : [email protected]
Conception Graphique
Nicolas Herlem
Email : [email protected]
Parution
IT-expert - (ISSN 1961-9855) est un journal
édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 e.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
marques déposées.
Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Vous pouvez vous abonner gratuitement
sur http://www.it-expertise.com/
4
IT-expert n°85 - mai/juin 2010
IT-expert n°85 - mai/juin 2010
Sommaire
6
Dossier
Cloud computing ou l’informatique dans les nuages
Mathieu Poujol, directeur chez Pierre Audoin Consultants apporte un éclairage
salutaire sur ce domaine de plus en plus assombri par le marketing. S’appuyant sur
des résultats d’études, il dresse un état des lieux du Cloud vu par les entreprises, en
France et en Europe.
12
Technique
Les points de fonction
Visant à mesurer la « valeur fonctionnelle » d’une application ou d’un projet, les points
de fonction. À l’heure de l’industrialisation des applications et des développements,
ces points de fonctions nés dans les années 70 ont de nouveau le vent en poupe. Un
dossier exhaustif et incontournable.
20
Actualités Internationales
24
Quoi de neuf docteur ?
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances.
Green IT : fable écologique ou sujet incontournable pour la DSI ?
Obligations réglementaires, réduction des coûts, image de l’entreprise, stratégie
d’innovation… de multiples leviers peuvent inciter les entreprises à déployer une politique
Green IT. L’acteur explique les différents organismes et acteurs qui contribuent à cette
évolution d’avenir dans l’informatique.
32
Comment ça marche ?
Le web sémantique : la voie royale pour gérer l’information ?
Découvrez comment les agents logiciels et le Web sémantique révolutionnent la
gestion des documents sur Internet et dans l’entreprise. L’auteur passe en revue tous
les aspects : utilisateurs et accès, modèles de représentation, multimédia, distribution
et automatisation… Un point complet !
39
Livres
Virtualisation en pratique par Kenneth Hess et Amy Newman et Gestion de projet
agile par Véronique Messager Rota.
40
Rubrique à brac
Ils diffusent leur code logiciel en open source
Pourquoi certaines entreprises partagent-elles leur code source avec la communauté
du logiciel libre ? Éditeurs, entreprises utilisatrices, communautés ou fondations…
Voyage au cœur d’un monde très particulier, et aux modèles économiques variés et
innovants.
IT-expert n°85 - mai/juin 2010
5
C
loud computing
ou l’informatique
dans les nuages
Au cœur de tous les débats et de la communication des acteurs de l’informatique,
le Cloud Computing occupe une large partie de la scène informatique depuis
plusieurs mois. Au-delà des effets marketing, ce concept recouvre plusieurs
réalités et propose de nouveaux modèles prometteurs. Sur quels concepts repose
le Cloud Computing ? Et quelles sont les réalités du marché ?
6
IT-expert n°85 - mai/juin 2010
Dossier
Une réalité aux contours clairement définis
Un nouveau concept ou une nouvelle approche nécessitent avant
tout une définition claire des concepts et une compréhension
de leur articulation.
Définitions
L’informatique dans les nuages ou Cloud Computing est
un concept où les ressources informatiques sont virtualisées
et dynamiquement élastiques (provisionnement et déprovisionnement automatique). Ces ressources sont fournies
comme un service à travers Internet, de manière transparente
pour les utilisateurs. Le concept inclut l’infrastructure as a
service (IaaS), la plateforme as a service (PaaS) et le software
as a service (SaaS).
« L’IaaS ou Infrastructure as a Service » consiste à fournir de
l’infrastructure informatique (typiquement via une plateforme
virtualisée) comme un service. Plutôt que d’acheter des serveurs,
des logiciels, de l’espace pour le centre de données ou de
l’équipement réseau, les clients acquièrent ces ressources
informatiques comme un service complètement externalisé. Ce
service est facturé en fonction du niveau de consommation de
la ressource. C’est une évolution de l’hébergement web.
« Le PaaS ou Plateforme as a Service » consiste à fournir
une plateforme informatique ainsi qu’une pile de solutions de
développement, de test et d’exécution ; le tout étant consommé
comme un service. Cela facilite le déploiement d’applications,
en réduisant le coût et la complexité généralement associés
à l’achat et à la gestion des couches de base du matériel
informatique et des logiciels. Toutes les fonctionnalités requises
pour soutenir le cycle de vie complet des applications sont
fournies.
« Le SaaS ou Software as a Service » est un modèle de
déploiement de logiciels par lequel un éditeur offre à ses clients
la licence d’utilisation d’une application à la demande. Le logiciel
est consommé comme un service. Les fournisseurs de logiciels
en régime SaaS assurent soit l’hébergement de l’application sur
leurs propres serveurs web, soit le téléchargement du logiciel sur
l’environnement client (ils peuvent le désactiver après utilisation
ou expiration du contrat). Les fonctionnalités à la demande
peuvent être gérées en interne ou par un tiers fournisseur de
services d’applications.
L’IaaS correspond à la partie infrastructure de la technologie
Cloud Computing, le PaaS à la partie middleware, et le SaaS à
la partie applicative. Le SaaS offre des services d’application à
travers le web. Il s’agit d’une évolution du concept de fournisseur
de service d’applications - Application Service Provider (ASP),
basée sur une infrastructure plus efficace (centres de données
optimisés Cloud Computing) et avec une mise à disposition de
l’application plus standardisée (services web sur IP).
Le concept d’informatique dans les nuages pourrait être
également considéré comme de l’utility computing par lequel
les utilisateurs finaux peuvent accéder aux ressources
informatiques presque aussi facilement qu’à l’électricité ou à
l’eau courante. Il peut être privé (intégré au système informatique
de la société, à l’intérieur de son pare-feu) ou public. Dans sa
forme externe (privé ou publique), la technologie « Cloud » peut
être considérée comme un nouveau moyen d’externaliser
certaines parties du système informatique d’une société. Ce
modèle est orienté vers les dépenses en investissements (OPEX
plutôt que CAPEX) et vers une automatisation complète du
centre de données.
Les nuages publics (Google, Microsoft, Amazon…) sont une
nouvelle forme d’externalisation (infogérance), incluse dans
le segment de l’externalisation applicative (cf. Associated IT
Services profile). Quant au nuage privé, il s’agit d’un concept
architectural autour duquel les organisations (utilisateurs finaux)
bâtissent leurs centres de données de nouvelle génération, de
manière optimisée et virtualisée.
En mars 2010, PAC a réalisé des entretiens téléphoniques avec
200 décideurs français d’entreprises de plus de 200 personnes
afin de mesurer l’impact du Cloud Computing en France. Une
très forte majorité d’entre eux affirme s’orienter de préférence
vers le développement d’un Cloud privé.
Sur quel type de Cloud Computing êtes-vous en train/
investiriez-vous en premier?
Infrastructure cloud computing prioritaire
dans les investissements
13%
71%
7%
■
cloud privé
■
cloud public
■
cloud hybride
Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France
L’assemblage des meilleures nouvelles technologies
Important : la catégorie des logiciels payants du type jeux
accessibles via le web n’est pas incluse dans notre analyse.
L’informatique dans les nuages est un des éléments clés,
avec l’Open Source et l’Architecture orientée services (SOA),
de la révolution industrielle de l’informatique. Le Cloud est né
de la prolifération des systèmes virtualisés pour les serveurs
hors mainframes (serveurs de milieu de gamme et X86). Cette
évolution a permis de dissocier et de découpler des logiciels
d’applications des plateformes matérielles.
IT-expert n°85 - mai/juin 2010
7
Le Cloud Computing consiste en une évolution structurelle des
centres de données. Elle intègre de nombreuses technologies
récentes (comme la virtualisation, les piles technologiques
Internet, l’informatique verte – Green IT) ainsi que les dernières
tendances (globalisation, smart grids – « grilles intelligentes »),
et cela, afin de pousser plus loin le concept de centre de
données.
Cette évolution a été rendue possible grâce aux progrès effectués
au niveau des outils et de l’intermédiation. Cela a permis de
distribuer dynamiquement les ressources matérielles en fonction
des besoins applicatifs, sans que ces applications fonctionnent
forcément sur des outils informatiques spécialisés.
Le renouveau de l’externalisation et du stockage
Il parait fort probable qu’une bonne partie des activités liées
à l’externalisation va migrer vers le Cloud Computing. Et
cela, parce que le concept permet la réduction de coûts via
l’optimisation, la mutualisation, la consolidation et la virtualisation
de l’infrastructure informatique. Ce qui incarne justement l’un
des leviers les plus significatifs des services d’outsourcing.
L’informatique dans les nuages va également impacter les
services de stockage et d’hébergement, car elle propose des
services de qualité pour un prix final très bas par rapport aux
offres spécifiques du marché. Ainsi, le service Cloud S3 (Simple
Storage Service) d’Amazon est rapidement devenu l’une des
principales plateformes de stockage au niveau mondial.
De la puissance à la demande
L’accès à de la puissance de calcul et à des ressources
informatiques à travers l’Internet va aussi stimuler le
développement de client léger virtualisé qui accèderont au
Cloud afin de suppléer à leurs ressources limitées (par définition)
par des ressources (puissance de calcul, stockage) disponibles
à travers le nuage. Un exemple avec le service EC2 (Elastic
Compute Cloud) d’Amazon qui propose des serveurs virtuels
activables à distance via Internet. Et cela ouvre de nouvelles
opportunités pour le marché, par exemple l’offre YuuWaa de
Gemalto, un hybride unifié et sécurisé de stockage qui combine
une clé USB et la base de la technologie Cloud.
Les logiciels Open Source (OSS) prospèrent également avec
le Cloud Computing, car la plupart de ces plateformes sont
bâties sur des composants OSS. Par conséquent, l’OSS est un
facilitateur du modèle dans les nuages, du fait aussi qu’il favorise
l’ouverture de ces plateformes. Toutefois, cela ne signifie pas
que les offres sont Open Source!…
Finalement, le Cloud Computing est également très lié au
SOA (Architectures orientées services), car le Cloud est une
architecture orientée services.
Un marché en forte croissance
Sources
Les chiffres de marché sont issus du programme de recherche SITSI®, un programme d’analyse du marché global des services
informatiques et des logiciels que PAC a développé depuis plus de 15 années. Les principaux éléments de la méthodologie
incluent de la recherche documentaire ainsi que des entretiens avec les acteurs majeurs du marché.
Ces données ont été utilisées par PAC pour sa mission sur le futur du logiciel en Europe, qui a été réalisée cette année pour
le compte de la DG7 de la Commission Européenne. L’étude est consultable sur le site de la Commission Européenne :
http://cordis.europa.eu/fp7/ict/ssai/study-sw-2009_en.html
Valeur de marché par région – si disponible
(tout en EUR 2008 constant)
Area
2007
2008
2009
2010
2011
EU 27 2 741 3 321 3 974 4 743 5 663
2012
6 725
Croissance annuelle du marché
Area
2007
2008
2009
2010
2011
2012
EU 27
21,1% 19,7% 19,4% 19,4% 18,7%
M€
Cloud Computing - EU27
8 000
7 000
6 000
5 000
4 000
3 000
2 000
1 000
0
■ Saas Total
■ Paas Total
■ Iaas Total
2007
8
2008
2009
2010
IT-expert n°85 - mai/juin 2010
2011
2012
Market
Market
structure structure
2008
2012
SaaS
PaaS
IaaS
Cloud computing
CAGR
08/12
50.5%
14.3%
35.2%
100%
50.9%
15.0%
34.1%
100%
20.5%
19.6%
17.5%
19.3%
Dossier
Analyse générale du marché
Le rythme de développement du Cloud s’est accéléré ces
derniers temps et cela va continuer dans le futur. Le Cloud
apporte des offres aux coûts généralement optimisés pour les
organisations. Mais il apporte aussi et surtout de l’élasticité, de
l’automatisation et une facilité d’utilisation inédits.
Flexibilité et disponibilité dépendantes du réseau
Les avantages identifiés les plus importants sont des coûts
optimisés, la flexibilité, la simplicité et la capacité des utilisateurs
finaux à transformer une partie de leurs dépenses d’immobilisations (CAPEX) vers des dépenses d’exploitation (OPEX). La
sécurité et la dépendance envers le réseau sont les principaux
inconvénients.
Quels sont les principaux avantages
du Cloud Computing ?
Disponibilité des ressources
à la demande
42%
Flexibilité
34%
Facile d'accès
et accès en self service
Payer pour ce que vous consommez,
sans investir à l'avance
29%
21%
Optimisation de l'infrastructure
19%
Performance
14%
Rapidité de mise en œuvre
12%
Sécurité
0%
11%
5%
10%
15%
20%
25%
30%
35%
40%
45%
Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France
Quels sont les principaux inconvénients
du Cloud Computing ?
Sécurité
50%
Dépendance au réseau
35%
Perte de contrôle
23%
Technologie non mature
à répondre clairement à plusieurs questions juridiques (règles
de conformité dans certains pays/secteurs verticaux comme
le secteur bancaire au Luxembourg) et de sécurité (données
nationales sensibles, données industrielles confidentielles…).
À cela s’ajoute le fait que la plupart des centres de technologie
Cloud ne sont pas encore basés en Europe et/ou ne sont pas
gérés par des sociétés commerciales européennes. Beaucoup
de sociétés informatiques risquent aussi d’être trop dépendantes
des fournisseurs de technologie Cloud, car beaucoup de ces
technologies ne sont pas assez « ouvertes ». L’association du
logiciel libre et du Cloud Computing pourrait dans certains cas
apporter une réponse à cette problématique. L’élaboration de
systèmes avancés de chiffrement et une régulation européenne
forte sur la localisation des données et l’interconnexion des
Clouds sont d’autres aspects à prendre en compte dans la
réponse à apporter à ces problématiques.
Investissements amont
L’informatique dans les nuages promet une efficacité maximale
pour les centres de données ainsi que pour la livraison de
logiciels. Cependant, parvenir à ce résultat nécessite de
grands investissements de la part des fournisseurs de services
informatiques. Ces investissements ont été réalisés au niveau
des industries de production lourde (les industries à grand
nombre d’actifs) et seulement quelques acteurs européens
peuvent remplir les conditions dans ce domaine, sur le long
terme. Les fournisseurs traditionnels d’outsourcing (T-Systems,
Capgemini, Atos Origin…) et les opérateurs télécoms (Orange
Business Services, BT Global Services, Deutsch Telekom…)
sont les acteurs les plus éligibles à ce niveau.
L’infrastructure réseau
Le Cloud Computing rend les systèmes informatiques plus
dépendants qu’ils ne l’étaient de la qualité des réseaux de
télécommunication. Toutefois, ces réseaux ne sont pas réservés
exclusivement aux services informatiques, et transportent aussi
de la voix et de l’image/vidéo. ET cette dernière se montre très
gourmande en bande passante. Un aspect limitera pour quelque
temps encore le recours massif à des Clouds publics trop lointains.
En revanche, pour que le Cloud Computing se développe, des
investissements très conséquents devront encore être réalisés
dans les infrastructures réseau européennes et internationales.
10%
Limitations techniques et
matérielles pour l'utilisateur
6%
Complexité dans l'administration
du système
6%
Compétences
6%
0%
10%
Création et destruction de valeur
20%
30%
40%
50%
60%
Enquête PAC, EMC2, VMware et Intel auprès de 200 décideurs informatiques en France
Tout n’est pas toujours rose au pays du Cloud
Sécurité & confidentialité des données
L’un des principaux problèmes liés au Cloud Computing provient
du fait que les utilisateurs ont le sentiment de perdre le contrôle
sur leurs données. Ce concept implique également la capacité
L’informatique dans les nuages est une innovation de rupture qui
transforme l’informatique, la faisant passer d’une industrie légère
à une industrie lourde : c’est-à-dire d’une industrie basée sur la
main-d’oeuvre en une industrie basée sur les investissements.
Ce type d’innovation, selon la théorie de Schumpeter sur la
destruction créative, aura de fortes conséquences sur le marché.
La plus notable est que l’hypermutualisation qu’elle apporte
réduira fortement le segment de marché des « workloads »
les plus banalisés. Cela pourra engendrer des problèmes
conséquents pour certains acteurs informatiques, mais libérera
également des capacités d’investissement chez les clients pour
des projets à plus forte valeur ajoutée.
IT-expert n°85 - mai/juin 2010
9
L’Europe doit mesurer l’impact de ce changement et l’accompagner, car le Cloud Computing gagne et continuera de gagner du
terrain assez rapidement. Premièrement, sur des activités noncoeur de métier (stockage, environnement de développement,
messagerie, environnement de test…), puis sur les applications
critiques les plus « front-office » (CRM, RH…). Comme il s’agit
d’un modèle du type infogérance, sa configuration de développement est censée suivre le même chemin, en apportant
toujours plus de valeur ajoutée au fil du temps. Et tout comme
l’outsourcing, le Cloud Computing atteindra ses limites dans
la valeur qu’il peut offrir au client, en fonction de la criticité des
systèmes et de la nature des processus d’affaires.
Cette mutation va générer un haut niveau de demande en services
de conseil et en services informatiques pour la construction
des centres de nuages publics ou privés. Cela afin d’évaluer
le contenu à mettre dans le nuage, ou afin d’en évaluer la
sécurité…
est basé sur des volumes et des ventes à faibles marges grâce
à des centres de données accessibles à travers Internet. Ce
modèle s’avère donc très adapté aux modèles d’affaires existants
des opérateurs en télécommunication. Toutefois, ces acteurs
font face à des défis majeurs, car les spécialistes américains du
Cloud ont bien l’intention de coloniser le Cloud européen.
En termes d’automatisation, facilitée par ce modèle, le Cloud
Computing remplace la force de travail par de l’investissement
en capital. Cela illustre le modèle d’évolution des économies
avancées énoncées par les théories économiques classiques.
L’Europe détient du capital et une force de travail onéreuse.
Comme pour l’automobile ou la sidérurgie, mieux vaut pour
l’Europe qu’elle mise sur une très forte automatisation afin de
conserver ses usines à logiciel que son territoire. En ce sens,
le Cloud peut aussi être considéré comme un recours face aux
délocalisations. n
Pour l’utilisateur final, le transfert de valeur se fait via la
transformation des dépenses pour le matériel et les équipements
informatiques vers des dépenses pour des services (de Capex
vers Opex). Globalement ce transfert de valeur sera bénéfique
pour l’industrie SSBS (Software & Services Based Software),
mais les entreprises et les compétences devront évoluer assez
rapidement.
Compétitivité de l’Europe
L’Europe reste à la traîne face aux États-Unis en matière de Cloud
Computing. En effet, les acteurs dominants du marché sont
tous basés aux États-Unis, autant pour les spécialistes comme
Salesforce.com ou Amazon que pour les acteurs traditionnels
comme IBM ou Microsoft. Les entreprises américaines bénéficient
de leur ancrage sur le plus grand marché au monde et d’une
très forte culture du capital-risque.
Mathieu Poujol,
Directeur
Fondé par Pierre Audoin en 1976 (Paris), PAC est le seul groupe européen avec une
couverture globale : de fortes compétences locales et réponse globale. PAC est le
spécialiste de l’industrie du logiciel et des services informatiques : des fournisseurs
de logiciels et services informatiques, des utilisateurs de services informatiques,
des influenceurs et des organismes publics. Son approche intégrée couvre toute
la chaîne de valeur de nos clients : des rapports prêts à l’emploi, des services de
commercialisation & conseil.
Site web : https://www.pac-online.com
Néanmoins, l’Europe dispose de forts atouts, notamment grâce
à son industrie des télécommunications. Le Cloud Computing
10
IT-expert n°85 - mai/juin 2010
Les points
de fonction
Imaginés dès les années 70, les points de fonctions ressuscitent pour
accompagner les besoins de gouvernance SI et de gestion de projets, pour
lesquels une mesure objective s’impose. Ils deviennent aussi un moyen de
faciliter la communication entre informaticiens et utilisateurs.
12
IT-expert n°85 - mai/juin 2010
Technique
La mesure comme levier
de la gouvernance SI
L’approche de la gouvernance SI reposant sur la mesure
constitue une représentation objective du SI, commune à tous
les acteurs : direction, MOA, MOE et prestataires. Ce levier
est de plus en plus pertinent pour éclairer toutes les décisions
relatives à la gouvernance du SI :
• L’alignement du SI sur les objectifs stratégiques
de l’entreprise,
• L’analyse de la valeur,
• La maîtrise des coûts, délai et qualité,
• Le pilotage de la performance et maturité
des processus SI,
• La gestion anticipée des ressources et des risques,
• L’urbanisation progressive du SI,
• Le benchmarking,
• Le changement et l’amélioration continus.
Les avantages de l’analyse par les points de fonction sont
multiples :
• description des besoins des utilisateurs et du périmètre du
SI dans une nomenclature fonctionnelle détaillée, dont les
éléments sont obtenus par l’application de règles précises,
normalisées et auditables,
• mesure des composants de cette nomenclature fonctionnelle,
également suivant des règles standard,
• organisation des éléments de la nomenclature suivant les
différents axes de l’urbanisation SI et mesure des différentes
strates et composants du SI urbanisé,
• benchmarking, grâce aux multiples référentiels de mesures
et d’indicateurs déjà disponibles.
Ces avantages illustrent les trois éléments essentiels de la mesure
par les points de fonction : la nomenclature fonctionnelle, les
mesures et les référentiels de mesures et d’indicateurs.
La nomenclature fonctionnelle peut se révéler un outil d’une
grande efficacité pour la prise de décision relative au SI. En
effet, elle traduit les besoins des métiers et des utilisateurs.
Elle peut également exprimer les services qu’une application
est susceptible de fournir aux utilisateurs. Ces deux visions
divergent souvent (par exemple, fonctions fournies par les ERP et
effectivement utilisées…) et cette divergence des points de vue
est une des sources principales de conflits entre MOA et MOE. La
nomenclature fonctionnelle, par sa précision et son objectivité,
favorise grandement la résolution de ces problèmes. C’est
pourquoi nous introduisons un ratio d’une grande importance
pour les urbanistes et architectes : « Taux d’urbanisation » =
Nombre de Points de fonction fourni par le SI/Nombre de Points
de fonction exprimés par les utilisateurs.
L’évaluation en points de fonction permet d’affecter une valeur
objective et auditable à tous les composants du SI et aux
indicateurs de performance des processus SI.
La gouvernance SI est en vogue aujourd’hui. La maturité des
entreprises dans ce domaine est très variable. La maîtrise de
la mesure et l’usage de ces mesures donnent une idée assez
précise de cette maturité. Les points de fonction y contribuent
grandement.
Culture
de la Valeur
Culture
du Pilotage
Ex. : BSC
Culture de la Performance
Ex. : KPI
Culture de la Mesure
Ex. : Valorisation en Points de Fonction
Le principe des points de fonction
Les points de fonction sont un standard depuis la fin des années
70. Au milieu des années 90, une normalisation expérimentale
est entreprise par l’AFNOR. En 2003, l’ISO normalise la partie
mesure du standard de l’IFPUG (International Function Points
User Group).
Historique de la norme
• En 1979, Allan Albrecht (IBM) propose une première version de sa méthode. Une mesure de la production logicielle basée
sur les fonctions utilisateurs. Elle doit aider à prévoir la taille d’un projet, son effort de développement et la productivité du
développement informatique. Albrecht a ainsi développé une métrique indépendante de la technique de développement qui
n’a pas les inconvénients du comptage du nombre de lignes de code.
• En 1986, a été fondé l’IFPUG (International Function Points User’s Group) pour assurer la plus grande diffusion de cette
méthode.
• En 1995, l’AFNOR (Association Française de NORmalisation) normalise la méthode sous la référence normative expérimentale
XP Z 67-160.
• En 2003, l’ISO (International Organization for Standardization) normalise la méthode sous la référence 20926:2003.
IT-expert n°85 - mai/juin 2010
13
Les points de fonction ont pour objectif de mesurer la « valeur
fonctionnelle » d’une application ou d’un projet. La mesure
fonctionnelle est représentative de l’importance des services
d’une application existante, des besoins des utilisateurs ou
de l’ampleur des développements à réaliser. Et cette mesure
est réalisée selon le point de vue fonctionnel des utilisateurs.
Elle s’effectue en mesurant les données et les fonctions selon
plusieurs catégories (2 pour les données et 3 pour les fonctions)
et suivant 3 niveaux de complexité (faible, moyen et élevé).
Les catégories des données :
• Les données internes appelées GDI en français
et identifiées sous le terme ILF (Internal Logical Files)
dans le standard IFPUG et la norme ISO.
• Les données externes appelées GDE en français
et identifiées sous le terme EIF (External Logical Files)
dans le standard IFPUG et la norme ISO.
Les catégories des fonctions :
• Les Entrées appelées ENT en français et identifiées sous
le terme EI (Externals Inputs) dans le standard et la norme.
• Les Sorties appelées SOR en français et identifiées sous le
terme EO (Externals Outputs) dans le standard et la norme.
• Les interrogations appelées INT et identifiées sous le
terme EQ (External Inquiry) dans le standard et la norme.
Le principe de la méthode consiste à compter l’ensemble
des composants perçus par les différents utilisateurs d’une
solution. La façon dont sont mis en œuvre les composants
(données ou fonctions) n’est pas prise en compte. Les aspects
d’implémentation ou de réalisation technique ne sont pas étudiés
dans la partie normalisée de la méthode, car cette dernière se
focalise uniquement sur les aspects fonctionnels.
Entrées
Périmètre
étudié
Sorties
Interrogations
PF
Entrées
20
Sorties
35
Interrogations
12
GDI
30
GDE
14
Total
111
Interrogations
Type
Sorties
Frontières du
système étudié
Entrées
GDI
GDE
Autres
applications
Par utilisateur, on désigne les utilisateurs finaux, les administrateurs fonctionnels, la MOA, mais aussi les applications tierces
qui échangent des résultats. Les données référencées et qui sont
modifiées par une application tierce doivent être comptabilisées
car elles correspondent à des données externes.
14
IT-expert n°85 - mai/juin 2010
Les services offerts aux applications tierces sont comptés de la
même façon que les fonctions offertes aux utilisateurs humains
sous la forme d’Entrées, de Sorties ou d’Interrogations. Le
terme « Nomenclature fonctionnelle » désigne l’arborescence
des fonctionnalités qui identifie précisément le contenu métier
du système mesuré.
Seuls les composants visibles depuis l’extérieur de l’application
sont comptés. Les autres composants sont ignorés, car
dépendant des choix d’implémentation ou liés aux solutions
technologiques mises en œuvre. A partir de cette liste, pour
chaque composant, à partir de l’association entre leur catégorie
et leur complexité, les règles de la norme IFPUG fournissent
un poids fonctionnel.
Catégorie de
Composant
Complexité
Faible
Complexité
Moyenne
Complexité
Elevée
GDI
7
10
15
GDE
5
7
10
Entrée
3
4
6
Sortie
4
5
7
Interrogation
3
4
6
La valeur fonctionnelle de la solution est obtenue par l’addition
du poids fonctionnel de tous les composants. Il s’agit donc
d’une approche additive.
La valeur fonctionnelle, en points de fonction, s’établit selon
trois principales façons de compter :
• La mesure détaillée (detailled) détaille l’ensemble des
composants et leurs caractéristiques (catégorie et complexité)
de chaque composant. Cette mesure est très précise, mais
très chronophage.
• La mesure moyenne (light) obtient une bonne précision sans
être excessivement chronophage. Pour un grand nombre de
composant, cette mesure présuppose de la convergence
des complexités vers une valeur moyenne. Elle détaille
l’ensemble des composants et leur catégorie. La complexité
n’est pas précisée, tous les composants sont comptés avec
une complexité moyenne. Cette mesure est nettement plus
rapide que la mesure détaillée pour une faible diminution de
la précision.
• La mesure rapide (fast) estime rapidement l’ordre de
grandeur du nombre de points de fonction. Elle ne détaille pas
l’ensemble des composants de la nomenclature fonctionnelle.
Diverses techniques permettent aux experts d’approcher
le nombre de points de fonction. La plus connue consiste
à établir un ratio représentatif entre poids des données et
poids des traitements et à ne compter que les données.
Technique
Principales étapes de l’évolution
du standard et de la norme
• 1984 : IBM CIS & A GUIDELINES 313 – Version originale d’Allan Albrecht étendue dans le guide d’IBM
intitulé « IBM CIS & A Guideline 313, AD/M Productivity Measurement and Estimate Validation ».
• 1988 : Release 2. Cette évolution des pratiques de comptage a été réalisée pour tenir compte de
l’extension des mesures PF et de nouveaux environnements de comptage.
• 1990 : Release 3 est plus qu’une évolution. Le comité de L’IFPUG (International Function Points User
Group) a défini un cadre homogène et cohérent de comptage en remplacement du nombre important
des différentes règles de comptages. C’est le premier pas vers l’établissement d’un standard de
mesure des PF quelque soit le type d’organisation.
• 1994 : Release 4 intègre, principalement, des règles de mesure permettant d’estimer les PF tôt dans
le cycle de vie des projets à partir des IHM.
• 1999 : Release 4.1 clarifie des éléments peu documentés dans la version précédente. Elle permet de
rendre l’ensemble des règles de comptage plus consistant et moins susceptible d’interprétations.
• 2000 : Release 4.1.1 corrige quelques erreurs de la version précédente.
• 2001 à 2003 : Release 4.2 ne remet pas en question les règles. Principalement elle restructure le
manuel pour une meilleure accessibilité et lisibilité.
• 2005 : Release 4.2.1 corrige quelques erreurs de la 4.2
• 2009 : Sortie de la 4.3 qui distingue nettement la mesure PF normalisée ISO du facteur d’ajustement
(non fonctionnel et non normalisé ISO).
Répartition de la valeur fonctionnelle
par type d’applications
Groupe
de données
externes (GDE)
8%
Groupes
de données
internes (GDE)
24%
Interrogations
(QUE)
15%
Entrées (ENT)
29%
Sorties (SOR)
24%
GDE
GDI
Application
Référentiel
fournisseur
Sorties
Interrogations
Axes d’analyse
Domaine fonctionnel
Technologie
Ages des applications…
Entrées
Les points de fonction s’utilisent au-delà de ce que propose
l’IFPUG. Dans de nombreux cas, les points de fonction apportent
un moyen de mesure riche et fiable.
Les points de fonction sont utilisables dans le cadre de la
gouvernance SI. Pratiquement, la première utilisation des
points de fonction concerne la valorisation fonctionnelle du
parc d’application d’une organisation.
Nombre de Points de fonction
L’utilisation des points de fonction est multiple. L’IFPUG propose
trois principales utilisations :
1. La valorisation fonctionnelle des applications. Compte la
valeur du parc applicatif et compare la valeur fonctionnelle de
diverses applications. Ce type de comptage offre également
un moyen de comparaison entre les fonctions utilisées et
celles qui sont offertes par une application. Elle met en
regard les fonctions livrées et les fonctions commandées à
un prestataire.
2. La valorisation projet mesure l’ensemble des composants
fonctionnels à réaliser dans le cadre d’un nouveau projet. Cette
valorisation est un point essentiel d’entrée pour l’estimation
de charges, car le facteur le plus influent de l’effort est la taille
du développement demandé. Cette estimation de charges
peut se faire selon le standard IFPUG (non normalisé ISO) ou
via d’autres méthodes d’estimation de charges qui acceptent
les points de fonction en entrée comme COCOMO II.
3. La valorisation d’évolution. Cette dernière part d’une
nomenclature fonctionnelle où la nature de l’évolution de
chaque composant est marquée (Modification, Suppression,
Création). Comme pour la valorisation d’un projet, celle
de l’évolution est un point d’entrée pour l’estimation de
charges.
Une gouvernance du SI au point
Nombre de Points de fonction
Des points de fonctions : pour quoi faire ?
Types de composant
IT-expert n°85 - mai/juin 2010
15
Les points de fonction (PF) permettent de mesurer la maturité
des processus DSI en fournissant des indicateurs incorporés
dans des tableaux de bord. Les PF sont utilisables dans le
benchmarking. Ils servent à valoriser son parc applicatif selon
lusieurs axes : domaine applicatif, technologie, progiciel, âge
des applications, etc. Maintenir un référentiel associant les
points de fonction avec d’autres métriques permet de déterminer
des ressources utiles telles que le nombre d’ETP (Equivalents
Temps Plein) pour les maintenances (correctives, préventives,
évolutives), les assistances de divers niveaux, la prévision
statistique du nombre d’anomalies…
CMMI ainsi que le Cobit préconisent l’emploi des points de
fonction comme base de mesure.
Niveau
Utilisation
Taille des applications
Taille des projets
1 : Initial/performed
Taille des spécifications
Estimation de l’effort par les PF
Taille des lots projets (externalisation/internalisation…)
Mesure de la stabilité fonctionnelle (créations, suppressions, modifications…)
Ratios : Coût / PF, PF / Heure, Défauts / PF, tests (en heures) / PF…
2 : Managed
Valorisation en PF des interfaces avec les autres applications par les PF
Corréler les tailles des applications en PF avec les changements de gestion des risques
Ratios support : Heures de support / PF, PF / Personne support, …
3 : Defined
4 : Quantitatively managed
5 : Optimized
Utilisation pour la mesure de la performance des processus (PF/processus)
Utilisation comme base de mesure pour le contrôle statistique de la qualité produit
Ratios : Productivité organisation (Total PF / Total effort), qualité globale (Nb défauts / PF), Durée de réparation
(Temps / panne / PF), délais moyen avant panne (Temps /panne / PF…)
Analyse d’impact et estimation des impacts inter-projets et au niveau de l’organisation (Comparaison en PF
des zones d’urbanismes, mutualisation zones transverses, taux de mutualisation…)
Ratios : Défauts / PF (Taux de défaut), PF réutilisés / PF Total (taux de réutilisation), PF mutualisés / PF Total
(Taux de mutualisation), PF progiciels / PF Total (Taux de progecialisation)…
Exemple d’utilisation des points de fonction selon les niveaux de maturité CMMI :
Les points de fonction servent de support à l’établissement
des schémas directeurs. Cette méthode fournit un moyen pour
déterminer la valeur fonctionnelle et les coûts de développement
des applications. Associée à une méthode d’analyse de la valeur,
elle contribue à définir les priorités des différents projets.
Dans le même ordre d’idées, les points de fonction sont un
support à la gestion de portefeuilles de projets en fournissant
une mesure de la valeur fonctionnelle des applications qui
composent les portefeuilles…
16
IT-expert n°85 - mai/juin 2010
Technique
Les projets mieux maîtrisés
Des mesures pour urbaniser le SI
Les points de fonction sont un outil important dans la gestion
de projet.
L’association des points de fonction à l’urbanisation SI met
à la disposition des urbanistes une métrique. Cette métrique
permet de mesurer le poids fonctionnel des zones, des quartiers
ou des îlots de l’urbanisation. L’adéquation avec les objectifs
stratégiques métiers est mis en évidence par cette mesure.
Les points de fonction offre à l’urbaniste des métriques pour
valoriser chaque composant de la cartographie ainsi que
l’ensemble de son SI.
« La comptabilité fonctionnelle » qui mesure les évolutions en
points de fonction sert pour valoriser la dérive fonctionnelle.
Réalisée à chaque phases d’un projet (émergence, cadrage,
spécifications générales, spécifications détaillées…), quantifie
la dérive qui est détectée et mieux maîtrisée. Cette analyse
lève des alertes, par exemple, si le besoin n’est pas mature, la
dérive fonctionnelle reste importante même dans les phases
avancées du projet. Cette analyse mesure cette dérive et alerte
rapidement le chef de projet.
Variation brute
Variation nette
(somme ajouts,
suppressions et
modifications)
Delta
Ajout
t
Nomenclature t
t vers t+1
+
Ajout
Valeur fonctionnelle du périmètre
Ajouts additionnés
Modification
Valeur fonctionnelle du périmètre
Modifications prises en compte
-
Valeur fonctionnelle du périmètre
Suppressions déduites
Valeur fonctionnelle
du périmètre Initial
Suppression
Variation de la valeur
fonctionnelle
du périmètre
entre t et t+1
Suppression
Modification
Delta t+1
t+1
Nomenclature t+1
Périmètre total
sur lequel
porte la variation
pour passer
de t à t+1
Le suivi du réalisé et du « reste à faire » est mesurable par les points
de fonction. Cette mesure est un outil de suivi de la progression du
projet en points de fonction livrés et non pas en simples charges.
Une corrélation des deux suivis mesure la performance des
équipes tout au long du projet. Ce suivi est un outil de diagnostique
de l’avancement fonctionnel qui lève rapidement des alertes en
cas de problèmes dans l’avancement du projet.
La valeur fonctionnelle d’un projet permet d’estimer les charges
selon un cycle de vie défini. Cette estimation est réalisée soit par
coefficient de performance associé aux technologies, aux catégories
de projets…, soit au travers de méthodes d’estimation de charges
compatibles avec les points de fonctions (ex. COCOMO II).
En fin de projet, l’établissement d’un bilan de comparaison des
mesures réelles par rapport aux prévues (valeur fonctionnelle
PF et charges de réalisation) sert à l’organisation à capitaliser
son expérience au travers de l’enrichissement d’un référentiel
de mesures.
Au-delà de ces valorisations, la méthode des points de fonction
favorise la compréhension et le dialogue entre MOE et MOA.
Simplement au travers de la liste fonctionnelle des composants
de l’application, la méthode des points de fonction offre une vision
de l’application accessible à toutes les parties prenantes.
La méthode des points de fonction offre un moyen de détection
des fonctionnalités présentes dans plusieurs applications. Les
points de fonction associés à l’urbanisation mesurent le taux
de redondance ou de factorisation des composants du SI.
Par exemple, avec un taux de factorisation nul, la valeur d’un
îlot correspondra à la somme des valeurs fonctionnelles des
applications qu’il contient. Dans le cas contraire, la valeur de
ce même Îlot sera plus élevée (factorisation des composants
applicatifs du SI pour le même périmètre fonctionnel au niveau
de l’îlot).
Les points de fonction proposent un outil de mesure des
référentiels partagés. Ils servent à mettre en évidence les
informations partagées au sein d’une organisation (Groupes de
données externes communs à plusieurs applications).
Ils servent de valoriser fonctionnellement les services communs
réutilisables. Par exemple au sein d’une administration la valeur
de l’architecture applicative a été mesurée. Cette mesure
constate une augmentation de la valeur fonctionnelle d’une
application. Mais, elle correspond à une diminution globale de
la valeur du patrimoine du fait de la factorisation des services
réutilisables. À service constant, la diminution de la valeur de
patrimoine est bénéfique, car elle reste corrélée à la baisse des
coûts de maintenance.
Quelques limites et contraintes
La principale contrainte des points de fonction est liée au
processus de mesure. Ce processus s’appuie en partie sur
la documentation de l’application. Si la documentation est
fiable, la mesure est fiable. Dans le cas contraire, la valeur
ajoutée et l’expertise du compteur entrent en jeu. Dans des cas
défavorables, deux experts peuvent arriver à une variation de
5 % et 10 % de la mesure. Cette imprécision est maîtrisable,
car traçable par la nomenclature fonctionnelle, mais nécessite
de se rapprocher des utilisateurs.
Pour l’estimation projet, la norme ISO se limite aux aspects
strictement fonctionnels. Elle ne prend pas en compte la
complexité de réalisation, pas plus que les moyens humains,
matériels et technologiques. Les exigences non fonctionnelles
ne sont pas prises en compte. Ces limites ont un impact
fort lorsqu’une estimation de l’effort d’un projet est réalisée
statistiquement au travers d’un référentiel de productivité interne
IT-expert n°85 - mai/juin 2010
17
ou externe. En revanche, leur impact reste limité dans le cas de
l’utilisation de la méthode Cocomo II qui intègre ces aspects.
La méthode des points de fonction est statistique. Plus la taille
fonctionnelle mesurée est importante plus les résultats sont
exploitables.
Enfin, compte tenu de l’approche essentiellement fonctionnelle,
la méthode des points de fonction stricto sensu doit être étendue
pour s’adapter aux projets techniques, scientifiques, d’ergonomie
ou à la maintenance corrective.
Une panoplie d’outils
Les outils liés aux points de fonction sont de trois ordres :
comptage, référencement et estimation de l’effort.
Type
Produits
Comptage
FP Workbench™, SCOPE™, SFERA ®,
FP Outline™, PQMPlus™, SIESTA ©
Référencement
FP Workbench™, SCOPE™, SFERA ®,
FP Outline™, PQMPlus™
Estimation
SPR Knowledge Plan™, ISBSG ©,
COCOMO
Certains outils permettent de réaliser un comptage rapide comme
FP Outline, KISS et SPR KP Composants. L’intérêt consiste à
enrichir progressivement le comptage. Les autres outils nécessitent de définir la liste des composants et leurs caractéristiques au
travers de saisies multiples. Cependant, ces outils ne permettent
pas la réalisation de saisies rapides et de saisies de masse.
18
IT-expert n°85 - mai/juin 2010
De nombreuses organisations utilisent des outils réalisés à
l’aide de tableur tels que ceux de Microsoft ou d’Open Office.
Le principal défaut de ces outils réalisés sur ces plateformes
bureautiques réside dans l’absence de fonction de référencement.
Néanmoins, ils sont totalement adaptables.
Certains outils tels que ceux de CAST permettent de réaliser
un comptage à partir du code applicatif. Ainsi, AIP (Application
Intelligence Platform) réalise l’analyse du code et des requêtes de
l’IHM. Cet outil détermine également les évolutions fonctionnelles
et permet d’obtenir rapidement l’évaluation d’un parc existant.
Dans tous les cas, cette évaluation sera complétée par un
calibrage effectué par un expert afin de garantir la conformité des
mesures aux normes et aux règles de comptage de l’organisation.
Ces outils automatiques ne produisent pas de nomenclature
fonctionnelle, cadre de toutes les négociations ou d’utilisation
des méthodes agiles tel que le backlog de Scrum.
Technique
Pascal Lemaître,
Consultant senior
Utilise les points de fonction auprès des principaux clients de Semantys (Michelin,
DGFiP, SNCF…) et coresponsable de l’évolution de la gamme Semantys d’outils de
comptage et d’estimation de charges.
[email protected]
Utilisation des points de fonction en France
Depuis de nombreuses années, diverses organisations utilisent
les points de fonction : Renault, PSA, Michelin, Orange/France
Télécom, SFR, Bouygues Télécom, la Société Générale, la
SNCF…. Certaines administrations telles que la DGFiP (Direction
Générale des Finances Publiques), le Ministère de l’Agriculture
et de la pêche utilisent les points de fonctions.
La mise en place des points de fonction suit un processus
qui commence par l’évaluation patrimoniale afin d’obtenir un
niveau de maturité suffisant avant de passer à la valorisation
des évolutions et à l’estimation de charge.
Depuis plusieurs années ce processus est suivi auprès de
Michelin et de la DGFiP. Aujourd’hui, la DGFiP utilise les points de
fonction pour mesurer la valeur fonctionnelle de ses applications
et de leurs évolutions. Les points de fonction servent de base
de mesure pour des indicateurs dans le cadre de la mise en
place de CMMI.
Au-delà des utilisateurs, de plus en plus de SSII pratiquent les
points de fonction. Certains acteurs demandent à leur soustraitant de s’engager sur des productivités pour la création, la
suppression et la modification de PF dans le cadre de marché de
TMA (Tierce maintenance applicative). Ces contrats nécessitent,
de la part des SSII, la maîtrise des points de fonction incluant la
gestion d’un référentiel selon les domaines d’intervention et les
technologies de production pour s’engager sur des coefficients
de productivité. n
Références
IFPUG : www.ifpug.orvg
ISO : www.iso.org
ASSEMI : assemi.fr
SFERA ® : www.dpo.it
FP Outline™, PQMPlus™ : www.totalmetrics.com
FP Workbench™ : www.charismatek.com
Lionel Perrot,
Consultant Manager
Utilise les points de fonction depuis plus de 10 ans et intervient auprès des
principaux clients de Semantys. Il est coresponsable, au sein du pôle gouvernance
de Semantys, de la mise en œuvre des points de fonction dans les processus de
mesure SI. M. Lionel Perrot est membre de l’ASSEMI.
[email protected]
Joël André,
Directeur, cofondateur du cabinet
Membre de l’IFPUG et de l’ASSEMI, il utilise les points de fonction depuis plus de 15
ans et intervient auprès des principaux clients de Semantys. Il est responsable de
l’offre SEMANTYS et particulièrement de l’utilisation des points de fonction.
[email protected]
FP Outline™, PQMPlus™ : www.totalmetrics.com
ISBSG : http://www.isbsg.org/
Knowledge Plan ® : www.spr.com
PQMPlus™ : www.qpmg.com
SIESTA © : www.sogeti.nl
CAST : www.castsoftware.com
COCOMO II : sunset.usc.edu/csse/research/COCOMOII
IT-expert n°85 - mai/juin 2010
19
Actualités
internationales
Le Cloud SAP Business ByDesign arrive enfin cet été
À
l’occasion de son show « SAPPHIRE Now » à Francfort mi-mai, SAP a présenté Business ByDesign 2.5
comme le lancement de son offre d’ERP en mode Cloud, destinée aux TPE et PME/PMI (à partir d’une dizaine
d’utilisateurs). Outre l’intégration native des technologies Office de Microsoft, on constate également une
interface améliorée grâce à la technologie Silverlight de… Microsoft.
Parmi les nouveautés : l’analyse en temps réel des données de
l’entreprise en mémoire (y compris sur Excel) via la technologie InMemory ; la mobilité sécurisée pour les connexions mobiles et 3G à
l’ERP, un premier niveau de personnalisation (écrans et formulaires
essentiellement) ; des offres prépackagées (préparamétrées) en
fonctions de certains métiers.
Enfin, SAP confirme que sa plate-forme reste multitenant, et propose
même la possibilité aux entreprises d’opter pour des ressources
matérielles dédiées (CPU, mémoire, disque). On regrettera que cette
option soit baptisée « monotenant », un mot qui rend le message du
multitenant ambigu (une seule plate-forme logicielle pour tous les clients
qui se c réent une instance, sur ressources dédiées ou non).
Business ByDesign 2.6 prévue en fin d’année s’ouvrira plus un peu plus à la personnalisation et au développement
par mash-ups (et DLL internes documentées) aux SSII et aux DSI. Elle devrait accélérer la dynamique de l’offre, avant
l’arrivée de la plate-forme de développement (PaaS) en ligne (.net et Visual Studio) courant 2011. n
Microsoft verse 200 millions de dollars à VirnetX
Pour mettre fin aux poursuites pour violation de brevet initiées par le spécialiste américain de la sécurité VirnetX à
son encontre, Microsoft a finalement négocié et versé 200 millions de dollars.
VirnetX avait déjà gagné un premier procès en 2007 contre l’éditeur de Windows pour l’utilisation par celui-ci de sa
technologie brevetée de réseau privé virtuel (VPN) dans Windows OS XP, Windows Vista, Windows Server 2003, Live
Communications Server, Windows Live Messenger, etc. Microsoft avait été condamnée à verser 105,75 millions de
dollars d’amende (85,29 millions d’euros). Et Virnet avait récemment renouvelé sa plainte, mais cette fois pour les
systèmes d’exploitation Windows 7 et Windows Server 2008.
VirnetX travaille pour la CIA (agence de renseignements américaine) pour sécuriser les
communications en temps réel (messageries instantanées, téléphones portables…)
et commercialise les brevets issus de ces travaux.
Une bonne publicité pour cette petite société cotée, mais une affaire qui écorne
encore l’image du géant de Redmond… n
20
IT-expert n°85 - mai/juin 2010
Actualités internationales
SAP offre 5.8 milliards de dollars pour s’emparer amicalement de Sybase
Le 12 mai, SAP crée l’événement en proposant environ 5,8 milliards de dollars (65 dollars par action) pour racheter
le spécialiste de bases de données Sybase. On a beaucoup entendu, et SAP a souligné, l’intérêt des technologies
mobiles de Sybase. Toutefois, et bien que Sybase ne soit pas très connu en France (en dehors de spécialistes), « c’est
un peu court ». En effet, l’entreprise jouit aussi d’une grande réputation sur les bases de données, et particulièrement
pour le décisionnel ou sa solution IQ (Interactive Query) qui occupe une place de choix dans les secteurs financier et
des télécommunications. Secteurs où justement SAP souhaite se renforcer…
Bien plus que la mobilité
Si Sybase est effectivement devenu une référence sur les applications mobiles, il est surtout
historiquement un éditeur de bases de données à forte image technologique (conception des
SGBD dynamiques et des applications Web dès le milieu des années 90), dont une des versions
est à l’origine de SQL Server. Excusez du peu !
Voici donc une liste de quelques-unes des technologies phares de l’éditeur si convoité :
• ASE (Adaptive Server Enterprise, et sa version Cluster) est le SGDBR de Sybase conçu pour les applications
critiques ou à fort volume transactionnel, clairement positionné face à Oracle et SQL Server.
• Sybase IQ (Interactive Query), est un SGBDR destiné aux applications analytiques (datawarehouse) combinant
stockage en colonnes, indexation totale et compression des données. Plus de 1700 clients qui intéressent au plus
haut point SAP.
• Le SGBDR Advantage Database Server combine langage SQL et interfaces de développement natives compatibles
avec les outils de programmation les plus répandus. Destinée aux éditeurs et programmeurs, elle se positionne
en base de données pour applications client/serveur performantes et à fort volume transactionnel.
• SQL Anywhere : base de données relationnelle « légère » (avec fonction de synchronisation sur un plus gros SGDBR)
pour applications bureautiques sur de multiples plates-formes, dont téléphones mobiles. Ses outils permettent
de concevoir et de déployer des applications pour ces environnements.
• Sybase iAnywhere Mobile Office propose une infrastructure mobile complète pour apporter aux messageries
électroniques d’entreprise l’ouverture vers la plupart des environnements mobiles. Et Sybase Unwired Platform
offre une architecture pour développement sans contraintes et de déploiement automatisé pour les applications
mobiles. Mobilité pour la finance (nBanking, RAP - The Trading Edition), les opérateurs de télécommunication
(MMX 365).
• Sans oublier le très populaire environnement de développement PowerBuilder et le module de conception de
métadonnées PowerAMC.
On comprend mieux alors pourquoi SAP a proposé une telle somme, obligeant un éventuel surenchérisseur à réfléchir
à deux fois. n
Microsoft attaque Salesforce en justice
M
algré une politique traditionnellement non agressive envers ses concurrents,
Microsoft semble cette fois bien décidée dans sa poursuite contre Salesforce.com
pour violation de neuf de ses brevets. Si l’on ne connait actuellement pas le détail
de ses brevets, le responsable de propriété intellectuelle chez Microsoft, Horacio Gutierrez
affirme que l’éditeur investit « des milliards de dollars chaque année pour fournir des logiciels
et des services de qualité. Nous sommes responsables face à nos clients, nos partenaires et
nos actionnaires de la sauvegarde de cet investissement. Nous ne pouvons pas rester les bras
croisés tandis que d’autres sociétés portent atteinte à notre propriété intellectuelle. » L’arroseur
arrosé a déjà dû faire face à plusieurs procès en la matière, et a perdu récemment contre les sociétés
i4i sur le XML et VirnetX sur le VPN. Mais surtout, Salesforce.com est devenu un concurrent sérieux face à ses offres
CRM, et devient un vecteur très porteur pour les autres concurrents de Microsoft en portant leurs solutions en mode
Cloud sur sa plate-forme, tandis que le géant de Redmond lance sa plate-forme de développement Cloud baptisée
Azure, concurrente de force.com de salesforce. Simple coïncidence ? n
IT-expert n°85 - mai/juin 2010
21
Unity : l’interface Ubuntu allégée pour netbook
Mark Shuttleworth, créateur de la distribution Ubuntu a confirmé que la version 10.10 Netbook Edition de cette suite
Linux proposerait un environnement de bureau allégé baptisé Unity.
La nouvelle organisation de l’écran (plus sobre) tirera profit
des technologies Gnome 3 : le lanceur d’applications sur la
gauche, la barre de recherche en haut aux côtés des menus
de la fenêtre active, etc.
À la manière de ce que propose Sony, Ubuntu sera proposé
en mode Instant-on, un démarrage ultrarapide en « Ubuntu
Light » en quelques secondes avec des fonctions de base :
lecture de médias, accès à Internet.
Une bonne nouvelle pour les utilisateurs de Netbook qui
recherchent généralement un équipement léger, réactif, et
surtout, non pénalisé par une interface trop riche pour ce
type d’usage. n
SFR passe devant Free sur l’ADSL
E
n gagnant 148 000 abonnés au premier trimestre 2010, AFR totalise 4,592 millions d’abonnés à l’ADSL
(contre 4,56 pour Iliad) soit une croissance de 13,6 % comparé à mars 2009. Dans le même temps,
Free n’a recruté que 88 000 abonnés, et en a perdu 40 000 chez Alice… Orange s’est lui contenté de
57 000 nouveaux clients ADSL. Bonne nouvelle : SFR a abaissé son taux de désabonnement à moins de
13 %. Décidément, un très bon premier trimestre pour Free qui a attiré 225 000 clients, contre 149 000 pour
Bouygues Telecom, tandis qu’Orange en perdait 173 000 ! Au total, SFR revendique 20,3 millions d’utilisateurs
mobiles (dont 15 millions abonnés).
Pour renforcer cet effet du en partie aux nouveaux forfaits Illimythics, SFR va lancer de nouvelles offres premium,
destinées à répondre aux besoins de clients prêts à payer pour obtenir plus. La prochaine version de sa box
triple-play devrait intégrer l’accès à de nouveaux services à valeur ajoutée qui n’ont pas été précisés. Et le
tout pour un prix inchangé de 29,90 euros. À suivre… n
Symantec en quête de plus d’identité rachète Verisign
« En mai, fais ce qui te plait ! » : le mois des emplettes pour Symantec qui s’offre les activités
Identité et Authentification de l’éditeur américain Verisign pour environ 1,28 milliard de
dollars. Le panier regroupe les solutions SSL (Secure Socket Layers), Certificate Services,
PKI (Public Key Infrastructure) Services, VeriSign Trust Services et VPI (VeriSign Identity
Protection) Authentication Service.
Renforçant ainsi son offre d’authentification unique (SSO), ravivée par l’explosion du Cloud Computing, l’éditeur se
positionne plus fortement sur la gestion des risques, marché de plus en plus porteur. Cette acquisition (qui serait
finalisé vers septembre 2010) suit le rachat de PGP Corporation (300 millions de dollars) et GuardiaEdge (70 millions
de dollars), spécialistes du chiffrement et de la prévention des fuites de données.
De son côté, Symantec se consacrera uniquement à la gestion des noms de domaines. n
22
IT-expert n°85 - mai/juin 2010
Actualités internationales
Google annonce son service Paas App Engine Business
L
ors de sa conférence Google I/O à San Francisco mi-mai, l’éditeur de services en ligne à dévoilé la nouvelle
version entreprise de son App Engine, service d’hébergement d’applications Google s’appuyant sur technologies
VMware, avec portabilité en mode Cloud. Google se positionne sur les plates-formes de développement
d’application Cloud pour les entreprises (PaaS, platform as a service).
Initialement destiné aux développeurs d’applications Web, l’App Engine proposait d’héberger des applications destinées
au grand public. Toutefois, les utilisateurs jugeaient le concept limité et non adapté aux applications d’entreprise.
App Engine for Business s’est enrichi du « minimum syndical » : une console d’administration pour gérer et veiller sur
les applications, un support technique, une garantie de service de 99,9 % de disponibilité, mais aussi la possibilité
de définir des politiques de sécurité et d’accès aux applications métiers.
La tarification très agressive est mise en place : 8 dollars par utilisateur et par mois, avec un plafond de 1 000 dollars
mensuel. Actuellement, la solution est disponible pour un nombre limité d’utilisateurs.
Bientôt devraient arriver : installation de bases de données, ajout du protocole SSL pour protéger les échanges… n
Office 2010 arrive avec les Office Web Apps
Oracle acquiert Secerno
pour protéger ses bases de données
Oracle poursuit sa politique d’acquisition externe avec
le rachat mi-mai du britannique Secerno, développeur
des pare-feux Datawall pour les bases de données,
prévenant la perte de données.
D
Un contrôle d’accès aux données qui intéresse le leader
mondial qui complète ainsi son offre de sécurisation des
environnements de données : Identity Management,
Advanced Security, Database Vault et Audit Vault. En
effet, Datawall sait bloquer en temps réel les évènements
interdits par les processus, pour les applications critiques
ou non. « Notre solution comble les brèches laissées par
les politiques de sécurité, y compris celles concernant les
utilisateurs de confiance ou à très haut privilège dans le
système » assure-t-on chez Secerno. Des fonctions très
utiles dans le cadre du respect des règles de conformité
imposées par les autorités nationales et internationales,
segment sur lequel œuvre également l’éditeur britannique.
Les solutions Secerno supportent les produits Oracle,
Microsoft SQL Server et Sybase. n
isponible dès le 12 mai pour l’entreprise et le 15 juin pour
le grand public, la suite Microsoft Office 2010 n’apporte
finalement pas de grands bouleversements par rapport à la
version 2007 : de nombreuses améliorations d’affichage et des vidéos
intégrées dans les documents PowerPoint. Outllook 2010 propose lui plus de nouveautés : le menu-ruban est enfin disponible partout
(tout comme Access 2010) ou encore un Social Connector (historique des communications, y compris des réseaux sociaux).
En revanche, Office 2010 incarne pleinement la stratégie Software+Services en combinant licences Cloud et service on-line. En effet,
Office 2010 et SharePoint sont déclinés en versions allégées sous forme de services Web. Les Office Web Apps sont proposées
aux entreprises via un contrat annuel ou par abonnement mensuel et par utilisateur sur Microsoft Online Services.
La version Famille/TPE est commercialisée à 379 euros, et la version professionnelle à 699 euros.
Les services en ligne Office Web Apps, utilisables en cohérence avec les logiciels Office, s’attaquent donc aux outils Google Apps,
pour 50 dollars par an pour les professionnels. Google annonce déjà deux millions d’entreprises utilisatrices de ses Google Apps.
Il était temps que Microsoft réagisse… n
IT-expert n°85 - mai/juin 2010
23
Green IT :
fable écologique ou sujet
incontournable pour la DSI ?
L’informatique verte ou Green IT est au cœur de l’actualité IT depuis 2008. Manifestations, rapports d’experts et
analyses sont largement repris dans la presse générale et spécialisée. En 2008, le cabinet d’analyse Gartner classe le
sujet « Green IT » parmi les 10 technologies clés pour les entreprises dans les prochaines années. Plusieurs forums et
séminaires lui sont régulièrement consacrés en France. Une offre matérielle, logicielle, de conseil… se construit et un
marché se structure…
24
IT-expert n°85 - mai/juin 2010
Quoi de neuf Docteur ?
Sous l’impulsion du monde politique, les réglementations se mettent en place :
• Aux États-Unis, une initiative globale liée à l’environnement a été lancée en octobre 2009 (GreenGOv
Challenge sur le site de la Maison-Blanche http://www.whitehouse.gov/greengov/) et le Green IT en
constitue une des briques ;
• En Allemagne, un programme national de 25 millions d’euros a été lancé en 2009 à l’initiative du
ministère de l’Environnement (BMU) pour participer à l’efficacité énergétique des technologies de
l’information ;
• En France, un rapport sur les Technologies de l’Information et de la Communication (TIC) et le
développement durable a été remis en 2009 à Jean-Louis Borloo et Christine Lagarde.
Au-delà de ce buzz et d’un possible effet de mode, où en sont concrètement les DSI ? Sont-elles
devenues Green ?
Les diverses lectures du Green IT
Face aux besoins des entreprises de maîtriser leur empreinte écologique, de réduire leurs dépenses
énergétiques et celles de leurs clients, de mettre en place leur politique de développement durable,
la fonction informatique offre des solutions. Pour certains, le Green IT est donc positif et apporte
des solutions à l’ensemble de l’entreprise et à ses clients pour réduire l’empreinte écologique. Or, la
DSI est aussi un département avec des hommes, des ressources… qui consomment, se déplacent,
etc. Et surtout, elle s’avère très gourmande en consommation énergétique. C’est pourquoi d’autres
cantonnent le Green IT à l’ensemble des dispositifs et solutions pour réduire cette « empreinte DSI ».
Dans les entreprises du secteur tertiaire, la fonction informatique est devenue le principal consommateur
énergétique, donc un des principaux pollueurs. Une étude de la Commission européenne estime, au
plan mondial, que la fonction informatique dans l’ensemble des entreprises et organisations
représenterait 2 % de la consommation énergétique globale et des émissions de gaz à effet de
serre. Soit autant que le poids des transports aéronautiques.
Cependant, le Green IT doit s’apprécier selon ces deux niveaux de lecture : la DSI en tant que
pollueur qui prend des dispositions pour réduire ses propres empreintes et la DSI en tant que fournisseur
de solutions pour réduire l’empreinte environnementale de l’ensemble de l’entreprise.
La DSI pollueuse directe ou indirecte
Un constat : « réduire la consommation énergétique des datacenter et du parc informatique » représente
plus de 70 % de la littérature produite et des solutions décrites sur le Web concernant le Green IT. Cela
couvre l’ensemble des idées, expérimentations et solutions concernant la virtualisation, les techniques
matérielles et logicielles sur les postes de travail, les nouvelles solutions de serveurs, les outils et
techniques d’optimisation de la dépense énergétique des centres de données. Les principaux acteurs
sont les constructeurs de matériels.
Parmi les thématiques traitées dans les 30 % restant de la littérature, on note le recyclage des matériels
informatiques (en application de la directive européenne DEEE - Déchets d’équipements électriques
et électroniques -notamment) ou les réductions d’usages du papier et des consommables au sein de
la DSI.
La DSI active pour réduire l’empreinte environnementale
Selon leur secteur d’activité et leur stratégie, les entreprises ou organisations mettent en place des
projets de réduction de leur empreinte environnementale. Ils s’adressent naturellement à la DSI pour
évaluer, mesurer, rendre des comptes. Mais aussi, lorsqu’il s’agit de mettre en place de nouveaux
processus, de nouvelles technologies, de nouveaux usages.
Ainsi, la DSI peut mettre en place des projets de dématérialisation des flux intra voir inter entreprise,
de l’automatisation de type workflow, de la vidéoconférence, des outils collaboratifs pour réduire les
déplacements des collaborateurs… Elle peut aider à déployer des dispositifs couplés à de l’électronique
pour piloter les dépenses énergétiques dans les bâtiments ou encourager les bons usages et bonnes
pratiques environnementales : covoiturage, bourses aux transports, communautés Développement
durable…
IT-expert n°85 - mai/juin 2010
25
La DSI est également là pour aider à la réduction de l’empreinte écologique des clients et des partenaires
de l’entreprise. Les technologies de type SmartGrid et les solutions logicielles mises à disposition des
clients des entreprises (ex. CarbonHub) accompagnent cette tendance qui va continuer à croître.
Au sein de la DSI, quels sont les secteurs et missions plus particulièrement concernés par le Green
IT ? Sur la base d’un fond de plan des missions de la DSI, quels sont les impacts et/ou réflexions à
avoir vis-à-vis du Green IT ?
STRATEGIE

Arbitrage
des projets
RELATION CLIENT

Méthodes

DEVELOPPEMENT
DE SOLUTIONS
Gestion
des
problèmes
Gestion
des
configurations
Gestion
des
habilitations
Gestion
des
versions
Test
& Qualification
Gestion
des
demandes
Gestion
des
changements
Maintenance
des applications
Exploitation
& maintenance
systèmes

Exploitation
& maintenance
réseau
La DSI en tant que pollueur direct ou indirect

Sourcing
Continuité
de services
Formation
Capacité

Organisation
Processus

Etudes
& Développement
Administration
des données
Exploitation
des
applications
La DSI en tant que fournisseur de
solutions et de technologies


Ressources
Gestion
compétences
PRODUCTION
Disponibilité
CONTROLE
Finance
PROCESSUS METHODES

Sécurité

Indicateurs /
Tableaux de bord
de pilotage
Achats
HELP DESK
UTILISATEURS
Oresys©
INCIDENTS
Contrôle et Gestion
des risques
Comptabilité
FOURNITURE DE SERVICES
DES
Pilotage des projets/
Activités
Management

Budget

GESTION
Urbanisme
& Architecture SI
POLITIQUES SYSTEMES
Gestion des besoins
et demandes
Conventions
de services
Gouvernance
Informatique
Facturation
des services
CLIENTS
PILOTAGE
Stratégie
Informatique


Fournisseurs
1. Stratégie informatique : intégrer des objectifs et un chapitre Green IT dans le schéma directeur
2. Urbanisme et Architecture du SI : promouvoir une architecture flexible, agile, durable permettra des solutions et des processus moins
énergivores.
3. Arbitrage des projets : ajouter des critères d’arbitrage relatifs à la contribution du projet à la réduction de l’empreinte environnementale et à la
politique Développement durable de l’entreprise.
4. Politique Systèmes : choisir les architectures, matériels et logiciels qui optimisent la consommation énergétique.
5. Processus : outillage des processus de l’entreprise (système de workflow)
6. Développement de solutions : mise en place de système de comptabilité carbone, de dématérialisation…
7. Exploitation et maintenance réseau : mise en place de solutions de vidéo-conférence, de travail à distance…
8. Achats : mise en place d’une politique d’achats de matériels « verts »
a. Indicateurs/tableaux de bord de pilotage : suivi de l’impact des activités de l’entreprise sur l’environnement (empreinte carbone, tableau de
bord DSI (papier, énergie…))
b.Ressources : mise en place d’une nouvelle organisation des ressources humaines et matérielles de la DSI (réduction papier, déplacements du
personnel…)
c. Conventions de services : inclure des critères et indicateurs liés au green IT (par exemple sur les consommables…)
d. facturation des services : évoluer vers une refacturation/comptabilisation développement durable
e. Fourniture de services : mettre en place un SI de la DSI qui dématérialise les échanges et réduit les impacts
f. Exploitation et maintenance des systèmes : contrôle et maîtrise de la consommation énergétique des datacenter
g. Exploitation des applications : outiller avec des dispositifs de surveillance et des logiciels de virtualisation
Illustrations de l’impact du Green IT sur le métier de la DSI
26
IT-expert n°85 - mai/juin 2010
Quoi de neuf Docteur ?
Quelles motivations poussent les projets Green IT ?
Pour déployer et maintenir des projets Green IT, l’entreprise doit y trouver son compte, y être contrainte,
ou encore puiser une motivation dans ses valeurs ou sa communication. On distingue généralement
les moteurs suivants dans les projets Green IT :
1. La mise en conformité par rapport à la règlementation européenne ou autre (ex : mise en œuvre
de la directive REACH dans les grands groupes industriels pour la traçabilité des substances
environnementales dangereuses) ou l’anticipation de la règlementation (ex : la mise en place de
démarche HQE et de projets Smart Grid (réseau de distribution d’électricité « intelligent ») par les
acteurs de la construction et des travaux publics).
La Commission européenne est aujourd’hui le principal « producteur » de règlementation
environnementale dans le monde, et une grande partie des autorités règlementaires de par le
monde s’inspire de ses mécanismes ou directives.
2. Les opportunités de réduction des coûts et de performance économique (ex : dématérialisation
des factures chez Bouygues ou au Ministère des Finances, dématérialisation des relevés bancaires
à la BNP Paribas).
3. La volonté d’inventer de nouveaux produits ou services différenciant
afin de profiter d’une opportunité Business ou d’améliorer l’image de
la marque auprès de ses clients (ex : Écocomparateurs de la SNCF,
notation environnementale des produits d’épargne de la banque
Crédit Agricole).
4. L’appartenance du développement durable au cœur de la stratégie
de l’organisation avec un engagement social et environnemental fort.
Cette stratégie se décline alors en objectifs opérationnels et projets
auxquels le SI est associé. L’engagement des grandes entreprises
sur la voie de la Neutralité Carbone est un exemple : (ex. HSBC,
Danone et d’autres grandes entreprises).
5. L’impulsion collective et les changements culturels qui
s’accompagnement d’un changement des habitudes de travail (ex
: projets de mobilité, télé travail et web-conférences).
6. Une demande d’un engagement plus fort de l’entreprise sur
les enjeux environnementaux qui peut venir soit de l’interne (les
salariés), soit de l’externe (les clients, éventuellement relayés par les
médias, les ONG ou les voix politiques). Généralement, la DSI ne sera
que l’un des rouages des programmes d’actions environnementales
qui pourraient être lancées par l’entreprise.
Dans tous ces cas, comme pour l’arbitrage de tout projet informatique,
une justification économique reste l’élément clé pour mener à bien les
projets « étiquetés Green IT ».
Les sponsors de ces projets sont le plus souvent la direction générale
poussée par la stratégie de l’entreprise. Une partie de ces initiatives
est toutefois à mettre à l’actif du DSI dans un mode proactif vis-à-vis
du reste de l’entreprise.
Au sein des grandes entreprises publiques et privées, les avancées environnementales de l’IT ont
souvent été initiées par les départements Développement durable. Ils se sont généralement traduits
par des projets concrets relatifs à la réduction de la consommation de papier, au recyclage du matériel,
à la mise en place d’alternatives sur les déplacements des collaborateurs, aux solutions de télétravail
et de mobilité…
Le sujet « Green IT » commence à être identifié comme un sujet à part entière. On constate aujourd’hui
l’émergence d’un nouveau métier au sein des grandes DSI : le chef de projet Green IT. Ce dernier peut
jouer plusieurs rôles : correspondant SI et collecteur d’information pour le directeur Développement
durable, chef de projet agitateur d’idées ou coordinateur des actions environnementales de la DSI,
responsable de programme (programme Green Computing chez Axa Technology Services, Greening
IT Program chez BNP Paribas…), etc.
IT-expert n°85 - mai/juin 2010
27
La maturité des organisations sur le sujet reste toutefois très variable selon les secteurs et leur sensibilité
au développement durable.
Parmi les mesures au plus fort potentiel de réduction de l’empreinte écologique, on peut citer :
• la dématérialisation (visioconférence, télétravail et E-Commerce),
• l’optimisation des consommations électrique en heures de pointe (pilotage à distance du
chauffage et des équipements domestiques (« smart home », recharge « intelligente » des véhicules
électriques),
• l’optimisation des transports (optimisation des réseaux logistiques professionnels, aide à la conduite
des véhicules, TIC embarquées pour permettre le développement du « paiement au kilomètre » (de
l’assurance au kilomètre jusqu’à l’autopartage type Autolib’).
Globalement, les réalisations concrètes restent encore modestes, mais les économies réalisées et
l’efficacité de certaines solutions Green IT semblent conforter une demande croissante de la part des
entreprises sur le sujet.
Les acteurs de l’univers « Green IT »
Pour aider les entreprises et organisations à prendre en compte le sujet Green IT, des acteurs émergent
sur ce secteur en cours de structuration.
Direction Générale
Constructeurs
Directions métiers
Cabinets de conseil TIC et DD
Fournisseurs d’énergie
Editeurs
Autres prestataires
Infogérant
Personnel de l’entreprise
DSI
INFRASTRUCTURES
EXPLOITATION
DEVELOPPEMENT
L
E
S
H
O
M
M
E
S
PRESSION
Clients / Engagement RSE /
Parties prenantes / Lobbying
Les institutionnels de la
Fonction SI
© ORESYS
Les principaux acteurs de l’univers Green IT
28
IT-expert n°85 - mai/juin 2010
Le Règlementaire ou
Législateur
Quoi de neuf Docteur ?
Les fournisseurs (de matériels, de logiciels, de conseil et d’expertise…)
• Les constructeurs sont les premiers acteurs à s’être emparés du sujet Green IT. Regroupés dans
des groupes de travail comme le Green Grid, ils ont participé à la création d’un marché Green IT
sur le matériel aujourd’hui mature comme en témoigne l’usage de l’indicateur PUE (Power Usage
Effectiveness) qui mesure l’efficacité énergétique des équipements informatiques. L’abondance
des projets et de littérature sur la consommation énergétique des matériels et datacenters est de
leur fait.
• Les éditeurs de logiciels sont également dynamiques. On peut segmenter ce marché de la façon
suivante :
- Les solutions spécifiques de collecte de données et de système de reporting (Enablon, Verteego,
Tennaxia…),
- Les logiciels de virtualisation, d’exploitation, de réseau…
- Les logiciels d’optimisation du poste de travail (Avitis…),
- Les logiciels de mesures de l’empreinte de la DSI, de bilan carbone de l’entreprise (mettant en
œuvre les méthodes de calcul ADEME ou autres),
- Les solutions de travail à distance, WebEx, plateforme collaborative 2.0…
- Les plateformes collaboratives qui agissent par pédagogie et partage de bonnes pratiques
permettent d’agir sur l’usage et les comportements (CarbonHub…). À noter que ces dernières
peuvent être très efficaces du fait du mouvement citoyen qui se met en place autour du
Développement durable et du Green IT.
• Les cabinets de conseil en TIC et/ou Développement durable qui apportent efficacité et conseil
dans ce marché en ébullition.
Les institutions et associations de la fonction informatique
• En France, le Syntec Informatique a mis en place un groupe de travail sur le Green IT à l’origine de
la parution de deux livres blancs (dématérialisation, télétravail).
• Le CIGREF est à l’origine d’un outil d’auto-évaluation de l’écoresponsabilité du SI. Le monde de
l’informatique français est en cours de structuration autour du sujet Green IT.
Les législateurs français, européens ou internationaux
Le Green IT est né et est tiré par la règlementation. Le facteur de dynamisme du secteur n’est pas que
le reflet des fournisseurs, éditeurs et cabinets de conseil souhaitant créer un nouveau marché. Ce
marché existe (ou existera) du fait des nouvelles contraintes règlementaires portées par les politiques
et les citoyens.
Le rôle du législateur s’est avéré et reste essentiel dans la structuration de l’univers Green IT. Au
niveau européen, par exemple, certaines directives majeures contraignent les entreprises à
se transformer, à définir et outiller de nouveaux processus métier. La DSI intervient pour créer les
nouveaux outils de tracking et de consolidation/reporting développement durable, pour modifier/créer
de nouveaux processus (par exemple certains simples d’alerte éthique, d’autres très complexes). Parmi
ces réglementations certains processus SI sont concernés comme le suivi du cycle de vie du matériel
qui doit inclure la fin de vie et recyclage.
IT-expert n°85 - mai/juin 2010
29
Trois directives majeures vis-à-vis de la DSI donnent presque systématiquement lieu à des projets
dans les entreprises :
• DEEE (Déchets Équipement électrique électronique): enlèvement et traitement des déchets
d’équipements électriques et électroniques professionnels et modalités de traitement de ces déchets
(pour tous les équipements fonctionnant avec une prise électrique, une pile ou un accumulateur) –
décret n°2005-829 du 20 juillet 2005
• RoHs (Restriction of the use Of Hazardous Substances in electrical and electronic equipment) :
limitation de l’utilisation de 6 substances dangereuses dans les équipements électriques et
électroniques – directive 2002/95/CE
• Reach : enregistrement, évaluation et autorisation des produits chimiques – règlement du
18/12/2006
À l’échelle française, au titre de l’Engagement national pour l’Environnement issu du Grenelle de
l’Environnement, une prochaine étape d’ici à 2011 pourrait être l’obligation pour les entreprises de
plus de 500 personnes et les collectivités territoriales d’élaboration d’un bilan d’émissions des
gaz à effet de serre. Début mai 2010, les suites du Grenelle de l’Environnement sont discutées par
les députés à l’Assemblée Nationale, notamment à la suite de la parution du rapport du député Michel
Havard sur l’obligation d’élaboration d’un bilan d’émissions des gaz à effet de serre. La DSI serait alors
un partenaire privilégié pour l’application de cette règlementation.
Il est clair aujourd’hui que la règlementation environnementale se fera de plus en plus contraignante
dans les années à venir, en Europe ou ailleurs.
Conclusion
Réglementaire
Pression réglementaire
Pour l’entreprise et pour la DSI
1. Diagnostic Empreinte
Environnementale
DSI
 Proposer des solutions
/ outils innovants
ENTREPRISES
Clients
2. Plan d’action
3. Mesure et suivi
 Proposer des outils de
reporting et de mesure
Coûts
Innovation
Opportunité businesss
© ORESYS
Le Green IT - des projets au centre des préoccupations Développement durable des entreprises
30
IT-expert n°85 - mai/juin 2010
Quoi de neuf Docteur ?
Le décalage peut paraître important entre le « bruit » médiatique autour du Green IT et les réalisations
concrètes dans les entreprises. Reste que la problématique du développement durable est devenue
incontournable dans les objectifs et les modes de fonctionnement des entreprises en France, et plus
largement en Europe.
Selon une étude du cabinet BCG de janvier 2009, l’usage des TIC serait indispensable pour mettre
en place les nouvelles solutions dans les secteurs où l’essentiel des réductions d’émissions de Gaz à
Effet de Serre (GES) est possible. Il pourrait contribuer à un tiers de l’objectif de réduction national
d’ici 2020.
La capacité de la DSI à réduire sa propre empreinte environnementale n’adresse qu’une partie de
la problématique (même si elle est non négligeable). Le véritable enjeu réside dans la capacité des
DSI à accompagner la transformation des entreprises vers une performance à la fois économique et
environnementale, une performance… durable.
Avec le durcissement des règlementations et les enjeux économiques qui peuvent être atteints grâce
à des solutions IT, la DSI a l’opportunité de jouer un rôle clé dans les entreprises autour du Green IT,
pour ces prochaines années.
Sujet de mode, le Green IT va devenir une préoccupation majeure. Il impacte non seulement la DSI et
l’entreprise mais également les clients et les partenaires externes. n
François-Xavier Chenevat,
Responsable de l’activité
Développement durable
Arnaud Mestre,
Consultant en charge
des offres Green IT
Érik Ghesquière,
Directeur associé du cabinet,
depuis plus de 25 ans en conseil
auprès des Directeurs
du Système d’information
Acteur majeur du conseil en management et organisation, Oresys est une société indépendante de 230 consultants basée à Paris, Lyon,
Bruxelles qui aide ses clients à piloter leurs activités, améliorer la performance et mettre en œuvre leurs projets de transformation.
ORESYS intervient sur toutes les dimensions : métiers, organisation, processus, système d’information, accompagnement du
changement.
Site web : http://www.oresys.eu/
IT-expert n°85 - mai/juin 2010
31
Le web sémantique :
la voie royale pour gérer
l’information ?
À l’heure où l’on commence à parler du Web 3.0, le web sémantique
revient sur le devant de la scène. Malheureusement dix ans après
avoir été lancé par Tim Berners-Lee, force est de constater que le
web sémantique est loin d’être une réalité. Cependant s’il a été
initialement conçu et imaginé pour une utilisation dans le cadre
du Web, le web sémantique, mais surtout les technologies qu’il
sous-tend, intéresse de plus en plus les organisations en quête
d’interopérabilité et d’automatisation plus importante de la gestion
de leurs informations.
32
IT-expert n°85 - mai/juin 2010
Comment ça marche ?
L’agent logiciel au coeur du système
Aujourd’hui, le Web est exploité par des individus qui recherchent
des informations via des moteurs de recherche et qui exploitent
eux-mêmes les résultats. Demain, le Web devenu sémantique
sera exploité en priorité par des machines et des agents logiciels,
qui traiteront eux-mêmes les questions posées par les individus
pour leur apporter le résultat le plus pertinent.
Comment l’intelligence vient à l’agent
Qu’est-ce qu’un agent ?
Il est difficile de donner une définition du terme d’agent tant la notion même d’agent reste ambigüe. Non seulement ce terme
est utilisé pour désigner des applications qui sont souvent très différentes, mais aussi de nombreuses communautés venant
d’horizon divers utilisent les agents pour des applications très différentes les unes des autres.
Dans cet article, la définition qui correspondra le mieux est donnée par Jacques Ferber (dans « Les systèmes multi-agents :
vers une intelligence collective », Intereditions Paris, 1995) : « On appelle agent intelligent une entité réelle ou abstraite qui est
capable d’agir sur elle-même et sur son environnement, qui dispose d’une représentation partielle de cet environnement, qui,
dans un univers multi-agents, peut communiquer avec d’autres agents et dont le comportement est la conséquence de ses
observations, de sa connaissance et des interactions avec les autres agents. »
Structure d’un agent
La figure suivante présente la structure simplifiée d’un
agent intelligent.
Un agent intelligent évolue dans un environnement. Il
doit être en mesure de recevoir des informations de
cet environnement (par des récepteurs) et d’agir sur ce
même environnement (par des effecteurs) suivant un
comportement établi à partir des observations et du
raisonnement de l’agent.
AGENT
Récepteur
Effecteur
Intelligence
Environnement
Les modules de communications sont primordiaux, d’autant plus que l’environnement est constitué d’autres agents avec
lesquels l’agent peut coopérer pour atteindre son objectif.
Caractéristiques d’un agent
La recherche sur les technologies d’agent est relativement récente. De ce fait, elle est en perpétuelle évolution et les approches
se multiplient. Toutefois, nous pouvons identifier quelques caractéristiques qu’un agent doit posséder pour qu’il puisse être
qualifié d’agent intelligent.
Autonomie
L’agent doit pouvoir prendre des initiatives et agir sans intervention de l’utilisateur. Car, ce qui le distingue fortement d’un autre
type de logiciel tient dans son objectif spécifique et prédéfini qui lui confère son autonomie.
Capacité à communiquer et à coopérer
L’agent doit pouvoir échanger des informations plus ou moins complexes avec d’autres agents, avec des serveurs ou avec
des humains.
Capacité à raisonner, à réagir à leur environnement
L’agent doit être capable de s’adapter à son environnement (qui peut être composé d’autres agents, du web en général ou
des utilisateurs) et aux évolutions de celui-ci. Cette adaptation doit s’appuyer sur l’analyse de l’environnement extérieur.
Mobilité
Les agents doivent pouvoir être multi-plateformes et multi-architectures. Ils doivent pouvoir se déplacer sur le réseau où ils
accomplissent des tâches sans que l’utilisateur ait le moindre contrôle sur celles-ci.
IT-expert n°85 - mai/juin 2010
33
Grâce au web sémantique, proposé initialement par le W3C,
le Web va devenir un espace d’échanges d’informations
entre individus et machines, donnant accès à un très grand
volume d’informations, et fournissant les moyens de gérer ces
informations.
À la différence du Web que nous connaissons aujourd’hui, le web
sémantique permettra aux utilisateurs de se décharger d’une
bonne partie de leurs tâches de recherche, de construction et
de combinaison des résultats.
Cependant, pour qu’une machine puisse traiter l’énorme volume
d’informations disponibles sur le Web, et donc fournir une
aide importante aux utilisateurs, elle doit être caractérisée
par une capacité accrue à accéder aux ressources et à
raisonner. En d’autres termes, elle doit posséder un minimum
d’intelligence.
Aujourd’hui il existe sur le Web, des moteurs d’indexation
et de recherche, des procédures d’extraction et d’analyse
d’information, qui lui confère une certaine intelligence. Toutefois,
cette intelligence est beaucoup trop rudimentaire pour pouvoir
satisfaire aux conditions du web sémantique.
En effet, nous n’avons pas encore la possibilité d’exploiter des
connaissances pour une gestion plus efficace des informations :
recherche par le contenu des documents, raisonnement,
résolution de problèmes, etc.
Le web sémantique a donc la lourde tâche d’apporter des
solutions et donc des outils pour résoudre ce problème
majeur.
Cinq défis majeurs à relever
Le web sémantique est d’abord une nouvelle infrastructure
devant permettre à des agents logiciels d’aider plus efficacement
différents types d’utilisateurs dans leur accès aux ressources sur
le Web qu’il s’agisse de sources d’information et/ou de services.
Pour y parvenir opérationnellement, le web sémantique doit
relever plusieurs défis :
La gestion de la diversité des utilisateurs, des contenus et
des moyens d’accès
• Comment rendre le Web réellement accessible ?
• Comment combiner efficacement les différents médias
disponibles sur le Web ?
• Comment adapter les contenus aux différents moyens
d’accès : réseaux et terminaux ?
La gestion des modèles de représentation des connaissances
• Comment aboutir à un consensus sur les différents
langages de représentation des connaissances ou
sur les ontologies utilisés ?
• Comment assurer, de la manière la plus automatique
possible, l’interopérabilité et les transformations entre
les différents formalismes et les différentes ontologies ?
34
IT-expert n°85 - mai/juin 2010
La manipulation de documents multimédia
• Comment représenter le contenu sémantique d’images,
de sons ou de vidéos ?
• Comment annoter automatiquement des images,
des sons ou des vidéos pour en améliorer la recherche
d’informations ?
La gestion de la distribution
• Comment gérer les différentes architectures : services
distribués, architectures peer-to-peer, agents mobiles,
architectures Grid, etc. ?
• Comment gérer les problèmes de sécurité sous-jacents ?
La gestion intelligente des services
• Comment prendre en compte la sémantique dans la
description, la découverte, la sélection et la composition
de services ?
• Comment permettre une plus grande personnalisation
et adaptation à l’utilisateur de ces services ?
Pour relever efficacement ces défis, l’idée principale du web
sémantique repose sur la séparation des informations de leur
présentation pour en faciliter la gestion et le traitement. Ces
opérations sont d’autant plus simples que les ressources
sont identifiées de manière unique et organisées autour d’une
ontologie.
Concrètement, le web sémantique peut être vu comme une
infrastructure au sein de laquelle chaque ressource est couplée
à des métadonnées, définies à l’aide de langages qui permettent
de décrire les ressources ainsi que les relations qui les lient à
l’aide de marqueurs sémantiques.
Ces langages constituent un socle pour définir des ontologies,
entités indispensables pour faciliter l’exploitation automatique ou
semi-automatique du contenu par un ordinateur tout en conservant la signification du contenu pour les êtres humains.
Le web sémantique vise
l’automatisation
et non la compréhension !
La vocation première du web sémantique est de faciliter la
communication entre machines et agents logiciels. Il ne s’agit
en aucun cas de traiter du langage naturel qui est la vocation
du Traitement automatique du langage (T.A.L.).
Schématiquement, le web sémantique cherche à associer une
structure à l’information non structurée pour en faciliter le
traitement.
Comment ça marche ?
Des langages à la base des échanges
Différents langages de niveau de complexité croissante sont
proposés afin de mieux exploiter, combiner et raisonner sur les
contenus des ressources accessibles.
User Interface & Applications
Trust
Les vocabulaires s’affinent :
RDF, RDFS, OWL et SPARQL
Proof
RDF est au cœur des recommandations du W3C en matière de
web sémantique. Il constitue l’élément de base pour l’échange
de données, car il possède une syntaxe robuste est simple pour
décrire les documents.
Ontology:
OWL
Rule:
RIF
RDFS
Data interchange:
RDF
Crypto
Unifying Logic
Query
SPARQL
Cette approche « en couche » présente deux bénéfices majeurs :
1.Elle permet une avancée progressive et graduelle dans
les processus de standardisation et d’acceptation par les
utilisateurs.
2.Elle sépare bien les langages en fonction de leur complexité.
Ainsi, cette approche doit permettre de disposer du langage
au bon niveau de complexité, celle-ci étant fonction de
l’application à réaliser.
XML
URI/IRI
Un aspect central de l’infrastructure est sa capacité
d’identification, de localisation et d’accès aux ressources de
façon simple, robuste, et efficace. Cet accès repose sur la notion
d’URI (Uniform Resource Identifier) qui permet d’attribuer un
identifiant unique à un ensemble de ressources. L’application
la plus connue du concept d’URI est l’URL (Uniform Resource
Locator).
La notion d’URI est à la base même du langage RDF (Resource
Description Framework) qui constitue le deuxième élément
important du web sémantique : un langage pour décrire
le contenu des documents/ressources, pour associer une
sémantique à ces descriptions, et des moteurs d’inférences
pour les manipuler.
Une caractéristique importante de ce langage est d’être
systématiquement exprimable et échangeable dans une syntaxe
XML. Ceci permet de bénéficier de l’ensemble des technologies
développées autour d’XML : XML Schemas, outils d’exploitation
des ressources XML (bibliothèques JAVA, etc.), bases de
données gérant des fichiers XML.
L’objectif initial de RDF était de représenter au mieux des
métadonnées pour en faciliter l’exploitation. RDF a permis par
exemple d’exprimer de larges vocabulaires, comme le catalogue
de produits UNSPSC (United Nations Standard Products
and Services Code). De manière plus générale, RDF permet
de représenter le Web comme un ensemble de ressources
caractérisées par un identifiant, un nom, des attributs typés, et
reliées entre elles par des liens étiquetés « sémantiquement ».
Les spécifications de RDF proposent un système orienté-objet
de classes formant un schéma de données caractérisé par des
triplets obéissant à une sémantique formelle universelle. Ces
triplets sont de la forme (Sujet, Prédicat, Objet) autrement dit
(Chose, Propriété, Valeur) ou encore (Ressource, Métadonnée,
Valeur) ou tout simplement (Sujet, Verbe, Complément).
RDF définit un modèle de données abstrait, indépendant de
toute syntaxe ou mode de stockage des données. RDF est aux
données, ce que HTML est aux pages Web.
La simplicité de ce modèle peut être une des clés de son
acceptation, même s’il peut faire l’objet de nombreuses critiques
comme l’impossibilité de définir des hiérarchies de classes et
de propriétés. Pour remédier à ce problème, le langage RDFS
(RDF Schema) a été créé.
Mais pour décrire et définir des ontologies structurées, l’utilisation
RDFS n’est pas suffisante. Le W3C préconise l’utilisation du
langage OWL (Ontology Web Language) qui n’est rien d’autre
qu’un vocabulaire XML basé sur RDF.
IT-expert n°85 - mai/juin 2010
35
Le principe d’OWL est de fournir des règles et des contraintes
logiques entre les triplets définis en RDF de façon à assurer
une interconnexion entre chaque élément. En d’autres termes,
le langage d’ontologie OWL sert à décrire des classes et
leurs relations, lesquelles sont inhérentes aux documents
et applications Web. OWL constitue dès lors le ciment du
web sémantique, car il donne la cohérence nécessaire aux
imbrications formalisées en RDF.
Au final, l’intérêt de l’existence d’ontologies produites à partir
du même standard repose sur la possibilité d’une intégration
plus riche et garantit l’interopérabilité des données au travers
des frontières applicatives.
Dans un contexte « métier », une ontologie décrite avec OWL
peut également servir à énoncer des règles métiers, qui viennent
décrire les mécanismes d’un processus, propre à l’entreprise.
OWL
Règles
Ontologies
RDF schéma
Modèles de métadonnées
RDF
Métadonnées
XML schéma
Modèles de documents
XML
Documents structurés
Unicode
Données brutes
Dernier élément clé du web sémantique : SPARQL (Query
Language for RDF) le langage de requête RDF, maillon essentiel
dans la manipulation des données. S’apparentant SQL, le
langage de requête des bases de données relationnelles,
SPARQL permet d’interroger n’importe quel élément d’un triplet
RDF pour extraire l’information recherchée.
Du web à l’entreprise
D’un point de vue opérationnel, force est de constater que
le web sémantique est loin d’être une réalité même si les
premières applications sont aujourd’hui disponibles comme
les microformats.
En revanche, les technologies du web sémantique intéressent de
plus en plus les entreprises, car elles leur offrent de nombreuses
opportunités. En effet, l’utilisation des ontologies offre trois
avancées majeures : des possibilités de recherche améliorées,
une automatisation des tâches possibles bien plus importantes
et surtout une interopérabilité des systèmes que nous allons
présenter dans les paragraphes suivants.
36
IT-expert n°85 - mai/juin 2010
Microformats, premières applications
du Web sémantique
L’objectif des microformats consiste à intégrer au cœur
des documents HTML des éléments sémantiques afin de
faciliter l’échange d’informations entre machines.
Pour y parvenir, les microformats apportent des marqueurs
sémantiques dans les attributs HTML classiques.
Côté usage, les microformats servent aujourd’hui à décrire
des données liées à la personne, comme son profil,
son carnet d’adresses, l’agenda ou encore les données
liées aux coordonnées géographiques. Des informations
susceptibles d’être traitées par une autre application en
ligne, échangées, ou tout simplement sauvegardées.
Il existe aujourd’hui un certain nombre de microformats
qui fournissent des marquages spécifiques :
• hCard : pour l’échange d’informations liées aux
contacts
• hCalendar : pour la les événements
• hResume : pour la description des CV
• XFN : pour formaliser les relations entre personnes
• hReview : pour les critiques
De nombreux sites importants utilisent les microformats :
Flickr, Technorati, Ice Rocket, Meet-up, .Mac…
Améliorer la recherche
Les ontologies offrent des capacités de recherche très puissantes.
En effet, l’objectif d’une ontologie est de modéliser les différents
concepts d’un domaine et surtout de définir les liens qui existent
entre ces concepts. Chaque élément des documents qui utilisent
cette ontologie possède une représentation sémantique. De
ce fait, il est beaucoup plus facile d’effectuer des recherches
complexes constituées d’éléments possédant une relation
sémantique.
Par exemple, la recherche des dirigeants des entreprises
pharmaceutiques européennes est beaucoup plus simple à
l’aide d’une ontologie, car celle-ci décrit les liens qui existent
entre un dirigeant et une entreprise, entre une entreprise et un
secteur d’activité, etc.
Simplifier l’automatisation
Chaque élément des documents étant représenté grâce à une
ontologie (la machine est capable de connaître leur signification
et les relations qui les lient), il devient très facile d’automatiser
certaines tâches grâce à des algorithmes d’inférence.
L’inférence est un processus qui permet de produire de nouvelles
informations à partir d’autres informations tenues pour acquises
à partir de règles formelles.
Comment ça marche ?
Dans son expression la plus basique, l’inférence revêt la forme
d’un simple mécanisme de « pattern matching », c’est-à-dire un
mécanisme qui permet de comparer deux modèles et de les
appareiller s’ils sont semblables. Si par contre les informations
fournies ne sont pas semblables, des mécanismes plus
complexes, avec des chaînes de raisonnement plus importantes,
peuvent être requis.
Ainsi, les algorithmes d’inférence définissent des actions à
réaliser en fonction des types de concepts et des relations
existantes entre eux. En d’autres termes, on définit des tâches
à partir des métadonnées, ensuite grâce à la description du
document à l’aide de l’ontologie, on est en mesure d’exploiter
les entités du document pour réaliser les tâches définies de
manière totalement automatique.
qui permettent aux utilisateurs d’avoir une vision partagée des
informations et des connaissances de l’entreprise, malgré
l’hétérogénéité de leurs sources. Cette vision pouvant aussi
correspondre à une vue plus abstraite et qualitative des données
et donc plus signifiante pour l’utilisateur.
Un hub de connaissance permet de gérer un processus
complexe d’accès aux connaissances provenant de sources
hétérogènes :
Sécutrité
De l’importance de l’interopérabilité
Parmi les différents aspects informatiques, celui de l’intégration
des systèmes d’information est sans doute l’un des plus
importants. Malheureusement, la plupart des organisations,
au cours des années, ont multiplié les systèmes pour gérer
l’information et la connaissance : G.E.D., bases de données,
groupware, intranet, etc. Au final, elles ont mis en place des
systèmes autonomes et hétérogènes, possédant chacun un
modèle de données spécifique.
Les efforts consentis sur les middlewares n’ont de véritables
impacts que sur les processus et très peu sur les modèles
de données. Ceci handicape énormément les systèmes
d’information visant à intégrer différentes sources de données
qui doivent faire l’objet de développements spécifiques aussi
coûteux que difficiles à réaliser et maintenir.
Parmi les solutions possibles à ce problème, les technologies
sur lesquelles repose le web sémantique semblent aujourd’hui
être le moyen qui s’impose pour faciliter l’interopérabilité entre
les systèmes d’informations de l’entreprise. Les ontologies
fournissent les interfaces idéales entre l’information et les
diverses applications qui souhaitent les utiliser à des fins de
traitement. En effet, les ontologies offrent la possibilité de
représenter et d’organiser la connaissance à l’aide d’un unique
modèle de données commun à l’ensemble des applications
de l’entreprise. Elles offrent le moyen de mettre en place des
référentiels métiers partagés sur lesquels vont pouvoir être
adossées les connaissances et informations. De plus, les
ontologies représentent un moyen efficace pour fédérer
l’information ou du moins centraliser son référencement, quels
que soient son format et sa localisation. Le web sémantique
fournit ainsi une infrastructure facilitant l’intégration de sources
d’informations hétérogènes.
D’un point de vue opérationnel, les technologies du web
sémantique peuvent être utilisées pour la mise en place de
hubs de connaissances dont le rôle est d’unifier et d’organiser
l’accès aux différentes sources d’information disponibles dans
l’entreprise. Il s’agit en quelque sorte de systèmes de médiation
Publication
Personnalisation
Organisation
Index
Texte
Accès
Métadonnées
Sécutrité
Web
Documents
Groupware
DWH
1.Sélection des sources pertinentes étant donnée une requête
posée,
2.Accès à ces sources pertinentes quels que soient leurs
propres modalités et leur propre vocabulaire,
3.Combinaison automatiquement des réponses partielles
obtenues à partir de plusieurs sources de façon à délivrer
une réponse globale.
Prenons un exemple pour illustrer ces propos. Supposons qu’un
utilisateur pose la requête suivante : Quels sont les spectacles
à l’affiche à Montpellier ce soir ? Où ont-ils lieu ? Quelles sont
leurs critiques ?
Imaginons qu’il existe deux sources d’information. La première,
reposant sur des fichiers XML, offre la liste des spectacles, leur
type, leur nom, éventuellement les comédiens et les critiques.
La seconde, reposant sur une base de données relationnelle,
contient, pour chaque spectacle, le nom de la salle où le
spectacle a lieu et son adresse exacte. La réponse à la requête
devra être construite en interrogeant chacune d’elle et en
combinant les résultats de l’interrogation de façon à offrir à
l’utilisateur une réponse globale.
Pour parvenir à ce résultat, la conception du serveur de connaissances peut reposer sur une approche dite centralisée qui
consiste à définir une ontologie qui regroupe l’ensemble des
concepts et des relations modélisant le domaine d’application
du système.
IT-expert n°85 - mai/juin 2010
37
Requête
Hub
de connaissances
Wrapper
Wrapper
Wrapper
Wrapper
L’utilisateur pose alors ses requêtes dans les termes du
vocabulaire structuré fourni par l’ontologie qui va établir la
connexion entre les différentes sources accessibles.
Ensuite, l’interrogation effective des sources se fait via des
adaptateurs, appelés « wrappers » en anglais, qui traduisent
les requêtes « abstraites » (l’intégration d’information repose sur
l’exploitation de vues abstraites décrivant de façon homogène et
uniforme le contenu des sources d’information dans les termes
de l’ontologie) dans le langage de requêtes spécifique accepté
par chaque source.
Une autre approche, dite décentralisée, peut être envisagée. Celleci consiste à considérer un groupe de hubs de connaissances
ou chacun peut indifféremment jouer un rôle de serveurs de
données ou de médiateurs avec ses pairs en participant de
manière distribuée et collective au traitement des requêtes
des utilisateurs.
Requête
Hub
de connaissances
Hub
de connaissances
Hub
de connaissances
Wrapper
Wrapper
Wrapper
Wrapper
Wrapper
Wrapper
Wrapper
Source
Source
Source
Source
Source
Source
Source
Cette approche autorise la recherche de données dans des
sources non directement connectées aux sources du serveur
interrogé.
Cependant, de nouveaux problèmes apparaissent, notamment
des problèmes liés à la connexion des différents systèmes
mis en relation. En effet, il est indispensable de définir des
correspondances sémantiques entre les ontologies manipulées
par chacun des systèmes.
Au final, le grand intérêt des hubs de connaissances réside dans
leur capacité à intégrer l’existant.
38
IT-expert n°85 - mai/juin 2010
Un bon début, mais peu de compétences
L’utilisation des technologies du web sémantique ouvre de
nouvelles perspectives en matière d’interopérabilité des systèmes
d’informations. Cependant, les entreprises qui souhaitent se
lancer dans la mise en place d’ontologies sur l’ensemble de
leur système d’information peuvent se trouver confrontées à
quelques difficultés.
En effet, il n’existe pas de méthodologie standardisée pour
guider les entreprises dans la création d’ontologies. La création
d’une ontologie est une affaire de spécialiste dans la mesure
où il faut avoir des compétences à la fois dans le domaine à
modéliser, en matière de représentation des connaissances et
en linguistique. Une pluridisciplinarité des compétences encore
peu répandue.
Et même s’il existe aujourd’hui des ontologies publiques dans
un très grand nombre de domaines, encore faut-il qu’elles soient
bien adaptées au contexte de l’entreprise… n
Gilles Balmisse,
Directeur associé Knowledge
Consult
Knowledge Consult est un cabinet spécialisé dans la mise en oeuvre de la gestion
des connaissances, du travail collaboratif, des réseaux, de la gestion des contenus,
de la veille ainsi que de la conduite du changement et des outils associés.
Site web : www.knowledgeconsult.com/fr/
Livres
Virtualisation en pratique
Les projets de virtualisation informatique se multiplient. Une tendance qui risque de perdurer et
même de s’amplifier. Et les technologies multiples (bien qu’assez proches) obligent les informaticiens
impliqués ou intéressés à bien appréhender les différences entre les solutions proposées. Correctement
traduit de l‘américain, cet ouvrage s’ouvre sur une explication des principes et des intérêts de la
virtualisation intéressant et bien illustré. Ensuite, il propose un panorama et une comparaison des
principales solutions existantes : VMware (Server et ESXi), Citrix XenServer, Microsoft (Virtual PC,
Hyper-V), VirtualBox de Sun…
La seconde partie illustrée de nombreuses captures d’écrans, des tableaux et des schémas, aborde
non seulement la virtualisation des serveurs et des postes de travail, mais aussi la virtualisation du
stockage ou des réseaux.
Après les considérations matérielles essentielles en comparant les offres des constructeurs (HP,
IBM, Dell, Sun, Assembleurs et même Cloud Computing), les auteurs se penchent sur la gestion de
ces infrastructures, point délicat qui a longtemps freiné un essor si prometteur en performance et
en productivité pour les entreprises. Très pratique, cette dernière partie aborde tous les aspects :
planification, déploiement, sécurité et postproduction. Un accompagnement pas-à-pas qu’apprécieront
autant les néophytes que les plus aguerris.
Un guide indispensable pour comprendre les enjeux et les technologies de virtualisation.
Virtualisation en pratique
Kenneth Hess, Amy Newman
Éditeur : Pearson
360 pages - environ 36 E
Gestion de projet agile
Dans la droite ligne des approches méthodologiques de développement rapide (RAD ou Rapid
Application Development), les méthodes agiles reprennent le concept d’itération et des rôles
spécifiques comme celui de « facilitateur » favorisant la discussion entre utilisateurs et informaticiens.
Ce dernier aspect est justement au cœur du succès actuel des approches comme Scrum, Lean ou
eXtreme Programming (sous-titres de l’ouvrage). En effet, le succès croissant des méthodes agiles
prouve combien cette « rupture » s’avère bénéfique pour la conduite de projets. Encore faut-il en
comprendre les ressorts.
Les conduites de projet traditionnelles consistent à recueillir les besoins et organisent de façon
généralement figée les étapes qui s’enchaînent. Les méthodes agiles visent plutôt à affiner la
définition des besoins au cours du projet, en se reposant sur la souplesse des équipes. Les auteurs
s’appuient sur leur longue expérience des projets informatiques pour expliquer comme « Recueillir
efficacement les besoins », « Planifier son projet », le suivre et en gérer les hommes. Puis l’ouvrage
aborde les approches agiles et les rôles des divers experts de ces méthodes. Le lecteur appréciera
le panorama des outils utilisables dans le cadre d’un projet agile.
Gestion de projet agile
Véronique Messager Rota
Éditeur : Eyrolles
272 pages - environ 30 E
IT-expert n°85 - mai/juin 2010
39
Ils diffusent leur code logiciel
en open-source
Depuis quelques années les solutions open source renforcent leur présence dans les entreprises à tous
les niveaux : logiciels internet, système d’exploitation, composants techniques (framework), ou encore
progiciels (ERP, CRM…). Pourquoi et comment décide-t-on de diffuser son code en open source ?
40
IT-expert n°85 - mai/juin 2010
Rubrique à brac
Les décideurs perçoivent de plus en plus les avantages à
l’utilisation de logiciels open source : disponibilité, fiabilité,
évolutivité, indépendance vis-à-vis d’un fournisseur unique, etc.
Et le « phénomène open source » a pris plus d’ampleur en quatre
ans, faisant parfois basculer des pans entiers des systèmes
d’information vers les logiciels open source.
L’objectif du projet Eclipse consiste à fournir un framework de
développement pour l’industrie informatique dont l’outil de
développement java intégré. Ensuite, cette plate-forme est
partagée avec d’autres acteurs (y compris concurrents) pour
rationaliser les coûts. Et, à leur tour les autres membres vont
rejoindre le projet.
Au-delà des consommateurs de logiciels open source, qui
sont les concepteurs de ces solutions (sociétés ou groupe de
personnes) ?
Pour comprendre la réussite de la fondation Eclipse, il suffit de
constater la présence des plus grands acteurs informatiques
parmi ses très nombreux membres.
La fondation Eclipse a stimulé la création d’outils autour du monde
Java et au-delà, contribuant activement à la croissance du marché
informatique. Sans Eclipse, les entreprises développeraient
-sans aucun doute- bien moins en langage Java. Le portefeuille
« propriétaire » d’IBM autour d’Eclipse est très riche, et contribue
sensiblement à son chiffre d’affaires, en offrant des plug-ins
(ajouts) qui facilitent la vie de ses clients.
On y retrouve diverses organisations : de grandes fondations
mondialement reconnues, des sites Internet autour du langage
de programmation Java, quelques sociétés qui éditent des
logiciels avec une version open source et une version supportée,
et des sociétés qui créent des structures afin de répondre à
leurs besoins spécifiques via la diffusion de logiciels en mode
open source.
Les grandes fondations de l’édifice Open source
Par « fondations », il faut entendre « sites communautaires qui
ont une existence légale », comme les « foundations » aux ÉtatsUnis, les associations, les GIE, etc.
La fondation apache
Toute fondation est née d’un ou plusieurs projets. Ainsi, la fondation
Apache est issue du projet de serveur Internet apache en 1995.
Et le site Web apache.org est apparu en 1999. À l’origine, l’équipe
était composée de 8 personnes. Actuellement, la fondation
est composée de centaines de membres et de presque autant
de projets (plus ou moins actifs). Le site propose un mode de
fonctionnement commun à tous les projets et un partage de valeurs
autour de l’open source, basé une licence libre très tolérante.
Quelques sociétés fondent leurs activités autour de la diffusion
avec support de logiciels de la fondation :
• Tomcat avec SpringSource et Progress Software
• ServiceMix avec Progress Software
• Maven et Sonatype
Mais, la fondation Apache vit surtout grâce à ses communautés
qui sont composées de personnes physiques qui contribuent
(sur leur temps libre ou dans le cadre professionnel) aux projets :
contribution de code source (Committers en anglais), soumission
d’anomalies, testeurs, etc. Apache dispose des communautés
les plus actives et les plus développées dans le monde du langage
de programmation Java.
La fondation Eclipse
Le projet Eclipse a été initié par la société IBM afin de doter la
communauté Java d’un outil de développement intégré (IDE en
anglais). Ceci visait à favoriser l’adoption de ce langage par ses
clients et à augmenter la taille de la communauté Java. Toutefois,
IBM disposait déjà du savoir-faire autour de son outil Visual Age
qu’il déclinait pour permettre le développement dans plusieurs
langages : Cobol, Java, etc.
Le site communautaire JBoss
L’intérêt d’une démarche open source ne se limite pas au partage
de code, mais tient aussi dans le fait qu’elle pérennise aussi un
outil ou un concept grâce à un groupe d’utilisateurs.
Ainsi, le site jboss.org offre tout l’outillage nécessaire autour de
son serveur d’application JBoss. Et les projets de la communauté
s’étendent des composants de développements (framework)
aux les outils de développements (JBoss IDE est composé de
plug-ins Eclipse !), en passant par des outils intelligents (drools
ou JBoss ESB)… La communauté JBoss est extrêmement variée
et fournit tout ce dont une entreprise a besoin pour développer
du logiciel.
La société JBoss (comme sa maison mère RedHat) fait preuve d’un
grand esprit communautaire : ses membres et leurs investissements
font évoluer les projets. Et la société JBoss emploie uniquement
le chef de projet (projet leader) et quelques développeurs qui
assurent le support des versions commerciales.
Pourquoi des sociétés sont-elles prêtes à payer des abonnements
de maintenance et de support (du service et non des licences) ?
Parce que cela leur permet d’obtenir en priorité de l’assistance
pendant une durée importante (de 5 à 10 ans). Essentiel lorsque
l’on sait que dans la version « communautaire », seule la dernière
version est maintenue. Cela oblige quasiment les utilisateurs
à adopter nécessairement la dernière version, même s’ils n’en
ressentent pas le besoin.
De nombreuses personnes participent à ces projets sous forme
de code source, tests, documentations… sans pour autant faire
partie de la société Jboss/RedHat.
Le site communautaire ow2
Le site communautaire ressemble beaucoup à la fondation
apache. D’origine européenne, cette fusion des sites
Objectweb et Orientware a pour objectif de fournir tous les
outils de développement, et les briques de middleware (serveur
d’application) au monde Java : un serveur d’application (Jonas),
un ESB (Petals), des outils de processus métiers (Bonita), des
outils de reportings (SpagoBI) etc.
IT-expert n°85 - mai/juin 2010
41
Quelques sociétés comme Bonitasoft ou Petals link se
développent rapidement, démontrant la validité économique
du modèle open source, y compris dans l’Hexagone.
Les éditeurs open source
Pourquoi un éditeur choisit-il dès le départ de diffuser son
logiciel sous la forme d’une licence open source ? Deux raisons
principales se détachent pour expliquer ce choix :
• Le marché n’est pas mûr pour ce type de produit. L’existence
d’un outil open source favorise son utilisation par un plus
grand nombre d’utilisateurs. Une fois son utilisation répandue,
les offres de supports, de consulting et de formation peuvent
se justifier.
• Ce type d’outil est déjà très présent sur le marché, et il
s’agit de démontrer que ce logiciel apporte plus et mieux
pour beaucoup moins cher, y compris dans une version
supportée.
Deux démarches illustrées par le moteur de règles drools de
JBoss et l’outil ETL de Talend.
Le moteur de règles drools de JBoss
Il existe de nombreux outils autour de l’intelligence artificielle et
des moteurs de règles. La complexité de ces outils ne simplifie
pas leur prise main et leur installation, sans parler des coûts
de licence qui les réservent à un marché de niche. Le projet
open source drools a été placé sur le site codehaus.org. Les
contributeurs de ce projet ont ensuite été recrutés par JBoss.
En cinq ans, Drools est passé du statut de simple moteur de
règles à celui d’outil de management du cycle de vie des règles
de gestion en entreprise. drools ne beneficie pas de la maturité
de quelques outils propriétaires disposant de plus de 20 ans
d’existence, mais il s’en approche. À l’origine, simple outil, drools
s’est progressivement enrichi de multiples fonctionnalités, et
s’est doté d’outils de mise en place évolués pour assumer des
tâches plus complexes.
L’outil ETL de Talend
Il y a quelques années, le marché des ETL était exclusivement
dominé par quelques grands noms de l’informatique qui avaient
le plus souvent racheté de plus petits éditeurs spécialisés.
Ces derniers avaient dans un premier temps convaincu de
nombreux clients grâce au niveau de fonctionnalités avancé et
à l’indépendance de leurs solutions face aux grands éditeurs.
Dans ces conditions, difficile pour un nouvel arrivant de jouer
sur l’indépendance de façon crédible. C’est pourquoi la société
Talend a innové en fournissant un ETL open source de très
grande qualité. Aujourd’hui, il bouscule clairement les acteurs
installés sur ce marché. En effet, Talend offre des versions
commerciales qui ajoutent des fonctionnalités d’entreprise (droit
d’accès, partage de code, serveur exécution de batch, etc.).
Plus récemment, un outil de MDM est venu s’ajouter à l’offre
existante et permet d’offrir une plate-forme logicielle qui vient
prendre des parts de marché aux grands éditeurs du marché
(IBM, Oracle, etc.)
42
IT-expert n°85 - mai/juin 2010
Les projets de partage des ressources
Quelques sociétés décident de mettre en commun des
ressources internes ou de créer une société commune pour
des besoins informatiques. Un mode de fonctionnement qui
se répand à l’exemple des GIE informatiques en France. Moins
fréquent, certains vont jusqu’à en diffuser le code en mode
open source.
Le projet capatincasa.com est un consortium de sociétés
qui mettent en commun un framework Java pour faciliter le
développement d’interfaces graphiques. Un retour vers le
« client lourd,java swing/applet java ». Ce projet est orchestré
par une personne rémunérée par les membres, et animé par des
développeurs internes de ces mêmes sociétés. Régulièrement,
les membres se réunissent pour parler du projet et arrêter des
décisions techniques. Ce mode de fonctionnement original
est mené à l’initiative des décideurs informatiques et repose
sur des principes simples et pragmatiques d’efficacité autour
d’une problématique simple de développement d’interfaces
graphiques.
Le projet vaadin s’intéresse aussi au développement d’interfaces
graphiques en Java, mais son modèle économique est différent.
En effet, les membres confient à la communauté du projet le
développement ainsi que la maintenance de leurs applications.
En contrepartie, le groupement (qui est une société) fournit
la couche technique et la maintient dans le temps. Il s’agit
en fait d’une couche technique de présentation proche du
développement de clients lourds en java. Toutefois, vaadin
recours à un explorateur internet standard de type Firefox.
Pour permettre la richesse événementielle d’un client riche, le
framework vaadin génère du code JavaScript qui s’exécute sur
le poste client. Cette démarche est assez proche du framework
apache wicket. L’originalité du projet vaadin est de garantir une
compatibilité du code métier dans le temps. Avant 2007, le projet
vaadin utilisait son propre framework JavaScript comme moteur
de rendu. Puis il est passé à Google Web Toolkit (GWT), sans
modifier l’interface de programmation de son framework.
Rubrique à brac
Dans ces deux exemples, la diffusion des composants en
open source peut paraître secondaire. Pourtant, il est au cœur
de la stratégie visant à ne pas enfermer l’utilisateur dans une
technologie propriétaire. L’objectif consiste à faire participer
de nouveaux adhérents afin de pérenniser la solution mise en
œuvre. Plusieurs types d’adhésion sont possibles :
• L’utilisateur peut prendre le socle, l’utiliser et y participer
sous une forme communautaire ;
• L’utilisateur souhaite bénéficier de la formation et du service
dans le cadre de ses projets, voire du support et de la
maintenance autour du socle ;
• L’utilisateur peut confier le développement et/ou la maintenance de ses développements à Vaadin. Ce dernier point
représente une approche originale et peu répandue.
Pourquoi proposer son code logiciel
en open source ?
Pour des sociétés utilisatrices, la motivation essentielle pour
mettre une partie de son portefeuille logiciel en open source doit
viser un objectif concret et précis. Proposer du code en open
source sans réel objectif clairement défini ne mettra pas en valeur
le logiciel et risque de créer des déceptions et désillusions.
Le monde de l’open source est souvent perçu comme un monde
idéal et parfait. En réalité, il s’agit plutôt d’un écosystème :
• très exigeant : ceci est accentué par le côté transparent des
éléments techniques dont le code source, la documentation
associée, etc. Ceci diffère des logiciels propriétaires dont il
est impossible de connaître le fonctionnement interne. Seul
le fonctionnement « boite noire » est possible. Ce qui permet
au seul éditeur d’améliorer le fonctionnement interne et son
architecture lors des nouvelles versions.
• très « effet de mode » : il faut être présent dans les salons
spécialisés, dans la presse, sur les bons blogs, etc. Cela
demande donc des ressources dédiées dont le seul objectif
est d’animer et de maintenir le tissage de ce « réseau » pour
permettre au projet d’être vu et reconnu. Les questions qui seront
sans cesse posées : N’existe-t-il pas d’autres solutions sur le
marché ? En quoi votre projet est-il différent ? Pourquoi n’avezvous pas cherché à vous rapprocher d’un autre projet ?
• de communautés : Il faut faire vivre sa communauté, recruter
de nouveaux membres, animer les blogs, les forums, animer
les canaux de chat (IRC), etc. De plus, il faut disposer d’une
équipe « core » qui permet un fonctionnement continu du
projet. C’est la richesse et la motivation de sa communauté qui
va permettre à un projet de durer et de s’étendre. Il nécessite
des équipes motivées et convaincues de la démarche.
Le projet candidat à la mise en open source doit déjà disposer
d’une communauté interne importante et qui doit satisfaire aux
critères du monde open source :
• Une architecture technique et logicielle documentée et justifiée,
• Un code source qui suit les recommandations architecturales,
• Des tests unitaires automatisés et complets pour permettre de
valider la non-régression fonctionnelle lorsque de nouveaux
contributeurs arriveront sur le projet,
• Une documentation qui permet au nouvel arrivant d’entrer
facilement dans le projet,
• Une forge de développement type sourceforge pour permettre
le travail collaboratif,
• Des outils d’intégration continue et de qualité pour permettre
de contrôler et de suivre la qualité du projet,
• Une équipe et un chef de projet solides dès le départ,
• Une volonté de la hiérarchie de faire vivre le projet open source
en plus du projet interne. Ce point n’est pas à négliger, car il
sera important dans le temps de conserver l’équipe dédiée
au projet open source. D’autant qu’il faut du temps pour
établir une communauté,
• Une fois que la communauté démarre, il faut admettre que
le projet suive des intérêts ou des chemins qui ne sont pas
ceux que l’on aurait choisis pour un projet interne. Ceci est
notamment vrai pour les priorités dans la correction des
anomalies ou dans le traitement des évolutions,
• Il faut prévoir dès le début une possibilité de « support payant »
pour permettre à certains, y compris en interne, de disposer
des maintenances de versions finalisées.
Quelques pistes pour réussir
Le monde open source est riche en nouveaux projets. Très peu
survivent dans le temps par manque d’implication de leurs
membres et par sous-estimation de l’énergie et des moyens à
mettre en oeuvre. Mettre en place un projet open source doit
faire partie de la stratégie de l’entreprise ou de ses projet
Les principaux points de réussite sont :
• La mise en place nécessite des équipes très motivées et qui
y voient un intérêt personnel important.
• Lancer un projet open source avec une gestion de projet
classique ne fonctionne pas. Un chef de projet open source
doit être un leader charismatique qui fédère une somme
d’individualités, et qui s’entoure de personnes plus compétentes
que lui sur de nombreux sujets. Il doit être respecté par les
membres de son équipe et de la communauté qu’il dirige.
• Un outillage informatique important doit permettre d’automatiser un maximum de tâches.
• Le projet doit vivre dans le temps et cela peut durer quelques
années.
• Une présence dans toutes les manifestations du monde open
source s’impose pour offrir une vitrine à la communauté, et
recruter de nouveaux membres et utilisateurs. n
Nicolas Héron,
Architecte J2EE, SOA et moteur
de règles au sein du groupe Adéo,
contributeur au projet drools
IT-expert n°85 - mai/juin 2010
43