Activités de test externalisées : 5 conseils pour - IT

Transcription

Activités de test externalisées : 5 conseils pour - IT
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Activités de test externalisées :
5 conseils pour augmenter les chances de succès
Une dette technique ruineuse pour la DSI
Bimestriel - janvier/février 2012
Ingénierie des Performances : une approche orientée
performance pour sécuriser la disponibilité des applications
en production
n°95
édito
2012 : une année clé pour votre entreprise ?
IT
LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE
Réseaux sociaux, e-mails, audio-vidéo… l’explosion
des volumes de données et des échanges en ligne
repoussent chaque jour les limites nécessaires en
infrastructure. Pour tenter d’anticiper les besoins,
éditeurs et constructeurs se démènent et innovent
à grands pas : virtualisations, cloud, stockage,
administration d’infrastructure…
De multiples innovations ont pris leur essor en 2011, et secoué considérablement la gestion d’infrastructure, ainsi que les modes de ventes des
logiciels et du matériel.
Fort heureusement, ces évolutions concrétisent généralement les démarches déjà imaginées pour améliorer la qualité et l’efficacité des services
informatiques (Itil , par exemple).
Certes, toutes les entreprises n’ont pas atteint le même stade de maturité
informatique. Et, la résistance au changement est proportionnelle au degré
élevé de remise en cause des pratiques traditionnelles. En outre, le SI
existant -souvent pesant et rigide- ne favorise pas l’évolutivité.
Quoi qu’il en soit, les entreprises qui montent dans le train de l’innovation (même si elles nécessitent du temps pour implémenter les choses)
profiteront d’un avantage évident, avec le plus souvent un retour sur
investissement appréciable.
En 2012, votre entreprise restera-t-elle sur le quai ?
José Diz
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
José Diz
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Conception Graphique
Nicolas Herlem
Email : [email protected]
Parution
IT-expert - (ISSN 1961-9855) est un journal
édité 6 fois par an, par P&C France, sarl
de presse au capital de 60 976,61 €.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf
dans les cas prévus par les articles 40 et
41 de la loi du 11 mars 1957. © 1996 P&C
France. Toutes les marques citées sont des
marques déposées.
Les vues et opinions présentées dans cette
publication sont exprimées par les auteurs
à titre personnel et sont sous leur entière
et unique responsabilité. Toute opinion,
conseil, autre renseignement ou contenu
exprimés n’engagent pas la responsabilité
de Press & Communication.
Abonnements
01 46 90 21 21
Dossiers en accès libre :
http://www.it-expertise.com/
2
IT-expert n°95 - janvier/février 2012
IT-expert n°95 - janvier/février 2012
Sommaire
4 Dossier
Activités de test externalisées : 5 conseils pour augmenter les chances
de succès
Après avoir défini les enjeux de l’externalisation des tests (en off-shore, near-shore
ou sur site), l’auteur détaille les tâches et activités de tests et distille ses 5 conseils
pour en déterminer le(s) périmètre(s) et mettre en place une méthode de suivi et de
collaboration, avec des outils adaptés. Des conseils de terrain éprouvés et très utiles.
14
Technique
Une dette technique ruineuse pour la DSI
Combien coûte la correction de code d’une application en production ? Selon les
choix technologiques, la note s’avère plus ou moins salée. Démonstration à l’aide de
l’enquête annuelle menée par l‘éditeur CAST qui analyse la qualité structurelle de 745
applications issues de 160 sociétés.
24
Actualités Internationales
30
Comment ça marche ?
Les informations marquantes d’éditeurs, de marchés, d’organisme
de standardisation, de débats en cours et de tendances
Ingénierie des Performances : une approche orientée performance
pour sécuriser la disponibilité des applications en production
Performance et disponibilité des applications sont des objectifs prioritaires pour les DSI.
Cependant, ces questions sont généralement soulevées au moment du déploiement.
Or, elles devraient être planifiées dès l’origine du projet. Explications et approche
méthodologique par des spécialistes d’Atos.
37
Livres
La sécurité dans le cloud – Techniques pour une informatique en nuage sécurisée
de Vic (J.R.) Winkler et Urbanisation, SOA et BPM - Le point de vue du DSI
(4e édition) de Yves Caseau.
IT-expert n°95 - janvier/février 2012
3
ACTIVITÉS DE TEST EXTERNALISÉES :
5 CONSEILS POUR AUGMENTER
LES CHANCES DE SUCCÈS
L
e sujet de la « sous-traitance d’activités de test » est présent dans tous les projets de développement informatique,
ou presque. Cependant, ce thème est généralement abordé via la question de l’Off-shore ou du Near-shore. Certes,
la localisation géographique des activités de test revêt une importance à ne pas négliger, vu les spécificités qu’elle peut
introduire. Toutefois, il peut être aussi très utile de penser à mettre en place des outils ou méthodes simples et efficaces
pour augmenter les chances de succès de la sous-traitance dans le domaine du test logiciel.
4
IT-expert n°95 - janvier/février 2012
Dossier
Qu’entend-on par « externalisation des tests » ?
Dans le cadre d’un projet informatique, le chef de projet sollicite régulièrement des compétences de
personnes n’appartenant pas à son équipe de projet.
Ces « personnes n’appartenant pas à l’équipe du projet » peuvent appartenir à la même société ou bien
à des sociétés externes, travaillant comme sous-traitants de la société porteuse du projet.
Elles peuvent appartenir à une entité spécialisée dans un domaine précis ou au contraire être des
ressources indépendantes mises à la disposition des projets. Enfin, ces personnes peuvent être
localisées dans le même pays que le chef de projet ou dans un pays plus ou moins éloigné.
Dans cet article, le mot « externalisé » désignera ce qui n’est pas fait pas des personnes intégrées à
l’équipe du projet.
Ceci est valable pour une grande partie des activités liées au développement logiciel, y compris pour
les principales activités de test qui peuvent se décliner sur différents niveaux de test. Pour rappel, le
syllabus niveau fondation de l’ISTQB (International Software Testing Qualifications Board) propose 5
ensembles d’activités :
• Planifier et contrôler
• Analyser et concevoir
• Implémenter et exécuter
• Évaluer les critères de sortie et informer
• Activités de clôture des tests
Ces activités peuvent se décliner sur 4 niveaux de test :
• Composants
• Intégration
• Système
• Acceptation
Sur les gros projets, il est en général judicieux de mettre en place, à un niveau global, une activité de
Planification et Contrôle.
Planifier
Composant 1
Planifier
Intégration
Contrôler
Contrôler
Analyser et concevoir
Implémenter
et exécuter
Système
Évaluer et informer
Clôturer
Acceptation
Clôturer
IT-expert n°95 - janvier/février 2012
5
Il convient ensuite de déterminer si tout peut être sous-traité. Théoriquement, oui. Dans la pratique,
certaines tendances se dégagent :
• les activités de test liées au niveau composant sont souvent portées par l’entité en charge des
développements correspondants, et se déroulent avant, pendant et après le développement pur et
dur. En d’autres termes, si le développement d’un composant est sous-traité, alors les activités de
test associées ont de fortes chances de l’être aussi ;
• les activités de test liées aux niveaux Intégration et Système sont sous-traitées environ une fois sur
deux ;
• les activités de test liées au niveau Acceptation ne sont en général pas sous-traitées, compte tenu
des compétences métiers nécessaires, ainsi que de l’utilisation de données confidentielles et
d’environnements techniques complexes et coûteux.
Pour les projets suivant une démarche « agile », la situation est différente. Néanmoins, c’est un autre sujet !
Dans cet article, la notion de « sous-traitance d’activités de test » désignera essentiellement les activités
appliquées au niveau composant lorsque le développement est sous-traité et les activités mises en
œuvre aux niveaux Intégration et système.
Un grand projet de transformation dans une grande multinationale
Une grande société, présente dans différents pays, fait évoluer son Système d’Information (SI) dans le
cadre d’un vaste projet de transformation. Le SI est constitué d’un ensemble d’applications couvrant
différents domaines techniques ou métiers.
Ce projet va donner lieu à l’introduction de nouvelles applications et à la modification ou suppression
de certaines autres applications, selon les exigences définies par la société porteuse du projet global.
Différents sous-traitants se partagent le développement des applications, un sous-traitant étant en
charge de plusieurs applications. Un sous-traitant, différent des précédents, est chargé de l’ensemble des
tests d’intégration. Enfin, la société porteuse du projet global est aussi chargée des tests d’acceptation.
Domaine
métier 1
Application 2
Application 17
Application 14
Application 12
Application 8
Plateformes
et Réseaux
Application 3
Application 13
Application 1
Application 9
Domaine
métier 2
Application 16
Application 7
Application 15
Application 10
Sous-traitant 1
6
IT-expert n°95 - janvier/février 2012
Sous-traitant 2
Application 11
Application 6
Application 5
Application 4
Société
… et un troisième sous-traitant
en charge des tests d’intégration !
Dossier
Conseil n°1 : Mesurer les compétences de chaque sous-traitant
et en tirer les conséquences
Ceci doit être fait au niveau de l’entreprise, mais aussi -et surtout- au niveau des personnes impliquées
dans le projet, et ce de manière constructive et factuelle.
Une restitution doit être partagée avec le sous-traitant et déboucher, si nécessaire, sur un plan
d’amélioration suivi de près.
Il est en général utile d’avoir dans sa boîte à outils des connaissances sur :
• CMMI (Capability Maturity Model + Integration),
• TMMI (Test Maturity Model Integration),
• ISTQB/CFTL (International Software Testing Qualifications Board/Comité Français des Tests Logiciels)
pour différentes normes et standards référencés : IEEE 829, IEEE 1044, ISO 9126…
Cependant, avant de sortir l’artillerie lourde, il est prudent de vérifier que le sous-traitant maîtrise les
bases incontournables du test logiciel. Pour cela, un simple questionnaire peut suffire à déceler de
vraies lacunes. Par exemple, un sous-traitant qui, à la question « Quel outil utilisez-vous pour gérer les
défauts ? » répond (comme cela m’est arrivé récemment) « Nous utilisons l’e-mail et le téléphone » aura
à priori un niveau très faible en test logiciel. Il conviendra alors de définir un plan d’amélioration pour le
sous-traitant et de le suivre pour assurer la mise en place de pratiques incontournables, comme celles
indiquées dans l’exemple ci-dessous.
Description
Bénéfice attendu
Affecter un Test Manager à temps plein
pour les activités de test du Sous-Traitant 1
Meilleure gestion et efficacité
de ses activités de test
Apporter la preuve de la couverture du code
et des exigences par les tests (mesure et
matrice de traçabilité)
Disposer de preuves et garanties
sur le nombre de tests exécutés
et leur couverture
Revoir les cas de test unitaires du niveau
composant
Augmenter l’efficacité des tests
de ce niveau et leur documentation
Mettre en place un Outil de Gestion
des Tests pour les tests 2 à 2
Aller plus vite, faire mieux et avoir
une bonne visibilité sur ces tests
Mettre en place un Outil de Gestion
des Anomalies partagé avec les différents
sous-traitants
Mieux gérer les anomalies, avoir
de la visibilité sur l’avancement
de la gestion des défauts
…
…
Attention : il n’est pas acceptable d’entendre un sous-traitant en charge du développement d’un certain
nombre de composants dire « Je suis responsable des développements, vous serez livrés, mais je n’ai
aucune preuve à vous donner sur les tests que je réalise »…
Si cela se produit, la séquence de questions suivante doit permettre d’aider le sous-traitant à rapidement
retrouver le bon sens qu’il avait perdu :
• « Allez-vous me livrer un composant sans l’avoir testé ? »
• « Avez-vous réfléchi à la façon de le tester ? »
• « Avez-vous documenté votre stratégie de test ? »
• « Allez-vous exécuter des tests ? »
• « Où ces tests sont-ils décrits ? »
• « Quels sont les résultats de ces tests ? »
Bien sûr, toute réponse doit s’accompagner d’un document faisant office de preuve !
IT-expert n°95 - janvier/février 2012
7
Conseil n°2 : identifier et définir le plus haut niveau de test
Quand une partie des activités de développement et de test est externalisée, il devient plus difficile
d’avoir une vision globale sur l’ensemble des activités de test d’un projet. Pourtant, cet aspect est
indispensable pour gérer correctement le projet de test et coordonner les activités qui se déroulent
aux différents niveaux.
La notion de « plan de test maître » (« Master Test Plan ») telle qu’introduite par la norme IEEE 829-2008
prend alors tout son sens. Ce plan de test maître permettra non seulement de définir et contrôler une
planification globale de l’activité de test sur l’ensemble du projet, mais aussi d’identifier les différents
niveaux de test et les plans de test associés.
Pour un composant dont le développement est sous-traité, il conviendra alors de demander au soustraitant, s’il est également en charge des tests. Un Plan de Test de niveau Intégration pourra aussi être
exigé auprès d’un sous-traitant en charge de l’intégration. Externaliser une activité de test ne signifie
pas « perdre contrôle et visibilité » sur celle-ci. Bien au contraire !
Dans l’exemple ci-dessous, un « Master Test Plan » a permis de définir une stratégie globale de test
pour un projet complexe d’évolution d’un SI, faisant appel à de nombreux sous-traitants. Par exemple,
chaque composant développé a donné lieu à la rédaction d’un Plan de Test référencé par le Plan de
Test maître.
CCCCCCCi
Description
à haut niveau
et pilotage
Description détaillée
pour chaque niveau
FIP S1D0
Master Test Plan
Test Manager global
DDSI
BIT R2B
Plan de Test OSS
BIT R2B
Plan de Test BSS
DPS
Niveau Composant
AAAAAAA
BIT R2B
Plan de Test
Statique
BAS2010
Network and Platform
Plan de Test d’Intégration
OSP
Niveau Statique
DPS
Niveau Intégration
BIT R2B
IT and IT with Network MMM
& Platforms
Plan de Test d’Intégration
FIP S1D0
Plan de Test UAT
8
IT-expert n°95 - janvier/février 2012
Internal
Niveau Acceptation
Conseil n°3 : Généraliser les revues qui sont un outil d’une rentabilité exceptionnelle !
Qu'est-ce qu’une revue ? C’est tout simplement une « évaluation d’un état d’un produit ou projet pour
déceler des déviations par rapport aux résultats planifiés et recommander des améliorations » [IEEE 1028]
Qu’est-ce qui peut être revu ? Tout ou presque !
Cependant, lorsque des activités de développement et de test sont externalisés, les revues présentent
un intérêt particulier pour 3 produits qui sont rarement revus :
• les plans de test
• les tests
• les bordereaux de livraison
Même si lorsqu’un sous-traitant est en charge des tests unitaires du composant qu’il développe, revoir
le Plan de Test associé permettra d’avoir des garanties sur la façon avec laquelle ce composant sera
testé. L’exemple suivant montre le résultat d’une revue effectuée sur 5 plans de test réalisés par un
sous-traitant sur la base d’un même modèle (template). Chaque ligne correspond à un plan de test
et chaque colonne à un chapitre du plan de test. Cette revue a mis en évidence une grande faiblesse
concernant le test chez le sous-traitant et a donné immédiatement lieu à un plan d’action d’amélioration.
13. CRITÈRES DE PASSAGE
OU ÉCHEC
12. RISQUES ET CONTINGENCES
11. LIVRABLES
10. CRITÈRES D’ARRÊT
ET DE REPRISE DES TESTS
9.3 EXÉCUTION DES TESTS
9.2 CONCEPTION DES TESTS
9.1 RÔLES ET RESPONSABILITÉS
8. BESOINS EN RESSOURCES
ET FORMATIONS
7. BESOINS EN ENVIRONNEMENTS
6.11 RESPECT DE LA QUALITÉ
6.10 UTILISATION DES OUTILS
DE TEST
6.9 GESTION DES ANOMALIES
6.8 GESTION DE CONFIGURATION
6.7 SUIVI ET CONTRÔLE
DE L’AVANCEMENT DES TESTS
6.6 AUTOMATISATION DES TESTS
6.5 PRIORISATION DE L’EXÉCUTION
DES TESTS
6.4 TECHNIQUES DE TEST
6.3 NIVEAUX DE TEST
6.2 EFFORT DE TEST
6.1 CRITICITÉ DES
CARACTÈRISTIQUES À TESTER
5 CARACTÈRISTIQUES
À NE PAS TESTER
4 CARACTÈRISTIQUES À TESTER
3 ÉLÉMENTS À TESTER
2.2 JALONS DU PROJET DE TEST
2.1 JALONS DU PROJET GLOBAL
1.2 RÉFÉRENCES
Revue des Plans
de Test Unitaires
(chapitre par
chapitre)
1.1 INTRODUCTION
Qualité des différentes sections des Plans de Test : n Bonne n Moyenne n Faible
Documents
FIM_R2B_Plan Pruebas 2a2_
ACTIVACION_v1.0.doc
FIM_R2B_Plan Pruebas 2a2_EAI
Fijo_v1.0.doc
FIM_R2B_Plan Pruebas 2a2_
FENIX_v1.0.doc
FIM_R2B_Plan Pruebas 2a2_
SIAM_v1.0.doc
FIM_R2B_Plan Pruebas 2a2_
TIBC05_v1.0.doc
Les tests eux-mêmes peuvent aussi être revus. Bien entendu, il conviendra de vérifier que chaque test
est associé à une caractéristique à tester (ou exigence), que le format est correct, mais aussi que le test
est pertinent. La revue des tests doit être effectuée par des personnes disposant des compétences
techniques ou fonctionnelles adéquates.
Enfin, la revue des bordereaux de livraison peut également apporter beaucoup. En effet, ce document
s’avère primordial pour assurer le démarrage de l’intégration dans de bonnes conditions. Un composant
livré avec un bordereau de livraison incomplet, sans procédure d’installation -par exemple, posera des
problèmes à l’intégration. L’idéal serait même d’organiser des revues anticipées des bordereaux de
livraison. Rien n’empêche d’exiger d’un sous-traitant qu’il fournisse une première version de chaque
bordereau de livraison une semaine avant la date de livraison finale. Cela permet aux personnes en
charge de l’intégration de les revoir, de vérifier leur qualité et de demander les corrections nécessaires,
sans retarder la livraison !
IT-expert n°95 - janvier/février 2012
9
Conseil n°4 : L’analyse de code outillée : un outil à utiliser absolument,
mais avec maîtrise !
L’analyse statique de code, à la différence des revues de code classiques faites par des développeurs,
est en général réalisée avec un outil de test spécifique. Le principe est simple : le code développé
est analysé, sans être exécuté, afin d’évaluer sa qualité selon différents critères, bonnes pratiques ou
règles de codage.
Lorsque les développements sont sous-traités, l’utilisation de ce type d’outil est précieuse, car elle peut
aider le sous-traitant à respecter les règles de développement et les exigences sur la qualité formulées
par l’entreprise cliente. L’outil peut aussi permettre de vérifier la qualité d’un code livré avant de l’accepter.
Toutefois, cet outil doit être bien maîtrisé, car différentes difficultés - nous en verrons deux ci-après peuvent se présenter. Heureusement, à chaque difficulté correspond en général une solution !
Première difficulté : si l’utilisation d’un tel outil, avec des critères d’acceptation de livraison, n’a pas
été contractualisée avec le sous-traitant, il risque de refuser de modifier son code. L’idéal consiste bien
sûr à avoir défini les règles du jeu dès le départ et à permettre au sous-traitant d’analyser son code
au fur et à mesure du développement. Mais si cela n’a pas été fait, rien n’empêche d’analyser le code
livré. Il faudra alors considérer 2 types de violations de règles de codage :
• des règles basiques, incontestables, qui correspondent à l’état de l’art en matière de développement
et qu’il n’est pas possible de contourner, au risque de mettre en péril le système dans lequel le code
sera intégré. Sur ces règles, il est légitime de se montrer intransigeant et d’exiger les modifications
nécessaires de la part du sous-traitant, sans supplément de coût.
• des règles propres à l’entreprise et à ses objectifs spécifiques en termes de qualité de code. Si
ces règles n’ont pas été précisées à l’avance, il sera sans doute nécessaire d’établir un avenant et
d’accorder des jours supplémentaires au sous-traitant pour les appliquer.
Deuxième difficulté : le sous-traitant est chargé de faire évoluer un code existant pour ajouter, supprimer
ou modifier des fonctionnalités. Il faudra bien sûr veiller à faire la distinction entre le code d’origine et
le nouveau code, mais cela ne suffit pas. En effet, faire évoluer un code qui ne respecte pas des règles
de codage contraint souvent à rester dans le non-respect des règles. Par exemple, faire évoluer une
fonction, ayant un nombre trop important de lignes de code ou un nombre insuffisant de commentaires
ne permettra pas de respecter les règles relatives à la taille d’une fonction et aux commentaires attendus.
Dans ce cas il est conseillé de coopérer intelligemment avec le sous-traitant, d’une part, pour fixer des
objectifs réalistes sur une partie de ses développements ; d’autre part, pour envisager la réécriture
d’une partie du code. Bien sûr, cela a un prix, comme tous les aspects contribuant à l’amélioration de
la qualité !
Un outil comme CAST attribue une note globale sur la qualité du code analysé, mais également plusieurs
vues aussi détaillées que souhaité, pour voir précisément quelles règles ne sont pas respectées et à
quel endroit !
10
IT-expert n°95 - janvier/février 2012
Dossier
Note globale
Un exemple de vue détaillée
IT-expert n°95 - janvier/février 2012
11
Conseil n°5 : Construire une relation de confiance avec le sous-traitant
Cela va de soi, mais il est important de le rappeler : le moyen le plus efficace de travailler avec des
sous-traitants, dans le domaine du test, mais aussi pour l’ensemble des activités du développement
logiciel, est de bâtir une relation de confiance intelligente. Des relations figées sur un contrat défini
au début du projet avec des délais, des coûts et des critères d’acceptation inflexibles, auront peu de
chance de se transformer en succès mutuel.
S’il est essentiel de contrôler l’activité de test des sous-traitants, il est tout aussi primordial de leur
préciser des attentes et de les aider à les respecter. Être ferme mais coopérant !
Cela peut, et doit même, se traduire par des échanges réguliers qui prendront la forme de réunions de
suivi entre tous les acteurs, mais aussi de visites dans les locaux du sous-traitant. Établir un contact
et dialoguer de temps en temps avec les équipes du sous-traitant pourront montrer aux personnes
impliquées, manager ou « petites mains », qu’ils travaillent pour un client qui a un visage et qui compte
sur la qualité de leur travail.
Lorsque plusieurs sous-traitants sont impliqués dans un grand projet, il est également très utile de les
rassembler pour arbitrer les choix et gérer au mieux les difficultés et conflits éventuels entre sous-traitants.
Au-delà des points de vigilance classiques mis en œuvre lorsque certaines activités de test sont
externalisées, il existe des moyens simples et efficaces à appliquer pour augmenter les chances de
succès de l’externalisation. n
Eric Riou du Cosquer,
Trésorier du CFTL (Comité Français des Tests Logiciels)
Secrétaire de l’ISTQB, Test Manager Senior chez France Télécom
Diplômé de l’Ecole d’Ingénieurs de Brest (Informatique Industrielle), Eric Riou du Cosquer a commencé sa carrière en 2000, en qualité
de Chef de Projet au sein des sociétés CSC PeatMarwick, puis Softeam de 2000 à 2003, avant de rejoindre la division R&D de France
Télécom. Depuis 2007, Eric exerce en qualité de Consultant et Formateur sur l’ensemble du groupe France Télécom, en France et
à l’étranger. Il participe également à l’amélioration continue des processus et pratiques de test et est amené à conduire des audits
internes ou externes pour différentes divisions de France Télécom.
Depuis 2002, il a dispensé plusieurs conférences et formations dans le domaine des tests de logiciels. En tant qu’expert, Eric Riou du
Cosquer est également membre du groupe de travail international pour la définition du Syllabus Avancé de l’ISTQB, Responsable de
la création de la version française et fût Président du Club utilisateurs de Mercury France, de 2008 à 2011.
Site web : www.cftl.fr
Email : [email protected]
12
IT-expert n°95 - janvier/février 2012
IDC, filiale du leader mondial du conseil, et des études dans
les technologies de l’information.
Dans un contexte de budgets sous tension et de récession rampante, les entreprises
françaises ne cessent de relever leur niveau d’exigence vis-à-vis de la DSI.
IDC vous donne rendez-vous
mercredi 14 mars 2012 (9h – 15h00), à Paris, pour participer à la conférence
« Gouvernance IT : la DSI exemplaire»
http://www.idc.com/france/GouvIT2012
Cette conférence se focalisera, à l’aide de partages d’expériences récentes, sur les axes de
progrès suivants :
• Quelles approches et indicateurs pour rendre compte de la bonne gestion de la DSI et valoriser sa contribution à la
performance et à l’innovation de l’entreprise ?
• Comment construire des contrats de services toujours plus en phase avec les attentes des métiers ?
• Comment opérer des transformations majeures comme la virtualisation des environnements critiques sans remettre en
cause les acquis en termes de disponibilité, de fiabilité et de sécurité ?
• Comment gagner en visibilité, en contrôle et en transparence sur les portefeuilles de projets ?
• Comment prioriser et obtenir les arbitrages nécessaires ?
• Comment dégager des marges de manœuvre et du temps disponible pour l’innovation métier ?
Le cabinet IDC vous propose d’aborder en trois temps l’ensemble des réalités que couvre
cette thématique:
• Vision IDC – gouvernance IT : concilier rationalisation et innovation : quelles approches ? Quelles solutions ?
• La DSI exemplaire en période de tension
• La DSI partenaire des métiers pour innover
Avec le témoignage de Jean-Philippe LABILLE, Relations métiers, Gouvernance du Schéma Directeur
des SI, Sous-Direction des Systèmes d’Information au Ministère de la culture
Programme détaillé et inscription gratuite :
http://www.idc.com/france/GouvIT2012
Code invitation : ITX
Contact : Valérie Rolland
[email protected]
tel : 01.56.26.26.85
Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices.
Conférence organisée par
Une dette technique
ruineuse pour la DSI
U
ne large part des 70 % du budget IT consacrés à la maintenance concerne la correction du code d’applications en
production. Souvent plusieurs centaines de milliers d’euros. L’enquête annuelle de CAST compare la qualité applicative
des technologies et langages de 745 applications.
14
IT-expert n°95 - janvier/février 2012
Technique
La notion de dette technique fait référence au coût nécessaire à l’entreprise qui doit remédier aux
défauts cachés de ses applications en production. Du moins, à ceux qui représentent un risque ou une
menace pour l’application concernée, et donc un impact négatif pour les activités de l’entreprise dont
elle contribue au fonctionnement. Cette dette technique s’avère d’autant plus dommageable qu’elle
est rarement budgétée, ou qu’elle dépasse généralement les réserves financières estimées par les
entreprises les plus prudentes. En 2010, de grandes affaires liées à une dette technique ont défrayé
la chronique informatique : Toyota, Sony ou encore RIM, le constructeur du BlackBerry qui a plongé
ses utilisateurs dans la nuit numérique pendant de longues heures… Autant d’exemples qui illustrent
la réalité du phénomène.
Dans son étude annuelle CRASH Report (pour CAST Report on Application Software Health), l‘éditeur
CAST (leader mondial de l’analyse et de la mesure des applications) explique le rôle majeur de la qualité
et se propose de poser une « base objective et empirique pour discuter de la qualité structurelle des
applications, c'est-à-dire dans quelle mesure les applications souffrent des défauts qui jalonnent leur
code ». « Les problèmes que nous avons remontés auraient dû être traités avant la mise en production.
C’est comparable au fait d’ignorer les termites qui détruisent la charpente de votre maison » explique
le Dr Bill Curtis, directeur scientifique, vice-président du centre de recherche de CAST et directeur du
consortium pour la qualité logicielle (CISQ).
Un trou de plusieurs milliards de dollars
Première mondiale, l’étude s’appuie sur l’analyse automatisée de la qualité structurelle de 745
applications issues de 160 sociétés dans 10 secteurs d’activité. Pour un total de 365 millions de lignes
de code ! Une analyse visant à évaluer ces applications selon 5 facteurs : la sécurité, la performance,
la robustesse, la « transférabilité » et l’évolutivité (capacité à être modifié). Objectif : mettre en relief les
problèmes générant les plus gros risques pour les directions fonctionnelles (ou métier).
L’estimation prudente des auteurs de l’étude ramène la dette technique à 3,61 dollars par ligne de
code. 24 % des 745 applications concernées comptent moins de 50 000 lignes de code, 33 % entre
50 000 et 200 000 lignes de code, 31 % en contiennent de 201 000 à 1000 000, et 12 % affichent plus
d’un million de lignes de code ! Les applications Java-EE représentent 46 % de cet échantillon, tandis
que .NET, ABAP (Advanced Business Application Programming, langage de SAP) COBOL, et Oracle
Forms sont représentés à hauteur de 7 % à 11 %.
Cobol reste le plus sûr et .Net le moins
IT-expert n°95 - janvier/février 2012
15
Certes, toutes les applications ne sont pas critiques. Néanmoins, elles contribuent généralement
toutes à des processus dont plusieurs aspects sont stratégiques pour l’entreprise. C’est pourquoi le
volet sécurité se révèle primordial.
Les applications Cobol tant décriées – voire moquées, restent cependant les plus sécurisées, et de
loin. Un résultat rassurant, car nombre d’applications majeures et fortement transactionnelles sont
écrites dans ce langage, dont les experts se font de plus en plus rares.
Et l’étude précise justement que les applications financières et des assureurs sont les mieux notées
sur l’aspect sécurité. Un constat logique, puisque la plupart de ces programmes est exécutée dans
des environnements mainframe, plus fermés et hautement sécurisés. Les auteurs précisent que ces
applications, souvent les plus anciennes, bénéficient pleinement d’un historique en sécurité qui les a
aussi rendus plus fiables.
Les applications développées en .Net ou Visual Basic enregistrent les plus faibles scores. Longtemps
réservés à des applications moins stratégiques, ces technologies (et surtout .Net) gèrent aujourd’hui
des applications critiques. Espérons que les responsables de ces projets se montreront plus vigilants
sur tous ces aspects. Une tendance qui doit certainement se dégager aujourd’hui face aux obligations
de conformité réglementaire, et qui explique certainement qu’une partie de ces applications obtiennent
un score plus élevé.
Autre constat intéressant, si l’on examine la sécurité des applications par secteur d’activité, les services
financiers et la grande distribution arrivent en tête, tandis que le consulting informatique arrive bon
dernier ! L’étude explique cela par le fait que les prestataires informatiques, hébergeur ou outsourcers,
ont hérité d’applications dont d’autres entreprises leur ont confié la maintenance et l’évolution. Or,
ces dernières ont souvent été développées sans réelle stratégie et de sécurité et à une époque où les
bonnes pratiques en la matière restaient encore confidentielles. Bref : ils ont accepté de prendre en
charge la patate chaude…
16
IT-expert n°95 - janvier/février 2012
Technique
Java EE à la traîne derrière .Net, C++ et Cobol
Pour analyser la performance évoquée ici, les ingénieurs de CAST n’ont pas réalisé des mesures sur les
applications en production, mais recherché les violations ou manquements en termes d’architecture
applicative ou de bonnes pratiques d’écriture de code. Autant d’aspects qui impactent forcément les
performances lors de l’exécution (appels ou boucles « lourdes » vers des bases de données, par exemple).
Sur le plan des performances, des langages structurés et exigeants comme C++ ou .Net obtiennent
logiquement les meilleurs résultats. Et malgré des applications souvent anciennes, le langage Cobol
se classe très honorablement. Applications critiques obligent…
On a très longtemps reproché à Java d’être lent et moins efficace. Au grand dam des développeurs qui
y trouvent une simplicité de programmation, et qui obtiennent donc souvent une meilleure productivité.
Autant d’aspects qui ont contribué à son succès.
Toutefois, le langage Java a fortement évolué et peut aujourd’hui obtenir d’excellentes performances.
Les résultats de l’étude montrent pourtant que les applications Java-EE se révèlent bien peu performantes
comparées aux autres technologies. Et pour cause ! Comme l’expliquent les auteurs, les programmeurs
choisissent souvent la facilité et recourent à de nombreux frameworks facilitant un développement
rapide et moins complexe. Certes, la complexité est marquée par ces frameworks (type Hibernate ou
Struts), mais au prix d’un effondrement des performances d’autant plus flagrant lorsque le nombre
d’utilisateurs ou de transactions explose.
L’orientation objet et la modularité favorisent la qualité
Le CRASH Report vient contredire l’idée reçue selon laquelle la qualité
applicative se dégrade lorsque l’application devient plus imposante.
En effet, le Total Quality Index (intégrant les 5 caractéristiques citées
plus haut) n’est pas significativement impacté selon la taille des
applications. En revanche, un zoom sur les applications Cobol a
révélé une influence clairement négative de la taille des applications
Cobol sur leur qualité.
Une explication historique peut expliquer ce résultat. Le langage
Cobol est né à une époque durant laquelle on se préoccupait peu
de la modularité dans le développement. Résultat : des applications
avec très peu de composants, imposants et complexes.
IT-expert n°95 - janvier/février 2012
17
Les nouveaux langages orientés objet ont intégré cette modularité, permettant d’ajuster la complexité
des applications appelées à croître. Alors que la majorité des applications du panel dans les divers
langages comptent moins de 20 % d’objets complexes (et moins de 5 % pour .Net et Java EE), les
programmes Cobol en regroupent de 40 % à 80 % !
Autre phénomène découlant de cette modularité : les objets des applications « modernes » comptent
entre 50 et 100 lignes de code, contre généralement plus de 600 lignes pour un composant Cobol.
De gros composants Cobol d‘autant plus complexes qu’une grande partie de la logique est interne à
chacun, et que le couplage fort entre les fonctions ne favorise pas l’évolutivité.
Pour des applications plus souples. Avec quelle méthode ?
La maintenabilité d’une application a été évaluée selon la « transférabilité » et l’évolutivité (capacité à
être modifiée). Sur la transférabilité, on constate une forte différence sectorielle entre les applications
gouvernementales (États unis et Union européenne) et celles des autres secteurs économiques. Les
auteurs soulignent que cette spécificité prouve, comme l’affirmait l’enquête Gartner 2011 IT Staffing
& Spending, que le secteur public dépense plus en maintenance que les autres secteurs, avec un taux
de 73 % !
Une spécificité qui proviendrait du mode de fonctionnement contractuel des organisations publiques
dont les applications sont maintenues et développées successivement par différentes prestataires.
Autre cause probable : les pratiques de gouvernance peu évoluées sur ces aspects dans ce secteur.
Le fait de sous-traiter n’empêche pas une gouvernance plus stricte.
18
IT-expert n°95 - janvier/février 2012
Technique
Certes, les pratiques évoluent favorablement. Néanmoins, lorsque l’on concentre les résultats sur les
programmes hors Cobol, les « applications publiques » affichent 3 à 10 fois plus d’objets complexes
que celles des autres secteurs.
Sur le critère de l’évolutivité (ou capacité à être modifiée) d’une application, le podium est occupé par
Abap, Cobol et Java-EE. Un résultat assez logique : plus le langage est tenu dans un carcan, plus
la lecture et l'évolutivité de l'application sont facilitées. En revanche, des langages plus permissifs
laissent une latitude plus grande aux développeurs et autorisent donc plus de fantaisie structurelle.
Par conséquent le langage le C récolte très logiquement la cuillère en bois…
Le développement bénéficie aujourd’hui pleinement de méthodes de développement plus ou moins
sophistiquées. S’il est certain que ces approches profitent à la qualité structurelle des applications,
il convient de le vérifier. L’étude a donc évalué le poids de ces approches selon les 5 caractéristiques
pour 204 des applications du panel, fournies avec leur méthode.
IT-expert n°95 - janvier/février 2012
19
Quatre catégories d’approches ont été recensées : les méthodes Agile (63 applications), Waterfall (54),
Agile/Waterfall (40) et personnalisées (47). Sans appel : les méthodes personnalisées donnent les moins
bons résultats sur le Total Quality Index. En revanche, l’approche personnalisée (ou maison) se révèle
plus intéressante sur la transférabilité et sur l’évolutivité. Des résultats qui donnent à réfléchir à l’heure
des méthodes agiles. En effet, bien que meilleures sur la robustesse, les performances et la sécurité,
elles se révèlent parfois moins intéressantes en maintenabilité.
Une qualité pénalisée par les mises à jour
Souvent, une modification mineure peut générer des conséquences inouïes, et surtout non planifiées),
sur une application d’entreprise. D’où l’art délicat du développement et de sa gouvernance… C'est
pourquoi le CRASH Report a analysé ses cinq critères à l’aulne du nombre de mises à jour par an.
Pour y parvenir, les spécialistes se sont appuyés sur les 309 applications du panel fournies avec leurs
mises à jour.
Trois catégories ont pu être identifiées selon la fréquence des mises à jour par an : 140 d’entre elles ont
subi une à trois mises à jour par an, 114 en ont vécu quatre à six, et 59 ont accusé plus de 6 mises à jour.
Sans surprise ; le score de qualité totale est impacté négativement proportionnellement au nombre de
mises à jour par an sur trois des critères considérés : la robustesse, la sécurité et l’évolutivité.
20
IT-expert n°95 - janvier/février 2012
Un éclairage vital des coûts et des risques
Le CRASH Report définit la dette technique (Technical Debt)
comme « l’effort nécessaire pour réparer les problèmes restant
dans le code après mise en production de l’application ».
Cette notion émergente est encore peu outillée, et CAST
propose son référentiel « Appmarq benchmarking repository »
permettant de la calculer à travers de multiples technologies
applicatives. Une action salutaire tandis que plus de 70 %
des budgets informatiques sont consacrés à la maintenance
applicative au détriment de l’innovation, pourtant de plus en
plus stratégique et différenciatrice.
Estimée à la ligne de code, cette dette technique (sur les
applications du panel) atteint 3,61 dollars en moyenne,
soit un coût de 361 000 dollars pour une application de
100 000 lignes de code. Un coût généralement non évalué
individuellement et qui génère pourtant à lui seul une bonne
partie des gigantesques coûts de maintenance…
Technical Debt by Quality Characteristics
for the Complete Appmarq Sample
70 % de la dette technique concerne des défauts et manquements qui impactent directement les coûts
informatiques : la transférabilité et l’évolutivité. Cependant, il ne faudrait surtout pas négliger les 30 %
d’erreurs restant qui concernent directement le risque métier : robustesse, performance et sécurité.
Ne développe-t-on pas des applications justement pour les utilisateurs métier ?
Le tableau des caractéristiques de la dette technique rapportées à chaque langage est très instructif.
La robustesse, la performance et la sécurité accordent des scores moindres aux langages C, C++,
COBOL, et Oracle ERP. En revanche, Abap, Oracle Forms et Visual basic obtiennent proportionnellement
de meilleurs résultats pour la robustesse. Chacun pourra en tirer ses propres conclusions, et imaginer
ce qui résulterait de ses propres applications…
IT-expert n°95 - janvier/février 2012
21
Java-EE en ligne de mire
Victime de son succès, ou plutôt de ses frameworks (simplificateurs, mais rarement optimisés), Java-EE
est la technologie qui enregistre la dette technique la plus importante sur toutes les applications analysées.
Avec 5,62 dollars de dette technique par ligne de code en moyenne, Java-EE devance Oracle Forms
et Visual Basic dans le palmarès des dettes les plus fortes. Les meilleurs élèves restent dans l’ordre
Abap et Cobol. L’ouverture et la flexibilité seraient-elles vraiment payantes sur la durée ? À voir.
Bien entendu, en modulant quelques paramètres, les résultats pourraient certainement évoluer un peu.
Néanmoins, la tendance resterait certainement la même.
Mais une chose est sûre : cette dette technique pourrait coûter plusieurs A ou A+ aux directions
informatiques. n
José Diz,
Rédacteur en chef d’IT-expert
22
IT-expert n°95 - janvier/février 2012
Le 8 février prochain à Paris, IDC vous convie à la conférence phare « Sécurité IT ».
IDC, filiale du leader mondial du conseil,
et des études dans les technologies de l’information.
Comment défendre des budgets sécurité IT de plus en plus banalisés?
SECURITE IT
NOUVEAUX USAGES, QUELLES POLITIQUES?
Mercredi 8 février 2012 (9h - 15h30), à Paris
http://www.idc.com/france/secuit2012
Mêlant retours d’expériences et exposés sur les nouvelles tendances, la conférence IDC Sécurité IT
passera en revue les nouveaux et sérieux arguments pour garantir la survie des budgets sécurité IT
de plus en plus banalisés.
Comment faire face à la nécessité de dépenser moins en sécurisant autant, voire plus ?
Au programme :
• Vision IDC : entre risques et conformité, quelles sont
les raisons d’investir en sécurité?
• La conformité et au-delà : la direction comprend-elle
ce que fait son RRSI ?
• L’organisation de la sécurité et la gestion des identités
dans le Cloud public
• Cloud, outils de collaboration, univers mobiles et
réseaux sociaux : quelle stratégie adopter ?
• Quels sont les enjeux de la gestion de l’information
dans l’univers de demain ?
Avec les témoignages de
Mahmoud DENFER, Group Information Security Officer,Vallourec
Pascal BASSET, responsable conformité et sécurité des SI, PMU
Lazaro PEJSACHOWICZ, Vice-Président du CLUSIF et RSSI de la
Caisse Nationale d’Assurance Maladie
Michel JUVIN, Group Information Security Officer, Lafarge
Programme détaillé et inscription gratuite :
http://www.idc.com/france/secuit2012
Code invitation : ITX
Contact : Valérie Rolland
[email protected]
tel : 01.56.26.26.85
Cette conférence gratuite est uniquement réservée aux entreprises utilisatrices.
Conférence organisée par
Actualités
internationales
Megaupload fermé par le FBI : 7 inculpations
Après avoir ordonné la fermeture du site de téléchargement Megaupload,
les autorités américaines ont fait procéder à l’arrestation de 7 personnes
(dont 4 en Nouvelle-Zélande) des sociétés Megaupload et Vestor Limited
pour : conspiration de racket, conspiration de violation de copyright et
conspiration de blanchiment d’argent. Chaque accusé risque jusqu’à 50
ans de prison.
La France a été la première nation à réagir, via un communiqué du Président de la République : « la lutte
contre les sites de téléchargement direct ou de streaming illégaux, qui fondent leur modèle commercial
sur le piratage des œuvres, constitue une impérieuse nécessité pour la préservation de la diversité
culturelle et le renouvellement de la création. C'est le financement des industries culturelles dans leur
ensemble qui est mis en cause par ce type d'opérateurs ». L’avocat de Megaupload a expliqué que le
site n’a pas enfreint la loi et se prépare à recruter des avocats renommés pour se défendre.
Et si Emmanuel Gadaix, représentant français du site, affirme : « Il est important de faire une distinction
entre Megaupload, prestataire de services, et quelques sites illégaux qui proposent des téléchargements
de contenus en utilisant nos ressources. Nous ne sommes pas un site pirate. » Les centaines de millions
d’internautes téléchargeant gratuitement du contenu sur le site savent de quoi il en retourne…
Tout comme les fournisseurs d’accès Internet qui faisaient des campagnes sur le téléchargement…
légal… Et si c’était tout simplement le monde qui évoluait, tout comme avec l’apparition des cassettes
audio et vidéo ? n
IBM va-t-elle fermer le site de Sophia-Antipolis ?
Mi-janvier les syndicats d’IBM de La Gaude et Sophia Antipolis ont appelé
le personnel à la grève pour protester contre la fusion des deux entités. L’an
dernier IBM souhaitait faire déménager le personnel de La Gaude vers Sophia.
Cette année, il s’agirait de transférer les 90 personnes de Sophia vers Le Gaude
afin de fermer le premier. L’intersyndicale a précisé que « le personnel Gaudois
est déjà confiné à l'excès dans environ 10 000 m2 et que les réunions de CE
ont confirmé que pas un seul mètre carré supplémentaire ne sera ouvert pour
accueillir les collaborateurs d'IBM Sophia ».
Des syndicats qui soulignent que la direction d’IBM refuse toute mesure
financière pour compenser les dépenses supplémentaires de transport
journaliser des salariés. L’intersyndicale a réclamé l’intervention conjointe de
Marc Daunis, vice-président de la Casa (Communauté d'agglomérations de
Sophia Antipolis) et sénateur-maire de Valbonne et de Jean Leonetti, député et
ministre chargé des affaires européennes afin qu'IBM revienne sur sa décision.
Ce type de démarche avait déjà amené à IBM à renoncer à son projet en 2010. n
24
IT-expert n°95 - janvier/février 2012
Actualités internationales
Free redéfinit l’illimité mobile à 20 euros
Le quatrième opérateur de téléphonie mobile fait une arrivée
remarquée sur le marché français. Devant un parterre de plusieurs
centaines de journalistes, Xavier Niel (principal dirigeant et
actionnaire d'Iliad, société mère de Free et de Free Mobile) a fait
son show, provocant et efficace. Toujours friand de polémique
et de publicité à bon compte, Xavier Niel a donc bien vendu
son produit et tapé sur une concurrence (il est vrai jusque-là
très tranquille) : « Ils me font bien marrer les opérateurs, ils
nous prennent pour des pigeons. Leurs contrats sont remplis
d'embrouilles, d’offres illisibles… ». Les offres de Free sont donc
sans engagement. Mais les engagements de l’opérateur sur
la qualité du service (et la remise en état du réseau) et sur les
délais d’intervention sont minimes, voire inexistants, y compris
en terme de pénalités.
De nouvelles références tarifaires
Le plus spectaculaire : le forfait illimité à 19,99 euros par mois avec les appels vocaux illimités (utilisation
« convenable » – fair use – non précisé) en France, vers les DOM et sur 40 destinations à l'étranger ;
l'Internet mobile fixé à 3 Go/mois (bande passante réduite au-delà, mais avec VoIP et P2P autorisés).
Enfin, les SMS, MMS et le WiFi sont illimités. Free ramène ce forfait illimité à 15,99 euros par mois pour
les abonnés à son offre Internet. Des abonnés qui peuvent bénéficier d’un forfait à zéro euro incluant
une heure d’appel et 60 SMS en France. Pour les non-abonnés, ce forfait passe à 2 euros par mois.
Enfin, les dépassements seront facturés 0,05 centime la minute
de voix (contre 0,15 chez les concurrents) et 0,05 centime le SMS
supplémentaire (contre 0,10 centime). Les voyageurs apprécieront
le un tarif d'itinérance de 0,5 à 0,7 centime la minute.
À 19.99 euros (ou 15,99), pas de téléphone inclus. Toutefois, Free
propose des crédits sans frais (12, 24 ou 36 mois) pour l'iPhone
4S , le Samsung Galaxy Y, le Samsung Galaxy ACE, le Samsung
Galaxy S II, le Blackberry Curve 9300, le Huawei U8350, le ZTE
F160 et le ZTE Blade S. Des téléphones pour la plupart à plus
de 500, voire 700 euros… L’opérateur ne dispose actuellement
que de 6 boutiques : Rouen, Troyes, Angers, Laval, Le Havre et
Nancy. Or, le support téléphonique payant de Free ne brille pas
par son efficacité…
La concurrence agacée tente de faire bonne figure
Les opérateurs ont lancé depuis peu des offres
exclusivement sur Internet. Free Mobile souligne être
2,5 fois moins cher que Sosh d'Orange, 4 fois moins
cher que B&You de Bouygues et 4,3 fois moins cher
que Red de SFR. Et l’« abonnement social » de 10
euros des autres opérateurs parait bien dérisoire.
Les concurrents ont commencé par affirmer leur peu
d’inquiétude. Puis, Bouygues a reconnu perdre des
dizaines de milliers de clients. Enfin, chacun a revu
les forfaits précités à la baisse avec plus ou moins
de volonté affichée.
Free a donc réussi son pari, et bénéficié d’une campagne de communication qui lui a fait économiser
des millions d’euros de publicité. Autant à ne pas
répercuter sur le prix des forfaits… n
IT-expert n°95 - janvier/février 2012
25
Les tablettes explosent en 2011 mais restent un complément
Le cabinet d’études DisplaySearch estime que 72,7 millions de tablettes ont
été livrées par les constructeurs au cours de l’année 2011. Les auteurs placent
la tablette sur le marché des équipements mobiles comprenant les différents
types de PC portables, soit 285,4 millions d'unités, un segment en hausse
de 31 % en 2011. La tablette s’octroie ainsi 25 % de ce marché, avec une
croissance de 256 %. Si le nombre des PC portables (et notebook) s’élève
à 187,5 millions (en hausse de 12 %), les netbooks ne souffrent pas de la
concurrence des tablettes en augmentation de 20 % à 25,2 millions d’unités.
Intel a fait un gros battage autour des ultrabooks qui devaient exploser sur les
deux ou trois ans à venir. Selon DisplaySearch , les ultrabooks ne devraient
pas atteindre 50 millions d’unités vendues avant 2014, et resteraient éloignés des 50 % de parts de
marché au moins jusqu’en 2017. Et ce, essentiellement en raison des prix élevés.
Par ailleurs, une étude de GFK évalue les ventes de tablettes tactiles en France à 1,45 million d’unités
en 2011, dont 450 000 en décembre. Le parc français des tablettes est estimé à environ deux millions
d’unités, pour un prix moyen d’achat de 420 euros. n
Office gratuit sur iPad en mode cloud
Avant même que Microsoft ne lance Office sur
iPad, OnLive Desktop lance une application iPad
gratuite permettant d’utiliser les versions originales
de Word, Excel et PowerPoint dans le cloud. Après
installation, l’utilisateur crée un compte OnLive. Il
se connecte alors et se retrouve en environnement
Windows 7 avec les trois applications Office, et un
espace de 2 Go.
Si les applications fonctionnent bien, il faut
néanmoins disposer d’une bonne bande passante
pour travailler sereinement. Moins de 1,5 Mbits/s
s’abstenir. En outre, pas de solution proposée en
mode déconnecté. Une version Pro à 10 dollars par
mois offrira un accès prioritaire aux serveurs (utile
en cas de surcharge par les utilisateurs gratuits), 50 Go de stockage, la possibilité d’installer d’autres
programmes et un mode collaboratif. Outre l’iPad, OnLive Desktop sera bientôt disponible pour les
tablettes Android, l’iPhone, les PC et les Mac. n
26
IT-expert n°95 - janvier/février 2012
Actualités internationales
Rebondissement français
dans le duel juridique HP/Oracle sur l’Itanium
Le 22 mars 2011, Oracle annonçait qu’elle ne supporterait plus les processeurs Itanium d’Intel pour
ses développements, estimant cette architecture en
fin de vie. Toute l’affaire est fortement sous-tendue
par la grande rivalité des serveurs Oracle/Sun et HP.
Annonçant 140 000 clients communs avec Oracle, HP portait plainte
contre Oracle mi-juin 2011, estimant qu’il s’agissait « d'une tentative
illégale de forcer les clients utilisant les plateformes Itanium d'HP à passer
sous Oracle ». En outre, HP arguait du fait qu’Oracle est contractuellement
tenu de maintenir ses développements sur Itanium. En France, Oracle
est sous le coup d’une enquête de l’Autorité de la concurrence, et HP
demande des mesures conservatoires à l’encontre de son concurrent. Le
12 janvier, l’Autorité de la concurrence a rejeté cette demande, estimant
que les conditions d'octroi de telles mesures n‘étaient pas réunies :
« atteinte grave et immédiate à l'économie générale, au secteur, à l'intérêt
des consommateurs, ni à l'entreprise plaignante ».
Toutefois, l’Autorité affirme que « l'instruction de l'affaire doit se poursuivre
au fond » pour déterminer si Oracle a ou non déployé « une stratégie
généralisée d'éviction » sur le marché haut de gamme des serveurs
d’entreprise, constituant « un abus de position dominante ». Une bataille
qui doit réjouir IBM… n
Cloud français : Atos fait les yeux doux à Andromède
Une infrastructure Cloud 100 % française pour les administrations et grandes
entreprises Hexagonales éviterait de dépendre d’entreprises américaines
et d’héberger des données sensible sur un territoire dont le gouvernement
s’arroge le droit de pouvoir tout inspecter.
C’est aussi l’un des objectifs des investissements d’avenir bénéficiant d’un
financement de l’État, et le fruit d’un partenariat public-privé conclu avec
plusieurs entreprises. Créé durant l’été 2011, le projet Andromède (fille de
Céphée et Cassiopée, sauver des griffes du monstre par Persée) regroupait
Orange, Thales et Dassault Systèmes. En décembre 2011, Dassault Systèmes
abandonne l’aventure, suite à un désaccord sur la gouvernance du consortium,
la durée de la clause de non concurrence, ou encore les tarifs pratiqués par
Orange.
Plusieurs SSII sont pressenties pour remplacer le partant, parmi lesquelles
Atos Origin et Cap Gemini. Ce dernier ne semble pas intéressé, tandis qu’Atos
fait part aux Échos de son intérêt dès le 23 décembre, via Gilles Grapinet, son
directeur général adjoint. Mi-janvier, Thierry Breton, PDG d’Atos confirme cet
intérêt sur BFM Business : « Nous sommes prêts évidemment à en discuter
avec l'État. C'est notre rôle. Si on nous le demande, on l'assumera ».
Une belle occasion pour Atos de se positionner auprès de grands comptes et
d’administrations avec une offre assurant confidentialité et souveraineté des
données. Mais est-ce réellement un argument sensé ? À voir. n
IT-expert n°95 - janvier/février 2012
27
Amazon illumine les bases NoSQL avec DynamoDB
En quelques clics, le nouveau service cloud DynamoDB d’Amazon Web Services
(AWS) permet au client de créer, dimensionner et maintenir des tables de base de
données NoSQL. Le tout réalisé sur la plateforme AWS qui assure à l’utilisateur de
bonnes performances avec mesure de celles-ci. Stockées sur des disques SSD, les
données profitent aussi d’une réplication synchrone sur plusieurs datacenters AWS.
Les systèmes de gestion de données NoSQL permettent de gérer les données non
structurées en très gros volume. D’où l’importance des performances. Un service
cloud peut s’avérer très intéressant pour une utilisation momentanée, ou encore pour
lancer une grosse opération sur quelques heures ou quelques jours.
Et Amazon confirme l’intérêt de cette tendance, comme pour Big Table (analyse de données en volume).
En effet, l’éditeur associe logiquement sa nouvelle offre à Amazon S3 (stockage cloud), mais aussi cette
offre à son service cloud Amazon EMR (Elastic MapReduce, ou Big Data). Expert aussi en marketing et
en tarification, Amazon annonce que DynamoDB est vendu 1 dollar le gigaoctet par mois. Séduisant
avec un stockage SSD ! n
RHEV 3.0, la plateforme de virtualisation griffée RedHat
Dans la guerre de la virtualisation, Red Hat sort sa nouvelle arme : Red Hat Enterprise Virtualization 3.0
(RHEV 3.0). Présentée comme une alternative ouverte et abordable aux logiciels VMware, RHEV 3.0
s’appuie sur le modèle open source, sous l’égide d’un éditeur bénéficiant d’une « indéniable rentabilité
financière ».
Suite au rachat de Qumranet en septembre 2008, Red Hat a intégré sa technologie KVM à RHEV un
an plus tard. Basée sur Red Hat Enterprise Linux 6.2, cette nouvelle version profite de plus de 1000
évolutions en performances, en montée en charge, mais aussi sur l’offre Desktop de virtualisation des
postes de travail (ou VDI).
La console de supervision a été réécrite en Java/JBoss et fonctionne désormais aussi sous RHEL, en
plus de Windows. Des modules d’administration Web et en ligne de commande complètent le dispositif,
de même qu’une API RESTful (architecture applicative pour systèmes distribués). Enfin, une nouvelle
marketplace RHEV (http://marketplace.redhat.com/rhev/) permet d’afficher et de dynamiser les offres
de l’écosystème autour de cette plateforme de virtualisation. n
Oracle colmate 78 failles dans ses produits
Entre le 17 et le 19 janvier 2012, Oracle a publié un ensemble de patchs corrigeant 78 vulnérabilités dans
une grande variété de ses logiciels. Ce CPU (Critical Patch Update) concerne aussi bien les bases de
données que le middleware ou les applications maison. Oracle reconnait que certaines de ses failles
sont exploitables à distance sans authentification.
27 de ces correctifs viennent colmater des brèches de la base de données MySQL, très utilisée par
les entreprises à travers le monde. 2 patchs corrigent des failles de Oracle Database, tandis que 11
d’entre eux concernent Fusion Middleware.
La suite ERP E-Business profitera de six correctifs, de même que, Peoplesoft, contre 8 pour JD Edwards.
Les produits Sun ne sont pas oubliés, avec 17 patchs pour GlassFish Enterprise Server ou le système
d'exploitation Solaris. Mais rien pour Java, dont la dernière mouture date seulement de décembre
dernier. Les entreprises sont fortement invitées à réaliser ces mises à jour. n
Plus d’information ici : http://www.oracle.com/technetwork/topics/security/cpujan2012-366304.html
28
IT-expert n°95 - janvier/février 2012
Actualités internationales
Une appliance Big Data Hadoopée par Oracle
Disponible depuis quelques semaines, l'appliance Big Data
d'Oracle associe la plate-forme serveur de Sun, le framework
Hadoop Cloudera, une nouvelle base de données NoSQL
et le langage d'analyse statistique R. On aurait pu penser
qu’Oracle développerait sa propre pile Hadoop. Cependant,
le time-to-market s’avère primordial pour prendre pied dans
un nouveau marché. En outre, Cloudera est déjà présent
dans de nombreuses grandes entreprises.
Conçue pour travailler de concert avec Database 11g et les serveurs Exadata maison, l’appliance
Big Data recourt à Exalytics, pour les traitements d'analyse décisionnelle. Les nouveaux Big
Data Connectors permettent de puiser les données de l’entreprise. Objectif : déployer
rapidement des environnements d’analyse Hadoop (Big Data) intégrant logiciel,
matériel et intégration tout-en-un.
La partie logicielle est orchestrée par Cloudera Manager, en
combinaison avec les ressources matérielles. L’appliance repose
sur un ensemble de 18 serveurs Oracle Sun en rack sous Linux
totalisant jusqu’à 216 coeurs CPU, 864 Go de mémoire, un
stockage maximal de 648 To, une connexion Infiniband à 40 Gb/s
entre noeuds et une liaison externe en Ethernet 10 Gb/s.
D’autres constructeurs ont déjà annoncé la disponibilité d’une appliance Big Data, comme
Dell et NetApp avec la pile Hadoop de Cloudera, tandis qu’EMC a adapté sa solution Greenplum en
intégrant la pile Hadoop de MapR. Il faut tout de même aligner environ 450 000 dollars pour commencer,
hors connecteurs. n
IBM se paie Green Hat, spécialiste des tests applicatifs
Green Hat édite une plateforme virtuelle de tests, spécialisée dans les
environnements SOA (Service Oriented Architecture) et le déploiement
d’applications cloud. Avec cette solution, les développeurs testent leurs
applications sans avoir à configurer physiquement des environnements de
tests. Économie en temps et en argent à la clé, sans oublier une meilleure
productivité, de qualité.
Les produits et équipes de Green Hat seront intégrés à la division Rational d'IBM, proposant déjà des
logiciels de tests. Green Hat apportera ses connaissances des environnements Netweaver de SAP,
Fusion Middleware d'Oracle ou encore des services Rest ou les nombreuses API qui s’appuient sur
ces architectures.
Créée en 1996, Green Hat occupe aujourd’hui une place intéressante sur le marché auprès d’entreprises
comme T-Mobile, BP ou de nombreuses banques britanniques. n
IT-expert n°95 - janvier/février 2012
29
Ingénierie des Performances
une approche orientée performance pour
sécuriser la disponibilité des applications
en production
30
IT-expert n°95 - janvier/février 2012
Comment ça marche ?
L’alignement des systèmes d’information aux enjeux métiers implique la disponibilité permanente des
applications et des processus métiers en production. Et ce, pour tous les utilisateurs métiers en leur
fournissant les performances nécessaires à la réalisation de leurs activités respectives.
La disponibilité des applications et des processus est d’autant plus critique face à des systèmes
d’information devenus de plus en plus complexes, à la fois en termes d’architecture applicative et
d’hétérogénéité des technologies déployées.
À titre d’exemple, une application n-tiers comprend de nombreux éléments d’infrastructure et soussystèmes communiquant entre eux via le réseau. C’est pourquoi les performances du système global
sont intrinsèquement liées aux niveaux de performances de chacun de ces sous-systèmes, voire de
chacune de leurs couches.
L’optimisation des performances correspond en général à la détection et à la résolution d’anomalies
applicatives ou d’insuffisances de certaines ressources en termes de capacité de traitement. Ces
anomalies ou insuffisances sont généralement détectées lors des tests de montée en charge, mais
elles doivent aussi être éliminées dès les phases de spécification, grâce notamment à des techniques
de modélisation.
Les insuffisances sont relatives à l’implémentation du système et peuvent survenir pour diverses
raisons comme :
• Des choix d’architecture techniques ou applicatives mal adaptés
• Un mauvais dimensionnement de l’espace réservé aux données
• Un code mal optimisé
• Une base de données non optimisée
• Une configuration matérielle sous-évaluée
• Un réseau sous-dimensionné
• Un système d’exploitation (OS) mal configuré
Les problématiques des performances des systèmes d’information doivent être adressées tout au
long du cycle de vie d’une application ou d’un système par des méthodes et pratiques spécifiques :
• Ingénierie des performances. Elle permet de modéliser le comportement d’une application dès
les phases de spécification afin de résoudre au plus tôt les problématiques de performance et d’en
diminuer drastiquement les impacts (notamment en coût et en délai).
• Réalisation des Tests de Performance et de Montée en Charge. Elle permet de réaliser sur des
environnements représentatifs une simulation du comportement des applications ou des systèmes
en termes de performance ou de tenue des charges.
• Le suivi des performances en production. Notamment du comportement des processus métiers
critiques, ainsi que de l’évolution du comportement de chacun des composants du système concerné.
Les entreprises sont de plus en plus sensibilisées à la réalisation des tests de performance, et intègrent
cette activité dans leurs phases projets. L’ingénierie des performances et le suivi des performances
restent quant à elles des activités encore très peu intégrées -voire marginales, au détriment de la
qualité applicative.
Cet article présente l’activité d’ingénierie des performances – méthode permettant de mettre en œuvre
l’Approche « Acceptance Driven Development Methodology » (A2DM).
Retour sur la problématique des performances
Dans la plupart des projets de mise en œuvre d’applications ou de systèmes, les impacts de performance
liés à la charge du système sont étudiés en fin de cycle de développement (en aval). Ainsi, dans le
meilleur des cas, la performance des composants est testée lors de leur livraison ; et, dans le pire des
cas, à la fin du projet.
Dans ces deux situations, il est souvent trop tard. Et les corrections aux problèmes de performance sont
complexes à gérer, car elles peuvent entraîner un grand nombre de modifications du code, voire d’architecture.
IT-expert n°95 - janvier/février 2012
31
Afin de répondre aux objectifs attendus, notamment en termes de maîtrise budgétaire et des délais, il
est essentiel d’intégrer la sensibilité face aux problèmes de performance dès le démarrage des projets.
Ce positionnement permet de partager les objectifs à atteindre par tous les acteurs incluant les équipes
techniques (architectes, experts, développeurs et intégrateurs), mais aussi par les équipes métier, ainsi
que par le management.
L’ingénierie des performances incarne une démarche pragmatique qui a pour but de fournir la qualité
de service requise par le client à un moindre coût, sans pour autant chercher à atteindre les limites du
système. Elle assure d’atteindre le degré de performance requis en jouant sur les leviers de gain les
plus efficaces, tout en évitant de tomber dans l’optimisation à outrance.
En effet, l’ingénierie des performances est constituée d’un ensemble de tâches devant se dérouler à
des points précis du cycle de développement du logiciel.
Objectifs de l’ingénierie des performances
L’objectif de la mise en œuvre de la méthode d’ingénierie des performances, reposant sur les méthodes
SPE (Software Performance Engineering), consiste à contrôler que les performances des composants
de l’application ou du système cible répondent bien aux enjeux, dans les conditions de volumétrie
attendues. Généralement, il s’agit :
• d’identifier le niveau de performance de l’application (temps de traitements, consommation de
ressources système, etc.),
• d’optimiser le système ou l’application par itération,
• de mettre au point des méthodes et outils permettant au projet de s'assurer que ses développements
respectent les objectifs de performance cibles, et notamment de définir un contrat de service pour
les transactions sensibles et types,
• de vérifier la stabilité de l’application,
• de définir les conditions optimales d'utilisation de l’application, permettant ainsi de définir les réglages
a priori de toutes les briques logicielles, matérielles et réseau,
• et de fournir les éléments nécessaires au dimensionnement des plates-formes qui pourraient être
nécessaires dans le cadre d’une évolution des métriques clients.
Cette vérification est réalisée par une première phase de modélisation alimentée par l’approche
technique des traitements, une définition des développements à prioriser, puis par comparaison
des temps d’exécution des composants du système cible relevés sur le banc de qualification des
performances (avec des valeurs de référence obtenues à partir de Service Étalon).
Une démarche forcément globale
Les caractéristiques spécifiques de l’architecture sur laquelle repose le système cible justifient qu’une
attention particulière soit portée aux performances d’exécution de l’ensemble des composants. La mise
en œuvre de l’ingénierie des performances permet de qualifier l’application en termes de performance
de consommation de ressources et de robustesse. Elle contribue à assurer en particulier le bon
fonctionnement du système en fonction de l’influence de paramètres tels que : le nombre d’utilisateurs,
la volumétrie des données, le paramétrage, les contraintes de temps CPU, la charge réseau, etc.
32
IT-expert n°95 - janvier/février 2012
Comment ça marche ?
Afin d’optimiser l’exploitabilité de la solution et de s’assurer de la parfaite prise en compte de toutes les
exigences du contexte du système cible, la démarche doit être fondée sur des métriques permanentes
qui permettent de suivre tout au long du projet les problématiques de performance.
Modélisation SPE
Abaques
Étalonnage
Métrique
permanente
Spécifications
Intégration
Recette
(Usine)
Validation
(Recette client)
Pilote
Production
Développements
Architecture technique robuste, souple et évolutive
Processus de métrique permanente
Ces métriques sont assorties d’un processus d’ingénierie des performances qui repose sur cinq
grandes phases :
• La prise en compte des contraintes de performance dès le démarrage du projet à travers une
modélisation orientée performance de l’architecture applicative globale du système cible.
Il convient tout d’abord de définir la stratégie de performance et le niveau de performance attendu,
ainsi que la modélisation des services associés aux processus métiers.
Ensuite, il s’agit de modéliser l’architecture applicative des services choisis (diagrammes de séquence)
et orientée performances (graphes d’exécution).
Une phase de résolution des modèles de performance et d’analyse des résultats au regard des
performances est effectuée pour statuer sur l’état de l’architecture (acceptation, évolution, etc.), afin
de définir les métriques à surveiller et la classification des composants en fonction de leur impact et
de leur criticité sur les performances du système.
• Un étalonnage représentatif du système cible afin de valider les choix d’architecture en avance de
phase et de détecter les goulets d’étranglement.
Dès que le projet est suffisamment avancé, il faut procéder au développement en priorité des services
représentatifs ou de leurs prototypes, à la définition d’une base de référence de mesures pour ces
services et effectuer une itération sur le modèle de performance à partir des mesures étalon.
• L’extrapolation des contraintes de performance au système cible complet en définissant le niveau
de performance attendu par chacun des services, classifier les composants de chacun des services
en fonction de leur typologie de performance et la distribution des objectifs de performance sur
chacun des composants en fonction de sa typologie.
• La qualification de chacun des composants du système cible au regard des contraintes de
performance qui lui sont associées. La réalisation des tests de qualification des services représentatifs
du composant, et la comparaison avec les objectifs de performance donnant lieu à une acceptation
ou rejet du composant, et l’évaluation des améliorations possibles.
• Des tests d’optimisation pour converger par paliers vers les performances globales cibles
notamment lors des phases d’intégration et de recette usine dans la mesure où des conditions
proches des plates-formes cibles sont disponibles. La réalisation des tests de performance, de
charge et de surcharge des services représentatifs, l’évolution par palier jusqu’au fonctionnement
nominal demandé, puis la prise en compte des périodes de pointe et pics de données.
La comparaison avec les objectifs de performance donnant lieu à une acceptation ou rejet du service,
et à l’évaluation des améliorations possibles.
IT-expert n°95 - janvier/février 2012
33
Les tests de charge et de performance s’appliquent sur une plateforme opérationnelle ou sur un
environnement représentatif. Ces tests sont effectués en simulant des utilisateurs qui exécutent des
transactions supportées par le système à tester.
Phase de modélisation
Initialisation
du processus
Modélisation orientée
performance
Non conformité
Résolution du modèle
de performance
Itération
Classification
des composants
Phase d’étalonnage
Étalonnage
de l’application
Non conformité
Problème d’architecture
Phase d’extrapolation
Extrapolation
du procesus
Rédaction du dossier
d’analyse
des performances
Livraison
d’un composant externe
Fabrication
d’un composant
Non conformité
Problème de développement
ou de spécification
Phase de qualification
Qualification technique
Phase d’optimisation
Optimisation
Validation de la recette
technique
Processus d’ingénierie des performances
34
IT-expert n°95 - janvier/février 2012
Non conformité
Problème de développement
ou de spécification
Garantie de qualité et de réduction des coûts
La mise en œuvre de l’ingénierie des performances est essentielle à une démarche d’architecture
orientée performance.
Elle permet d’apprécier les performances d’un système par la simulation comportementale lors des
différentes phases du projet.
Cette approche proactive favorise l’utilisation de bonnes pratiques de performance, l’identification et
la résolution au plus tôt des problèmes liés à la performance, le calibrage au plus juste des tests de
performance et de montée en charge nécessaires à la validation du système.
Les bénéfices de l’ingénierie des performances se traduisent en termes de garantie de la qualité, de
la disponibilité, du respect des délais et de la réduction des coûts. n
Nasime El Fartass,
TAM Performance Solution Manager
Mohamed Bedouani,
TAM Offering Manager
Atos, acteur international des services informatiques avec un chiffre d’affaires annuel de 8,6 milliards d’euros et 74 000 collaborateurs
dans 42 pays, fournit à ses clients du monde entier des services transactionnels de haute technologie, des solutions de conseil et
de services technologiques, d’intégration de systèmes et d’infogérance. Grâce à son expertise technologique et sa connaissance
industrielle, il sert ses clients dans les secteurs suivants : Industrie, Distribution & Services ; Public, Santé & Transport ; Services
Financiers ; Télécoms, Médias & Technologie ; Energie & Services Publics.
Atos délivre les technologies qui accélèrent le développement de ses clients et les aide à réaliser leur vision de l’entreprise du futur.
Atos est le partenaire informatique mondial des Jeux Olympiques. Le Groupe est coté sur le marché Eurolist de Paris et exerce ses
activités sous les noms d’Atos, Atos Consulting and Technology Services, Atos Worldline et Atos Worldgrid.
Site web : http://fr.atos.net
IT-expert n°95 - janvier/février 2012
35
Cloud
Computing
World expo
Solutions
DataCenter
Management
Livres
La sécurité dans le cloud
Cloud par-ci, cloud par-là… Lors de l’arrivée du concept, les grands acteurs
installés ont essentiellement critiqué ces architectures, qualifiées de non
sécurisées, jusqu’à… ce qu’ils proposent eux-mêmes leurs solutions. Cependant,
la problématique surexposée de la sécurité n’a pas disparu pour autant. D’où
l’intérêt de ce livre qui ne se limite pas aux uniques aspects liés à la sécurité.
Après une large introduction très didactique consacrée au cloud sous toutes
ses formes (deux chapitres et 54 pages), l’auteur aborde les risques et aspects
juridiques et les responsabilités de chacun face à ces environnements.
Puis les principes de sécurités font l’objet d’une centaine de pages : architecture,
données sensibles, chiffrement, politiques et bonnes pratiques, stockage, client
captif du cloud… Le livre se penche sur le cloud interne ou privé, également
abordé sous l’angle de la sécurité. Sans oublier le choix d’un fournisseur de
cloud : garanties, risques et critères de sécurité.
Enfin, les RSSI apprécieront les 20 pages consacrées au framework d’évaluation
de la sécurité de l’information en mode cloud, avec check-lists et métriques. Un
livre illustré de schémas simples mais complets, avec une démarche et un ton
pédagogiques et concrets.
La sécurité dans le cloud
Techniques pour une informatique en nuage sécurisée
Vic (J.R.) Winkler
Éditeur : Pearson
336 Pages - environ 37 €
Urbanisation, SOA et BPM - Le point de vue du DSI
DSI de Bouygues Telecom de 2001 à 2006, puis directeur général adjoint de
la même entreprise, Yves Caseau est bien placé pour aborder la question de
l’urbanisation du point de vue du DSI.
Toujours rédigée pour les DSI, managers et chefs de projets, mais aussi aux
développeurs et concepteurs, cette quatrième édition reprend bien évidemment
l’ensemble du propos sur les principes de l’urbanisation et du BPM (Business
Process Management). Complet, l’ouvrage aborde tous les aspects de ces projets
(stratégiques, organisationnels, matériels ou logiciels) sur trois parties.
La première présente la démarche d'urbanisation et ses enjeux à partir des
objectifs opérationnels d’un DSI. La seconde analyse et répond aux six contraintes
fondamentales : coût, agilité, exploitation, conduite du changement, gestion
des données distribuées et flexibilité du déploiement. Dans la troisième partie,
l’auteur expose sa vision sur les évolutions à venir des systèmes d'information.
Bien plus qu’une republication, cette nouvelle édition a été enrichie et améliorée.
Ainsi, l’auteur a intégré les problématiques liées au cloud computing et à l’évaluation
de la complexité, enjeux majeurs du système d’information contemporain.
Urbanisation, SOA et BPM - Le point de vue du DSI (4e édition)
Yves Caseau
Éditeur : Dunod
304 pages - environ 35 €
IT-expert n°95 - janvier/février 2012
37
21 & 22 MARS 2012 - CNIT - PARIS - LA DÉFENSE
LE RENDEZ-VOUS DE LA GESTION DE L’INFORMATION
ET DU DOCUMENT NUMÉRIQUE EN ENTREPRISE
z, partagez, sécurisez
archivez, diffuse
z,
se
ni
ga
or
z,
ée
cr
,
ez
ch
er
ch
re
z,
Dématérialise
NOUVEAU
TEMPS FORTS
DOCUMATION en tenue conjointe avec
> Un espace Innovation
> Les E-Doc Awards
> Le Village SharePoint Project
et Office 365
> Le Pavillon de la FNTC
> Le Pavillon Communication
Technique
180 EXPOSANTS
ET DES CONFÉRENCES D’EXPERT CIBLÉES
Archivage • Communication technique • Content
Intelligence • Dématérialisation • ECM • Edition,
formation • Editique • Etudes et conseils • GED •
Gestion de bibliothèques /catalogues • Gestion des
contenus multimédias • Gestion des processus • Green
IT • Management de projet • Moteur de recherche
d’entreprise • Patrimoines immatériels • Publication,
Diffusion • Open source • SAAS, Cloud Computing •
Social Medias • Solutions mobiles • Solutions de partage •
Technologies de la connaissance
Avec le soutien de
Commandez votre badge gratuit sur
www.documation.fr
Code marketing : PUBITE