IT_64 - IT-expert Magazine

Transcription

IT_64 - IT-expert Magazine
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
Bimestriel - novembre/decembre 2006 - 16€
Capital
Immatériel
n°64
Les curseurs sous
SQL Server PAGE 37
PAGE 6
Wimax
Windows Vista : le nouveau système
d’exploitation de Microsoft PAGE 28
PAGE 45
ZOOM OUTSOURCING
L’AVIS DES DIRECTIONS INFORMATIQUES
Ministère des Finances
Direction Générale des Impôts
Nadine Chauvière
Sous-Directrice des SI de la DGI
« Les solutions d’Application Intelligence
CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de
tableaux de bord composés d’indicateurs
techniques objectifs afin de faciliter le dialogue
avec les équipes et avec nos maîtrises d’ouvrage. »
Groupe SFR Cegetel
Eric Eteve
Directeur Informatique
Centre Ingénierie Mobilité
« La solution CAST de gestion de la soustraitance est un élément clé dans le système
de pilotage mis en place par SFR-Cegetel
sur ses TMA. Nous avons constaté une
attention plus particulière apportée par les
SSII à la qualité des livrables et à la fiabilité
des chiffrages depuis qu’ils savent que nous
pouvons facilement les auditer »
Framatome - Groupe AREVA
Michel Fondeviole
DSI de Framatome-ANP
« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec
le sous-traitant ainsi que des indicateurs
nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome
un outil de progrès partagé. »
EN SAVOIR PLUS
Demandez le Livre Blanc rédigé par le
Gartner Group et CAST sur ce thème :
« Information Series on Application
Management » :
www.castsoftware.com/outsourcing
Découvrez l’expérience de plusieurs
sociétés utilisatrices de solutions
d’Application Intelligence :
www.castsoftware.com/customers
www.castsoftware.com
La maîtrise des applications
et des prestataires dans
une opération d’outsourcing
De la valeur ajoutée de l’Application
Intelligence pour piloter efficacement
un parc applicatif sous-traité
Dans l’externalisation des applications métier,
c’est surtout la volonté d’accroître l’efficacité
opérationnelle de l’informatique qui est motrice :
pouvoir fournir plus rapidement un service à
valeur ajoutée aux utilisateurs et aux clients dans
un contexte en perpétuelle évolution.
de coûts.
C’est là que le bât blesse : l’externalisation des
applications métier occasionne un risque de
perte rapide de savoir-faire technologique et
par conséquent critique. Vigilance et suivi sont
de mise pour garder le contrôle de la qualité
de service et éviter les dépendances par nature
dangereuses.
L’externalisation réussie d’applications métier
est donc le fruit d’une vision anticipatrice partagée avec le prestataire. Sont ainsi apparues
des solutions dites d’Application Intelligence,
basées sur une technologie avancée d’analyse
de code source.
Publi-Reportage
La valeur ajoutée de ce type de solutions d’Application Intelligence est visible à chaque étape
d’une opération d’outsourcing, comme décrit
ci-après.
trat
con
de
Fin
Appe
ls d
'off
res
Cycle de vie
d'une opération
d'Outsourcing
Co
ntr
ôle
des
coûts
i de
Suiv
connaissance
s
sfert de
Tran
Comme dans n’importe quelle opération d’outsourcing, le contrat liant le fournisseur est capital, en particulier les SLAs. Néanmoins, les
applications métier étant par nature soumises à
de fréquents changements en cours de contrat,
les seuls SLAs se révèlent vite insuffisants pour
garantir la qualité de service et éviter les dérives
En fournissant des indicateurs techniques aux
donneurs d’ordre, ces solutions permettent de
piloter un parc applicatif sous-traité en temps
réel, tant en terme de qualité, que de maintenabilité et de coût. Résultat : le donneur d’ordre
conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec
son sous-traitant.
technique
Recette
L
es entreprises, devenues plus mûres
vis-à-vis de l’outsourcing, sont désormais capables d’opérer des externalisations plus stratégiques. On l’a récemment
observé dans l’automobile avec Renault ou dans
la grande distribution avec Carrefour.
jet
pro
Audit de l’existant et préparation des appels
d’offres
• Déterminer les caractéristiques techniques
du portefeuille applicatif existant avant de le
sous-traiter
• Disposer d’informations de référence pour
évaluer les propositions des sous-traitants
• Obtenir une image à l’instant t des applications pour permettre un suivi dans le temps
Transfert vers le prestataire
• Réduire la phase d’acquisition de la
connaissance pour entreprendre plus vite
des tâches productives
• Diminuer le coût lié à la production d’une
documentation exploitable et maintenable
par le prestataire
Contrôle de la qualité et des coûts en cours de
projet
• Suivre l’évolution de la maintenabilité et de
la qualité pour éviter toute dérive
• Etre capable de valider la quantité et la qualité
du travail facturé
• Etre en mesure de challenger le sous-traitant lors des négociations d’avenants
• Industrialiser les recettes techniques
Renouvellement de contrat, transfert ou ré-internalisation
• Déterminer et qualifier les écarts entre la
prestation prévue et les livrables recettés
• Disposer des informations techniques
caractéristiques du portefeuille applicatif en
fin de prestation
Le leader mondial de ce type de solutions est
d’ailleurs un éditeur français, CAST. Reconnu
par les analystes informatiques comme précurseur du marché, CAST compte plus 500
comptes utilisateurs de sa plate-forme d’Application Intelligence dans le monde.
Edito
édito
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
Le capital immatériel n’est certes pas une nouveauté. L’année 2006 aura cependant été l’occasion de son retour sur le devant d’une scène largement monopolisée par des considérations
comptables et financières. La difficulté à le valoriser, alors même que les normes comptables
USGAP et IFRS ont pris de l’ampleur ces dernières années explique peut-être cette éclipse dont
on constatera avec intérêt qu’elle semble n’avoir été que passagère.
Qu’il soit technologique, humain ou organisationnel, le capital immatériel occupe une place prépondérante dans les activités relatives aux
technologies de l’information et des communications. Bien plus que
les machines et l’infrastructure réseau, la valeur ajoutée tient dans ce
domaine aux individus, à l’inventivité dont ils font preuve et aux méthodes qu’ils appliquent. Malgré l’évidence de cet état de fait, il nous faut
constater la quasi-absence de moyens à la portée des décideurs pour
valoriser de manière factuelle ces éléments. En découle naturellement
l’absence de pilotage de cet aspect primordial de leur activité et donc
le gaspillage. Dans un monde où les activités tertiaires et les services
occupent une place sans cesse croissante, continuer à jouer en aveugle serait suicidaire. L’ébauche de prise de conscience de ces richesses aujourd’hui peu ou pas gérées est encourageante, mais le chemin
à parcourir est à la fois long et surtout nécessite une remise en cause
profonde de nombreuses habitudes. Au bout de celui-ci se trouve
pourtant un monde nouveau dans lequel l’Homme retrouverait une
position centrale et auquel la société actuelle semble aspirer.
Reste à savoir si les Etats Européens sauront s’accorder sur les réformes indispensables et les mettre rapidement en ouvre. Sur ce plan, la
France se devrait de jouer un rôle moteur, pour peu que nous sachions
regarder la réalité en face et préférer nous tourner vers l’avenir plutôt
que de nous accrocher à un modèle vieillissant et bientôt obsolète.
Jean-Pierre FORESTIER
Rédacteur en Chef
Editeur
Press & Communication France
Une filiale du groupe CAST
3, rue Marcel Allégot
92190 Meudon - FRANCE
Tél. : 01 46 90 21 21
Fax. : 01 46 90 21 20
http ://www.it-expertise.com
Email : [email protected]
Rédacteur en chef
Jean-Pierre Forestier
Email : [email protected]
Directeur de publication
Aurélie Magniez
Email : [email protected]
Abonnements/Publicité
Email : [email protected]
Conception Graphique
C. Grande
Email : [email protected]
Imprimeur
Moutot Imprimeurs
Parution
IT-expert - (ISSN 1270-4881) est un journal édité 6 fois par an, par P & C France,
sarl de presse au capital de 60 976,61 €.
Avertissement
Tous droits réservés. Toute reproduction
intégrale ou partielle des pages publiées
dans la présente publication sans l’autorisation écrite de l’éditeur est interdite,
sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957.
© 1996 P&C France. Toutes les marques
citées sont des marques déposées.
Les vues et opinions présentées dans
cette publication sont exprimées par les
auteurs à titre personnel et sont sous leur
entière et unique responsabilité. Toute
opinion, conseil, autre renseignement ou
contenu exprimés n’engagent pas la responsabilité de Press & Communication.
Abonnements
01 46 90 21 21
Prix pour 6 numéros (1 an)
France ; U.E. : 89 € TTC
Dom TOM, Autres Pays : 128 € TTC
Un bulletin d’abonnement se trouve
en page 35/36 de ce numéro.
Vous pouvez vous abonner sur
http://www.it-expertise.com/
Abonnements/Default.aspx
ou nous écrire à
[email protected]
4
IT-expert n°64 - novembre/décembre 2006
IT-expert n° 64 - novembre/décembre 2006
Sommaire
6
Dossier
L’économie de l’immatériel : être ou ne pas être un leader économique
En décembre dernier, Thierry Breton, ministre de l’économie des finances et de l’industrie, se
voyait remettre le rapport de la Commission sur l’économie de l’immatériel. Maurice Lévy son
président, a bien voulu retracer pour nous les enjeux majeurs mis en lumière par les travaux
de la commission et les principales propositions qui en ont découlées.
10
25
Optimiser la gestion des actifs de la DSI et du SI : Apports et enjeux du
capital immatériel
Le CIGREF a consacré l’an dernier deux rapports au capital immatériel, marquant ainsi
tout l’intérêt que les grandes entreprises françaises lui portent, en particulier dans un
domaine : l’informatique, où l’immatériel est omniprésent. Notre dossier positionne
tout d’abord le capital immatériel comme composant du capital de l’entreprise, en définit les constituants. Une seconde partie, présente la méthode IC-dVAL ® comme outil de
management et de communication pour les DSI conscientes de l’importance de
cette part du capital trop souvent négligée.
Actualités Internationales
Actualités internationales et annonces produits chez les éditeurs…
28
Quoi de Neuf Docteur ?
Windows Vista : le nouveau système d’exploitation de Microsoft
Le nouveau système d’exploitation de Microsoft bat tous les records, 6 milliards de dollars d’investissement auquel ajouter 500 millions de dollars pour la seule campagne de
lancement. Si la migration des entreprises n’interviendra sans doute pas avant 2008, nous
ne pouvions attendre cette échéance pour faire le point sur les faits marquants du remplaçant annoncé de Windows XP.
37
Comment ça Marche ?
Les curseurs sous SQL Server
L’emploi des curseurs dans SQL Server a toujours été déconseillé. Il arrive cependant que
certains traitements de données ne puissent s’exprimer aisément sous forme ensembliste. Plusieurs techniques existent qui ne nécessitent pas de curseurs et que nous
passons en revue dans cet article. L’une d’elle tire partie de la présence du CLR (.Net)
dans la version 2005 du moteur.
40
Fenêtre sur cour
Interview de Madame Seigneur,
Directeur Informatique du Conseil Général de Vendée
Madame Seigneur, Directrice Informatique du Conseil Général de Vendée nous présente
l’avancement du plan ambitieux décidé il y a trois ans pour donner accès aux technologies
haut débit sur la totalité du département.
43
Livres
Clear Blogging et Design Patterns en Ajax sont les ouvrages que nous vous
recommandons ce mois-ci.
45
Rubrique à brac
Wimax
A la veille de l’attribution des licences aux opérateurs de la Boucle Locale Radio, notre
article présente Wimax. Son arrivée prochaine intéressera toutes les entreprises qui
déçues de l’ADSL ou simplement inéligibles pour ce mode de communication ne pouvait
jusqu’alors pour accéder à l’internet que se tourner vers des lignes spécialisées ou des
liaisons satellitaires à prix astronomique.
IT-expert n°64 - novembre/décembre 2006
5
Dossier & Interviews
L’économie de l’immatériel :
être ou ne pas être
un leader économique
Par Maurice Lévy,
Président du Directoire de Publicis Groupe
Président de la Commission sur l’économie de l’immatériel
nous avions le plus besoin : une définition, c’est-à-dire la
réponse à cette question, préalable à toutes les autres :
« De quoi s’agit-il ? ».
Quand Thierry Breton m’a demandé de présider la Commission sur l’économie de l’immatériel, j’ai d’abord été,
comme tous les membres de la Commission, saisi par le
vertige de la tâche. La démarche du Ministre était originale et nouvelle, et il n’était donc pas possible de compter sur le renfort de précédents ou d’exemples similaires
venus de l’étranger. Nous avions tout à inventer, et nous
avons donc commencé par écouter ce qu’avaient à nous
dire les témoins, venus de partout (entreprises, banques,
directions d’administrations centrales, universités… en
France et à l’étranger), sur l’émergence de cette nouvelle frontière des économies développées. Ces audiences, nombreuses, passionnantes, ont été l’occasion
pour nous de recueillir des informations et d’entendre
des propositions. Les idées se précisaient, les méthodes
se dessinaient, et les objectifs apparaissaient de plus en
plus clairs. Et ce qui émergeait surtout, c’était ce dont
6
IT-expert n°64 - novembre/décembre 2006
L’immatériel, c’est une économie qui n’a pas de fondement physique, et qui place la capacité intellectuelle,
l’imagination, l’inspiration, en un mot le talent, au cœur
de toute création de valeur. C’est donc une économie qui
est dans tout, qui est partout, et qui irrigue tous les secteurs de la vie du pays. C’est l’acte de création d’un couturier, le choix des fragrances d’un nez, l’idée d’une
marque, le design d’un objet. Mais c’est aussi la recherche, les brevets, ou la finance, déjà dématérialisée. Et
c’est encore tout ce qui tourne autour des technologies
de l’information et de la communication. Et c’est la musique, la culture… L’immatériel constitue une part considérable de l’économie : la priorité est de le répertorier, de
l’évaluer, et d’en connaître la dimension exacte, évidemment déterminante. L’invention de cet outil de mesure
devra être, pour la France, une priorité. L’immatériel
recèle d’immenses potentialités de développement. Il
suffit pour s’en convaincre de tourner ses regards vers
les Etats-Unis, la Corée du Sud, ou l’Inde. Cette économie de l’abstrait est devenue une réalité concrète
aujourd’hui, elle est destinée à l’être de plus en plus et à
occuper, dans le fonctionnement des pays développés,
une part toujours croissante. On peut déjà estimer que
l’immatériel représente à peu près, pour notre pays,
15 % de la valeur ajoutée et 20 % de l’emploi.
La Commission a progressivement découvert, à mesure
qu’avançaient ses travaux, que l’immatériel offrait à la
France la possibilité de gagner un point de croissance
supplémentaire, ce fameux point qui, depuis trop longtemps, fait cruellement défaut à notre économie, et dont
l’absence nous empêche d’entreprendre et d’avancer.
La croissance continuera, bien sûr, de s’appuyer aussi
sur l’économie industrielle, dont il ne nous est pas venu
un instant à l’esprit de contester le caractère éminent, et
que nous recommandons de renforcer. Mais c’est l’immatériel qui fera la différence. C’est vers l’immatériel que
la France doit se tourner si elle veut renouer avec une
croissance créatrice d’emplois.
C’est dans cet esprit que nous avons formulé des
recommandations. Elles sont nombreuses, et elles touchent à bien des secteurs de l’économie nationale. On
pourra trouver cette diversité trop ambitieuse, et juger
que nos propositions, par leur nature et par leur nombre,
vont dans des directions trop multiples. Il est vrai que ce
sont des recommandations tous azimuts. Mais c’est
l’immatériel qui est une économie tous azimuts. Si nous
voulons aborder cette nouvelle page avec confiance et
affronter les défis avec des armes dignes d’eux, il nous
faudra oser des réformes qui modifieront, et parfois en
profondeur, bien des aspects de notre économie et bien
des secteurs de notre société. La Commission, si l’on
considère l’ampleur de la tâche qui lui était confiée, le
caractère novateur du problème qui lui était soumis, et
l’ambition qu’elle se devait d’avoir pour l’économie française, n’avait pas d’autre choix que d’essayer d’être,
sinon exhaustive, du moins aussi éclectique que possible dans ses orientations.
La Commission a esquissé trois directions pour ces
changements nécessaires.
• Il faut d’abord changer de réflexes. Cela paraît presque impossible, parce que les réflexes, qui sont de
l’ordre de l’instinct, se subissent plus qu’ils ne se
commandent. Mais il nous faudra justement rendre possible cet effort sur nous-mêmes, pour rompre avec l’économie de la rente, qui pérennise les
situations acquises et qui préfère la logique de la
subvention à celle de l’investissement. Ainsi donnerons-nous aux talents, encore trop souvent insoupçonnés, de notre pays la chance de se révéler et de
s’épanouir comme ils le méritent.
• Il faut ensuite changer d’échelle. L’économie de
l’immatériel ne connaît pas de frontières. C’est une
économie de réseaux fondée sur le numérique qui
se joue de l’espace géographique. Les informations, dans ce monde digital, interactif et mobile,
passent en un clin d’œil d’un bout à l’autre de la
planète. Le commerce a changé de forme et de
nature : le soleil ne se couche jamais sur les transactions électroniques. Le cadre de l’action publique ne pourra donc pas, sur ce sujet, être
strictement national. L’Europe est, dans l’économie de l’immatériel, l’espace le plus restreint qu’il
soit permis de concevoir. Les réformes fiscales,
notamment en ce qui concerne la TVA, devront par
exemple être européennes. La relance de l’idée et
du fait européens sera à la fois la cause et la conséquence du développement de l’économie de l’immatériel.
• Il faut enfin changer de modèle. Que l’on ne se
méprenne pas : la Commission n’a à aucun
moment envisagé de renoncer au modèle français,
dont chacun mesure ce qu’il doit à des siècles de
combats. Mais on ne pourra pas éviter de regarder
la réalité en face : le système français a été conçu
pour le monde d’hier, un monde où les contraintes
n’étaient pas les mêmes, où les richesses ne coulaient pas des mêmes sources et où l’économie
répondait à des exigences et à des définitions
aujourd’hui souvent désuètes.
Ces changements, nous en avons articulé l’expression
autour de 70 recommandations concrètes. Nous avons
conscience du fait que certaines d’entre elles remettent
en cause, d’une façon parfois abrupte, nos habitudes
ou nos traditions, et qu’il faudra du courage pour les
appliquer. Mais c’est précisément de cette vertu que la
France a besoin : du courage.
Je ne peux évidemment pas énumérer toutes les propositions que nous avons formulées, mais je tiens à en
retenir quelques-unes :
• Améliorer notre gestion de l’image de la France à
l’étranger en constituant au sein de l’AFII une cellule
de veille et de réaction aux changements internationaux. L’exercice du métier de publicitaire m’a
appris qu’une image se gouverne ou se subit, et
que si on ne fabrique pas soi-même l’idée que les
autres se font de vous, on est contraint de se regarder dans le miroir déformant qu’ils vous tendent.
La marque France est un capital immense, dont la
gestion devra être confiée à une agence dédiée.
• Privilégier les PME dans le cadre de la commande
publique, selon un Small Business Act à l’européenne. Dans l’économie de l’immatériel, qui est
une économie en mouvement, rien n’est plus dan-
IT-expert n°64 - novembre/décembre 2006
7
gereux que de rendre immuables les puissances
établies. Les gisements de croissance se trouvent
largement dans les entreprises de petite taille, dont
il faudra encourager en particulier les projets de
recherche.
• Améliorer nos performances en matière d’enseignement supérieur. L’Université française, qui fut
autrefois un exemple pour le monde, décline à une
vitesse qui met en péril le statut et le prestige de
notre pays. Il faut, pour reprendre la formule que
notre rapport a inspirée à Thierry Breton, un véritable « plan Marshall » pour l’enseignement supérieur : accroître de 0,5 point de PIB l’effort dans
cette direction apparaît, étant donné l’ampleur de la
crise, comme un minimum. Mais l’argent ne suffira
pas : les universités ont besoin de cette autonomie,
garantie de la concurrence et de la compétitivité,
qu’on leur refuse depuis trop longtemps. Et il est
vital pour l’avenir du pays qu’elles puissent choisir
leurs étudiants. La sélection, dès lors qu’elle se
fonde sur des critères justes, ce n’est pas l’inégalité,
c’est la véritable égalité : celle des chances.
• Adapter notre fiscalité à l’immatériel. Il est temps
de passer de la logique de la taxation à celle de l’incitation, et de réfléchir à des modifications profondes de notre système fiscal, notamment en
ramenant le taux normal de l’impôt sur les sociétés
à la moyenne de l’Union européenne.
• Renforcer le rayonnement des musées français en
leur donnant la possibilité de céder le droit d’utilisation de leur nom dans des conditions très strictes et
de vendre certaines de leurs œuvres selon des
modalités très encadrées, ainsi qu’en ouvrant la
voie à des fonds de dotation sur le modèle des
« Endowment funds » à l’américaine. Entendonsnous bien : il ne s’agit pas de livrer nos institutions
culturelles, qui sont inestimables et qui font de la
France un joyau, aux lois les plus aveugles du marché. Il s’agit de garantir qu’elles resteront dignes
de leur mission de service public, en leur donnant
les moyens de leurs ambitions, ce qui suppose
d’ouvrir plus largement leurs sources de financement. Sur ce point comme sur les autres, la France
ne peut pas s’offrir le luxe de refuser les meilleures
volontés et de décliner les offres généreuses. Il faut
pour cela savoir atténuer les frontières arbitraires, et
notamment la distinction public-privé qui oppose
les énergies au lieu de les rassembler.
8
IT-expert n°64 - novembre/décembre 2006
• Mettre en place un plan d’accompagnement des
efforts de l’industrie du logiciel dans les domaines
de la formation initiale, de l’internationalisation, de
la R&D et de l’image de l’industrie française du logiciel. L’objectif devrait être de faciliter le doublement
du chiffre d’affaires d’une quinzaine de sociétés
dont le CA est inférieur à 15M euros. Il existe une
réelle chance de développer de nouveaux champions mondiaux du logiciel, en s’appuyant sur la
position de ces grands utilisateurs. Plusieurs types
de modalités peuvent être envisagés, notamment
l’externalisation concertée de blocs logiciels d’utilité commune vers des éditeurs. On pourrait par
exemple tâcher de reproduire le modèle réussi
d’Amadeus. Une dynamique pourrait être lancée
au niveau national, en s’appuyant sur les travaux de
l’Allemagne et des pôles de compétitivité.
• Créer un Haut conseil pour la croissance pour l’immatériel présidé par le Premier ministre. J’entends
d’ici la réplique : « encore un comité Théodule ! ». Il
ne s’agit pourtant pas de créer une institution de
plus, mais de placer sous le contrôle de l’autorité
publique la mise en œuvre énergique des réformes
nécessaires. Le passage à l’ère immatérielle ne se
fera pas sans audace ni sans une forte impulsion
politique. Il conviendra notamment de remettre en
cause notre conception et notre organisation du
travail, beaucoup trop rigide et contraignante pour
une économie qui est, par définition, celle de la
liberté, de la flexibilité, et de l’esprit d’entreprendre.
Et il faudra revenir sur le maquis de nos législations
et recommandations.
Dans cet univers aussi instable qu’imprévisible, c’est une
activité aussi indispensable que périlleuse que de mettre
en relation les systèmes d’information, et d’en optimiser
la valorisation. L’informatique est à la fois une cause, une
conséquence et un symbole de ce monde où tout est
immédiat et interconnecté. Car le monde change. Et
nous ? Changeons-nous aussi vite et aussi profondément que lui ? Il n’est pas trop tard, mais il faut s’y mettre tout de suite. Les bouleversements que j’ai décrits
ne sont pas pour un avenir lointain. Ils ont eu lieu. Nous
y sommes. Demain, c’était déjà hier, et pour que la
France renoue avec sa croissance perdue, il lui faudra
être de son siècle. Pour cela, elle aura besoin de tous ses
talents, c’est-à-dire de cette admirable réserve d’énergie
que constituent ses femmes et ses hommes. C’est une
chance. Il revient à chacun d’entre nous de ne pas la
laisser passer. I
ORESYS,
Acteur majeur du conseil en management et organisation, ORESYS s’engage auprès des
grandes entreprises pour accompagner leurs projets de transformation et l’amélioration
de leurs performances. Nos 200 consultants experts s’engagent en synergie avec les
équipes internes. Leur originalité tient dans une multi compétence tant sur les volets
métiers, fonctionnels que technologiques.
_Notre savoir-faire
Notre savoir-faire s’étend de la définition d’une stratégie à sa mise en ouvre opérationnelle,
en intégrant les dimensions organisation, accompagnement du changement et systèmes
d’information. Oresys dispose des compétences et des outils pour assister ses clients sur
tous les aspects de la conduite de grands projets de transformation.
www.oresys.com
Design > www.enola-creation.fr
ENSEMBLE POUR LA RÉUSSITE
DE VOS PROJETS
OPTIMISER
LA GESTION
DES ACTIFS DE
LA DSI ET DU SI :
Apports et enjeux
du capital immatériel
10
IT-expert n°64 - novembre/décembre 2006
Révolution ou révélation du capital immatériel ?
L’année 2006 a été marquée par de nombreuses d’annonces
autour de l’économie de l’immatériel et de son carburant principal, le capital immatériel. Le monde des systèmes d’informations
n’a pas échappé à ce mouvement. Il n’y a à cela pas vraiment
matière à étonnement. Tous ceux qui, depuis bien longtemps ou
plus récemment, sont convaincus que le capital immatériel représente à la fois une approche pertinente, efficace et opérationnelle, trouveront là matière à se réjouir.
A l’inverse du conte, le roi était sans doute élégamment habillé
depuis longtemps, mais la révélation est tout aussi fulgurante.
Pourquoi plutôt en 2006 qu’auparavant alors que depuis longtemps les concepts et les méthodes existent ? Pourquoi, alors
même que la littérature académique en traite depuis plusieurs
décennies avec une certaine abondance ? Pourquoi maintenant
alors que depuis des générations tous les décideurs sont intimement persuadés de l’importance du capital immatériel ?
Il existe 4 raisons clefs pour l’intérêt actuel autour du capital
immatériel :
• Une réalité : l’économie de la connaissance et la dématérialisation
• Un manque : la non ou mauvaise prise en compte de facteurs
clés de performance dans les comptes de l’entreprise
• Une demande : ne pas réduire le management des entreprises
et la stratégie aux seuls indicateurs financiers
• Une nouveauté : des méthodes nouvelles pour utiliser au mieux
des facteurs concurrentiels importants
Notre propos s’appuie sur bientôt quatre années d’échanges et de
travaux dans le cadre du CIGREF. L’initialisation des réflexions sur
le capital immatériel au CIGREF a débuté en 2000 dans le cadre du
groupe de travail sur la gestion des connaissances, dont le rapport
de synthèse consacre une annexe détaillée sur le thème « Quelle
est la valeur du savoir et de la connaissance de l’entreprise ? ».
Disons clairement que nous ne prétendons pas que le capital immatériel soit une révolution conceptuelle ni que son application puisse
être pensée comme une panacée faisant table rase. Bien au
contraire, c’est tout l’intérêt de cette approche que de s’inscrire
dans une continuité englobante sur le plan des idées, des méthodes
et des pratiques. Aussi les chasseurs de pierre philosophale stratégique et autres martingales managériales resteront sur leur faim.
IT-expert n°64 - novembre/décembre 2006
11
La valeur : un objectif qui nécessite des
moyens
Identifier les actifs immatériels
Comme souvent, il faut autant que possible définir ce que recouvrent
les termes. Et bien entendu comme tout domaine riche et dynamique, le capital immatériel se décline sous différentes appellations,
marquées par l’origine différente des approches. Capital, actif ou
ressource seront qualifiés d’immatériel, d’incorporelles, d’intangibles, d’intellectuel. Pour beaucoup d’auteurs et de praticiens, les
différentes expressions sont prises comme synonymes. Dans tous
les cas, les différentes nuances exprimées ne doivent pas masquer
la convergence d’enjeux et de points de vue par rapport à des approches plus classiques de l’entreprise et de l’économie.
Pour une organisation, créer de la valeur signifie remplir sa mission
avec efficience, quelle que soit la nature de cette mission. La
mesure de la valeur créée est nécessaire. Mais la mesure de la
valeur ne doit pas occulter que celle-ci est une résultante. La
valeur est un effet et non la cause. C’est le message fondamental
notamment d’une approche comme la Balanced Scorecard. Cela
démontre aussi que même en réduisant la valeur aux résultats
financiers, il ne faut pas négliger des aspects non financiers.
A priori, tout manager souhaite créer le plus de valeur possible. Il
ne peut se contenter de mesurer cette valeur. Il doit agir sur les
causes, les facteurs de création de valeur. Ces facteurs sont les
vrais actifs de l’organisation. D’une certaine manière, le seul rôle
du manager, c’est d’assurer la meilleure combinaison des facteurs
de création de valeur. En clair, le manager gère des actifs.
I Une définition
Le capital immatériel désigne l’ensemble des actifs non monétaire et
sans substance physique détenus par l’entreprise en vue de son
utilisation pour la production ou la fourniture de bien et de services.
Ces actifs, quels sont ils ? Ils existent trois catégories distinctes d’actifs : l’actif monétaire, les actifs matériels, et les actifs immatériels.
Les deux premières catégories sont bien connues. Elles sont aussi
dotées d’un corpus étendu, détaillé, spécifique et souvent normalisé
pour leur gestion et l’optimisation de leur utilisation. La troisième catégorie n’est pas aussi bien lotie. Cette différence serait anodine si la
place prise par les actifs immatériels n’était pas devenue, de l’avis de
tous, à la fois déterminante et majoritaire. On notera au passage que
les actifs immatériels ont toujours été prépondérants. Les ressources
physiques (terres, forêts, mers, minerais, énergies…) à disposition
de l’humanité n’ont que peu variée depuis son apparition. C’est son
aptitude à s’en servir, en clair ses compétences, qui ont changé.
Cette définition est proche de celle retenue par les comptables
pour le chapitre IAS 38 qui spécifie les traitements des actifs intangibles dans ce référentiel international de normes comptables.
Mais il est impératif de préciser que les comptables imposent des
contraintes fortes à la notion d’actif : l’identification et le contrôle.
La définition comptable d’une immobilisation incorporelle impose
qu’elle soit identifiable afin de la distinguer clairement du goodwill.
Une entreprise contrôle un actif si elle a le pouvoir d’obtenir les
avantages économiques futurs découlant de la ressource sousjacente et si elle peut également restreindre l’accès des tiers à
ces avantages.
Humain
"Tout ce qui est
dans la tête des gens"
Organisationnel
Relationnel
"Tout ce qui reste dans l'entreprise
à la fin de la journée"
"Tout ce qui relie l'entreprise
à son environnement"
Humain
Connaissances
Compétences
Routines
Motivation
Organisationnel
Culture
Valeurs
Politiques
Méthodes
Procédés
Processus
Composantes
Relationnel
Clients
Investisseurs
Partenaires
Fournisseurs
Communauté
Fonctions Concernées
Production
Commerciale
SI
Qualité
Achat
R&D
RH
Finance
Communication
Marketing
Vision Financière
Vision Stratégique
Vision Managériale
La quête de
la valeur
La quête de
l'avantage compétitif
La quête du pilotage
et du contrôle
Vue générale du capital immatériel
Source : CIGREF
12
Juridique
IT-expert n°64 - novembre/décembre 2006
Capital Total
Capital immatériel
Capital matériel
Capital monétaire
Capital physique
Capital organisationnel
Capital relationnel
Capital humain
Classification des actifs de l’entreprise
Source : CIGREF
Capital immatériel
Capital humain
Capital organisationnel
Attributs des personnes tels que
l'intelligence, le savoir faire, la
créativité, la façon de travailler
Eléments détenus par l'entreprise
tels que la propriété intellectuelle,
les systèmes, les processus,
les bases de données, les valeurs,
la culture…
Capital relationnel
Relations externes avec les clients,
les fournisseurs, les partenaires, les
réseaux, les régulateurs…
Classification des actifs immatériels
Source : CIGREF
L’application de ces deux principes va conduire à ne pas considérer les compétences des individus comme un actif, puisqu’elles
sont à la fois difficilement identifiables et faiblement contrôlables.
Une grande partie du capital humain est ainsi ignorée par la comptabilité. Or le manager ne peut pas faire l’impasse sur ce capital
humain. Ainsi, malgré les avancées majeures de la comptabilité
pour offrir une image pertinente de la valeur d’une entreprise, elle
amène à sous-évaluer la place du capital immatériel.
Valoriser les actifs immatériels
Il existe un grand nombre de méthodes d’évaluation et/ou de valorisation des actifs immatériels. Notre objectif n’est pas d’en présenter ni un catalogue ni une sélection. Nous contenterons de présenter
une typologie, établie par Erik Sveiby (biographie en fin de dossier).
Les différentes méthodes de mesure des intangibles peuvent être
regroupées en 4 catégories :
• Méthodes d’évaluation directe du capital immatériel
Elles estiment la valeur monétaire des actifs intangibles par
l’identification de leurs différentes composantes. Une fois les
composantes identifiées, elles peuvent être évaluées directement soit individuellement soit avec un coefficient agrégé.
• Méthodes de capitalisation marchande
Elles calculent la différence entre la valeur de marché (ou capitalisation boursière) et la valeur des actions détenues par ses
actionnaires comme étant la valeur du capital intellectuel ou
des actifs intangibles de l’entreprise.
• Méthodes des retours sur actifs
La différence entre le ROA (return on assets) de l’entreprise et
celui de la moyenne de son secteur d’activité est multipliée
par la moyenne des actifs matériels de l’entreprise pour calculer un gain annuel moyen dû aux intangibles. En divisant ce
gain annuel moyen par le coût moyen du capital de l’entreprise ou un taux d’intérêt, on peut estimer la valeur des actifs
immatériels.
• Méthodes des « scorecards » ou tableaux de bord
Les différentes composantes du capital immatériel sont identifiées. Des indicateurs et des indices sont créés et rassemblés
dans un tableau de bord ou scorecard ou sous forme graphique. Les méthodes des scorecards sont similaires aux méthodes d’évaluation directe, mis à part qu’aucune évaluation
monétaire n’est faite de la valeur du capital immatériel. Un
indice composite peut être ou non produit.
Manager le capital immatériel :
apports et opportunités du capital
immatériel pour le manager en général
et le DSI en particulier
Le capital immatériel est un sujet pour manageur à plus d’un titre.
C’est d’abord un sujet qui est là pour rester. Les mois et les années
qui viennent devraient voir une montée en puissance du domaine.
La gestion des actifs immatériels devrait assez vite devenir un
« must » de la panoplie du manager qui se respecte.
IT-expert n°64 - novembre/décembre 2006
13
« L’économie a changé. En quelques
années, une nouvelle composante
s’est imposée comme un moteur
déterminant de la croissance des
économies : l’immatériel. Durant les
Trente Glorieuses, le succès économique reposait essentiellement sur la
richesse en matières premières, sur
les industries manufacturières et sur
le volume de capital matériel dont
disposait chaque nation. Cela reste
vrai, naturellement. Mais de moins en
moins. Aujourd’hui, la véritable
richesse n’est pas concrète, elle est
abstraite. Elle n’est pas matérielle,
elle est immatérielle. C’est désormais
la capacité à innover, à créer des
concepts et à produire des idées qui
est devenue l’avantage compétitif
essentiel. Au capital matériel a succédé, dans les critères essentiels de
dynamisme économique, le capital
immatériel ou, pour le dire autrement, le capital des talents, de la
connaissance, du savoir. En fait, la
vraie richesse d’un pays, ce sont ses
hommes et ses femmes. »
Extraits du Rapport
de Maurice Lévy et Jean Pierre Jouyet, Economie
de l’immatériel, novembre 2006,
rédigée à la demande
de Thierry Breton, Ministre de l’Economie
14
IT-expert n°64 - novembre/décembre 2006
Le capital immatériel est désormais un sujet à l’agenda des PDG,
des directeurs financiers, des régulateurs et des investisseurs. Il
est plus que probable qu’il fera bientôt l’objet d’un reporting encouragé voir exigé. Ce n’est pas prendre grand risque que de parier sur
l’instauration de standards pour le reporting du capital immatériel à
moyen terme. Mais plus que tout autre point, insistons sur le fait que
comprendre le capital immatériel peut substantiellement améliorer
la capacité des manageurs à créer de la valeur. Or, le DSI est avant
toute chose en responsabilité de management.
Si on excepte les locaux et le hardware, tout ce qui compose le
système d’information de l’entreprise est immatériel. En général,
les locaux et le hardware ne sont pas présentés comme les facteurs clés de la performance du système d’information, bien qu’ils
ne soient pas négligeables.
Le DSI doit donc avoir à sa disposition une approche opérationnelle pour optimiser sa gestion des actifs immatériels qui composent sa direction et le système d’information de son entreprise.
Nous présentons dans la suite une approche qui a fait l’objet de
mises en œuvre réussies dans plusieurs DSI d’entreprises membres du CIGREF.
Un outil opérationnel pour le DSI :
La méthode IC-dVAL®
La méthode IC-dVAL®, « Intellectual Capital dynamic Value », a été
développée par Ahmed Bounfour.
I L’approche globale d’IC-dVAL®
C’est une méthode d’analyse économique internationalement
reconnue pour comprendre, modéliser et évaluer le capital immatériel. Elle repose sur les travaux de la Resource Based View (RBV)
et des capacités dynamiques de l’entreprise. C’est un modèle
intégré d’évaluation de la performance et de la valeur relative du
capital immatériel des organisations.
I La valeur dynamique du capital immatériel par la méthode
IC-dVAL®
En effet, IC-dVAL® est à la croisée des chemins d’autres approches d’évaluation du capital immatériel. Elle s’inscrit dans une
perspective dynamique dans la mesure où elle privilégie les interactions entre les différentes perspectives du management du
capital immatériel (input, output, externe, interne). Pour cela, elle
est en parfaite adéquation avec le Knowledge Management de
seconde génération.
L’approche dynamique du capital immatériel par la méthode
IC-dVAL® vise à faire le lien entre des niveaux d’investissements,
des niveaux de performance observés ou souhaités et des
niveaux de valorisation d’actifs immatériels.
La perspective « input » correspond en fait à la perspective « ressource ». En d’autres termes, on ne considère que les éléments
immatériels considérés comme des inputs dans le processus de
production. Parmi ces inputs, on retrouve les investissements en
R&D, en ressources humaines, en technologie de l’information, en
marketing et publicité, etc.
La perspective « output/stratégie » s’intéresse à la valorisation
financière des actifs immatériels de l’entreprise et à leur alignement stratégique.
I Construction de la méthode
Selon cette méthode, les ressources sont classées suivant trois
catégories :
• le capital humain,
• le capital organisationnel
• le capital relationnel.
La méthode évalue la « valeur métier » (chaîne de valeur de l’entreprise) et la « valeur marché » du système d’information (chaîne de
valeur de la DSI pour les autres métiers de l’entreprise) grâce à des
indicateurs de performance partiels (IPP) et un indicateur de performance global (IPG).
La perspective « externe » s’inscrit dans la valorisation financière
des actifs immatériels avec néanmoins quelques variantes. La perspective comptable ne s’intéresse qu’aux conditions d’activation des
éléments immatériels dans les états financiers. La perspective financière n’est animée que par l’attribution d’une valeur à ces éléments.
La valeur métier répond à la problématique de l’alignement stratégique (« suis-je aligné avec la stratégie globale de l’entreprise ? »).
La perspective « interne » n’est autre que la perspective managériale privilégiant l’approche partenariale de la valeur créée.
Concrètement, cette valeur « marché » permet de suivre et de
contrôler les investissements en actifs immatériels de la DSI.
La valeur « marché » répond à la problématique de la valeur financière (« combien je vaux ? »).
Perspective Externe
Règles comptables
Modèle de Lev
IAS
Approche par
les ressources
Perspective
Output/
Stratégique
Approche
IC-dVAL©
Perspective
Input
Edvinsson
& Malone
Stewart
Balanced
Scorecard I
Danish Guidelines (Dan.)
Meritum (EU)
Wissenbilantz (All.)
METI Guidelines (Jap.)
Balanced
Scorecard II
Première génération
de modèles
Perspective Manégariale Interne
Cartographie des principales méthodes de reporting et management des immatériels
Source : A. Bounfour, 2003
IT-expert n°64 - novembre/décembre 2006
15
Composantes de la valeur "marché" d'une DSI (k€)
Budget, chiffre d'affaires et survaleur estimés (k€)
8000
100000
7000
80000
6000
5000
60000
4000
40000
3000
2000
20000
0
1000
0
Immobilisations
Corporelles
Immobilisations
Incorporelles
Valeur du capital
immateriel
de la DSI
Valeur globale
de la DSI
Budget
Offre d'affaires estimée
Ecart (survaleur CA)
Suivi de la valeur « marché » de la DSI
Source : présentation A. Bounfour, 2006 - (NB : valeurs fictives)
En effet, sur ces deux graphiques, on peut apprécier les composantes de la valeur « marché » de la DSI ainsi que sa participation
à la création de valeur.
Cette « valeur métier » regroupe différentes facettes :
• La valeur d’efficience : la capacité à réaliser une action opérationnelle (ex : suis-je capable de consolider les comptes en
moins de trois jours, etc. ?)
• La valeur de liaison : la capacité à lier deux activités
• La valeur d’accélération : la capacité à accélérer une activité
• La valeur de restructuration : la capacité qu’offre le S.I. à permettre et accompagner la transformation de l’entreprise (ex :
lors de fusions, acquisitions, cessions, etc.)
• La valeur d’innovation : la capacité à faire des choses nouvelles
• La valeur d’existence exprime le montant que les dirigeants
sont prêts à payer pour posséder la fonction en interne.
Les IPP sont définis pour trois dimensions du capital immatériel :
• les ressources et compétences (IPR),
• les processus (IPP) et,
• les outputs (IPO) : réputation…
L’IPG est un indice synthétique permettant d’apprécier la performance globale de l’organisation. Il est calculé sur la base de plusieurs autres indices (les IPP) et est souvent utilisé pour le calcul
de « la valeur dynamique du capital intellectuel ».
Pour chaque indice, il sera possible de définir des écarts tels que :
• Le niveau d’Atteinte de l’Objectif (NaO) pour un plan stratégique de trois ans
• Le niveau de Performance Relative (NpR) par rapport à l’idéal- type
• L’Idéal-type (IT), déterminé subjectivement.
Chaine de valeur de la DSI- Valeur marché
Ressources
et
Compétences
Chaîne de valeur
globale de
L'entreprise-Valeur
Métier
IPR
Impacts
Valeur d'efficience
Valeur de liaison
Processus
IPP
IPG
Capital
Immatériel
Valeur d'accélération
Valeur de restructuration
Valeur d'innovation
Outputs
IPO
Valeur d'existence
Calcul d'indices de performance relative par étalonnage
(autres DSI, SSII, autres benchmarks)
Modélisation de la valeur : approche marché et approche métier par la méthode IC-dVAL®
©Ahmed Bounfour
16
IT-expert n°64 - novembre/décembre 2006
Recommandations
pour se lancer
dans la mise en œuvre
Si vous êtes arrivé jusqu’ici, vous demandez sans doute par où continuer. Voici une
liste de recommandations pour vous aider
à franchir la prochaine étape.
Partager l’information
• Diffusez ce document à vos collaborateurs, collègues, supérieurs
• Consultez le dossier Capital Immatériel
du CIGREF (Réservé aux membres)
Esquissez une carte du capital immatériel de votre département, direction,
entreprise…
L'indice de performance globale (IPR, IPP, IPO, IPG)
100
80
60
Estimez la part du capital immatériel
dans votre domaine
Questionnez vos pratiques actuelles
en terme de reporting de la performance (les vôtres et celles de votre
entreprise en général).
• Quelle est la part des éléments non
financiers ?
• Quelle place donnent-elles au capital
immatériel ?
Questionnez vos pratiques actuelles de
management (les vôtres et celles de
votre entreprise en général) :
• Comment le capital immatériel est t-il
pris en compte ?
• Qu’est ce qui favorise/fait obstacle à une
bonne prise en compte de l’immatériel
dans vos pratiques internes ?
Constituer un groupe pilote
Identifiez dans votre département, direction, entreprise 3 à 5 personnes pour
constituer un groupe de réflexion et de proposition pour lancer une démarche sur le
capital immatériel.
40
20
0
Indice de
performance des
ressources -IPR
Indice de
performance
des processus IPP
Indice de
performance
des Outputs IPO
Indice de
performance
Global -IPG
L’indice de performance global
©Ahmed Bounfour - (NB : valeurs fictives)
I Mise en pratique
NB : Toutes les données sources des graphiques sont fictives
pour respecter la confidentialité des résultats.
Un des DSI membre du CIGREF s’est focalisé sur les ressources
et compétences de sa DSI. La méthode lui a permis de progresser sur deux points :
• Établir une cartographie des compétences en repérant les profils type
• Apporter un tout autre éclairage sur le criblage de l’ensemble
du portefeuille de projet, qui sera alors segmenté par type de
valeur métier et par priorité.
Si on analyse les résultats, on s’aperçoit :
• qu’au niveau des ressources humaines, la question était d’externaliser les tâches de support, de renforcer les consultants
métier et les architectes. Les indicateurs de la méthode indiquent un petit écart par rapport à l’idéal-type (IT)
• que l’on est un peu en dessous de l’IT pour les ressources
physiques
• concernant les ressources technologiques, celles-ci sont à
renforcer dans certains domaines tels que les réseaux.
IT-expert n°64 - novembre/décembre 2006
17
Pour ce qui est des ressources informationnelles, elles sont assez
diffuses dans un marché moyennement concentré et concurrentiel.
Ressources Humaines
60
50
Un autre DSI s’est penché sur les processus. La méthode et le calcul des indices s’appuient sur des standards tels que les 34 processus COBIT, auxquels sont ajoutés un processus « innovation »
et un processus « identitaire ».
40
30
20
10
0
-10
Niveau Relative
de Performance
Niveau Atteinte
des Objectifs
Idéal Type
Ecart Idéal Type
Indices de performances partiels des ressources et compétences
©Ahmed Bounfour
Selon lui, la définition et l’analyse des écarts par rapport à l’IT
sont de bons outils de motivation pour les cadres. En effet, cette
méthode a été très vite partagée par ses équipes. De plus, une
prime d’objectif a été mise en place pour améliorer les points à
améliorer (contrôle de gestion, directions opérationnelles, RH,
etc.).
En analysant les diagrammes ci-après, on remarque globalement
que cette DSI est majoritairement sur-positionnée.
Ressources physiques
60
50
Le processus « Planification & Organisation » compte légèrement plus
d’indicateurs sur-positionnés que d’indicateurs sous-positionnés.
Ses deux principales faiblesses se situent au niveau de la politique
des réseaux télécoms (au sein de PO 4) et au niveau de la vente de
ses activités extérieures (au sein de PO 8).
40
30
20
10
0
-10
Niveau Relative
de Performance
Niveau Atteinte
des Objectifs
Idéal Type
Ecart Idéal Type
Indices de performances partiels des ressources et compétences
©Ahmed Bounfour
Concernant le processus « acquisition et mise en place », cette
DSI est majoritairement sur-positionnée mais connaît une principale faiblesse au niveau du développement de logiciels et de nouvelles applications (au sein d’AMP 1).
Planification et Organisation - NpR
Ressources Technologiques
100
60
50
80
40
30
60
20
10
40
0
20
-10
-20
0
-30
Niveau Relative
de Performance
Niveau Atteinte
des Objectifs
Idéal Type
PO1
Ecart Idéal Type
Indices de performances partiels des ressources et compétences
©Ahmed Bounfour
50
40
30
20
10
0
-10
Niveau Relative
de Performance
Niveau Atteinte
des Objectifs
Idéal Type
Ecart Idéal Type
Indices de performances partiels des ressources et compétences
©Ahmed Bounfour
18
IT-expert n°64 - novembre/décembre 2006
PO3
PO4
PO5
PO6
PO7
PO8
PO9
PO10
PO11
Indices de performances partiels des processus
©Ahmed Bounfour
Ressources Informationnelles
60
PO2
Planification et Organisation - Ecart Idéal Type
35
30
25
20
15
10
5
0
-5
-10
-15
-20
-25
-30
-35
PO1
PO2
PO3
PO4
PO5
PO6
PO7
PO8
PO9
PO10
Indices de performances partiels des processus
©Ahmed Bounfour
PO11
Au sein d’une DSI, plusieurs méthodes distinctes sont utilisées
pour rendre compte de sa performance. Pourtant, le reporting
reste difficile compte tenu des difficultés liées à la communication
avec la direction générale, liées au leadership et au management.
Considérant la méthode IC-dVAL®, les indicateurs sont conçus de
façon à s’aligner sur la stratégie globale de l’entreprise et à permettre des reporting financiers.
Acquisition et Mise en place
Niveau de performance relative
80
70
60
50
40
30
20
10
0
AMP1
AMP2
AMP3
AMP4
AMP5
Les apports de la méthode IC-dVAL®
pour le DSI
AMP6
Processus
Indices de performances partiels des processus
©Ahmed Bounfour
Schématisons les apports de la méthode IC-dVAL® pour les DSI.
I L’Impact managérial d’IC-dVAL®
Acquisition et Mise en place
Ecart Type Idéal
40
35
30
25
20
15
10
5
0
-5
-10
-15
-20
-25
-30
C’est un bon outil de management pour le DSI car la méthode permet entre autres d’élaborer une cartographie des investissements
par ressource/compétence et processus, et de motiver ses troupes.
I L’outil de communication IC-dVAL®
AMP1
AMP2
AMP3
AMP4
AMP5
L’outil fournit des éléments de valeur compréhensibles pour les
autres acteurs de l’entreprise grâce aux indices et à l’établissement d’un compte de résultat de la DSI.
À la fin de l’exercice comptable, en plus de l’outil de communication,
la DSI disposera aussi d’un résultat courant et d’un cash-flow.
AMP6
Processus
Indices de performances partiels des processus
©Ahmed Bounfour
CIGREF
Se poser
de nouvelles
questions
Nouvelle
Vision
Indice
Benchmark
Benchlearn
Vos équipes
Entreprise
Stratégie
Métiers
Fonction SI
Management
Communiquer Performance
"Chiffrer sa
stratégie"
Indices de
preformance
ANALYSTES
Indice
Valorisation
Compte de
résultat
Leadership
Communication
Sécurité
Portfolio
Techno
ISO
ABC
SRM
COBIT
RH
Capitalisable
ITIL
Archi
CMMI
Traçable
IC dV AL®
L’approche Capital immatériel
Source : CIGREF
IT-expert n°64 - novembre/décembre 2006
19
I IC-dVAL® permet le benchmarking et le benchlearning
Se comparer est un processus d’apprentissage et d’amélioration
continu. Le critère de comparaison peut être soit monétaire
(benchmarking), soit appréciée vis-à-vis du regard des autres
(benchlearning).
Cette mise en place nécessite l’implication du DSI au moins aux
étapes clés. La méthode étant « légère », elle ne nécessite qu’une
faible charge de travail pouvant être étalée dans le temps à sa
convenance.
Conclusion
Dans les deux cas, il est d’autant plus facilité qu’avec cette
méthode, on dispose d’une structure de comparaison homogène
grâce aux indicateurs et aux référentiels.
I La mise en place de la méthode dans la DSI
La mise en place n’exige pas de « ticket d’entrée » en termes
d’outillage. Le seul vrai pré requis c’est « la volonté de tester une
approche innovante » en sachant que la méthode puise au maximum dans les outils et les informations existantes. Ce qui reste
nécessaire peut être construit en cours de route en respectant la
culture de l’entreprise.
Au sein des DSI, plusieurs démarches ont été entreprises ainsi que le
modélise l’anneau central du schéma ci-après. Au centre de cet
anneau nous retrouvons le capital immatériel. Il vient synthétiser, coordonner et donner un sens commun à ces différentes démarches, celui
de la recherche de la performance et de la valeur de la DSI.
Dans cette quête, le CIGREF suit particulièrement plusieurs
domaines, accompagnés le plus souvent de publications et promeut plusieurs outils et référentiels qui convergent en un point : le
capital immatériel.
Gouvernance
COBIT
Enquête
CIGREF
McKinsey
Connaissance
des attentes
de l'entreprise
Politique d'audit
Intelligence
Economique
Règles de
gouvernance
claires
Une bonne
idée des
forces et
faiblesses
de son S.I.
Des éléments
de conduite
et de mesures
de qualité
de service
Processus de la
DSI
ITIL
Connaissance
du marché
Capital
Immatériel
Une bonne
compréhension
des enjeux
sociaux et
du capital
humain
Volonté de
tester une
approche
innovante
Une analyse
fine de ses
structures
de coûts
Implication du DSI
et ressource
pour le projet
Modèle de
Benchmarking
des coûts
La réconciliation des points de vue
Source : Inspirée de STIME, présentation CIGREF, septembre 2004
20
IT-expert n°64 - novembre/décembre 2006
Référentiel RH
Evaluation
Compétences
Pendant longtemps la pratique du capital immatériel par les DSI
relevait du domaine de l’intuition. Cette pratique dispose désormais d’outils dont l’un est la méthode IC-dVAL®. L’opérationnalisation de cette méthode répond aux attentes observées des
praticiens du S.I. Bien que les résultats obtenus soient particulièrement probants, il reste encore du chemin à faire.
Pour rendre cette méthode plus industrialisable, il serait nécessaire d’élargir le groupe pilote. L’élaboration d’un indicateur synthétique de la valeur des S.I. serait alors réalisée. Il pourrait être
reconnu dans la sphère financière et contribuerait au processus
d’amélioration continue des DSI.
Il va sans dire que cet indice nécessite un référentiel normalisé que
seul un groupe de praticiens assez étendu pourrait réaliser.
Le CIGREF continue activement ses travaux portant sur l’opérationnalisation du capital immatériel. Il crée pour cela un « Cercle de
l’Immatériel » avec pour objectif d’offrir un cadre de partage autour
d’une approche opérationnelle. I
Pour aller plus loin
• Rapport CIGREF : Capital immatériel : 7 jours pour comprendre
(2006)
• Rapport CIGREF : DSI et capital immatériel : Maturité et mise
en œuvre (2006), rédigé par Annick Kong.
Rapports du CIGREF disponibles sur le site : www.cigref.fr, rubrique
publications
• Le contexte, le contenu et les fondements de la méthode
IC-dVAL®, « Intellectual Capital dynamic Value », sont décrits
dans le livre d’A. Bounfour et G. Epinette, « Valeur et performance des systèmes d’information, une approche nouvelle du
Capital immatériel », Dunod, novembre 2006.
• www.sveiby.com
Renaud PHELIZON
Directeur de Mission - CIGREF
IT-expert n°64 - novembre/décembre 2006
21
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
Pour compléter votre bibliothèque
de référence technique,
commandez vite les anciens numéros*
d’IT-expert à tarif préférentiel !
IT-expert n°50
IT-expert n°52
IT-expert n°53
IT-expert n°56
IT-expert n°57
Novembre/décembre 2004
Janvier/février 2005
Juillet/août 2005
Septembre/Octobre 2005
DOSSIER : La gouvernance du système
d’information
• Le projet LDAP
• Firefox votre prochain navigateur ?
• JSF versus Webforms
• Interview Intermarché
• L’entreprise sous le feu de la guerre
DOSSIER : La veille et ses outils
• L’interopérabilité des systèmes d’informa-
DOSSIER : Equiper les forces de terrain
d’une solution mobile
• La gestion des utilisateurs centralisée ou le
DOSSIER : L’urbanisation des systèmes
d’information
• L’urbanisation suffit-elle à rationaliser le
parc applicatif d’entreprise ?
• La gestion de contenu
• Interview Bouygues Télécom
• Continuité d’activité : le choix des armes
* Dans la limite des stocks disponibles
de l’information
tions : fantasme ou perspective ?
• SQL Server 2005
• Les clés du succès en gestion des
métadonnées
• Interview SCOR
• Consolidation de messagerie, dimensionnement du réseau : Le juste équilibre
Juillet/août 2004
DOSSIER : La qualité peut-elle devenir
un véritable outil économique ?
•
•
•
•
La qualité dans les développements Java
IBM DB2 « Stinger »
Les points de fonctions
Interview du Ministère des Affaires
Etrangères
• SQL Server 2000 : des outils d’administration et de télésurveillance
provisioning
• Les alternatives à la suite bureautique
Microsoft
• Les Tags RFID : révolution technologique ou
cauchemar
• Les solutions Linux
IT-expert n°59
IT-expert n°60
IT-expert n°61
IT-expert n°62
Janvier/février 2006
Mars/avril 2006
Mai/juin 2006
Juillet/Août 2006
DOSSIER : Vers un standard pour le pilotage des coûts informatiques - Un levier
de performance économique : AB C/ABM
• Contrôle des développements externalisés
DOSSIER : La qualité des applications
développées en technologies objet
• L’industrialisation des développements au
& solutions de gouvernance
• K9a : une nouvelle grille de lecture pour la
conduite agile de projets de systèmes d’information
• Interview de Jérôme Dupont, Directeur
Conventions & Projets du GIP-MDS
• La guerre des processeurs aura-t-elle lieu ?
• Environnements de Développement Intégrés
• Urbanisme des Systèmes d’Information versus
DOSSIER : Optimiser innovations et
transformations en gérant le portefeuille
de projets et d’applications
• Subversion : le grand départ ?
• L’accessibilité numérique
• Wi-Fi
DOSSIER : Panorama sur les techniques
Agiles
• PHP5, une alternative à .NET et J2EE ?
• Eclipse : le Big Bang Callisto
• Test Driven Development
• Interview d’Elisabeth Le Boité, Responsable
secours des échecs projets
Architecture d’Entreprise
• Interview de Monsieur SAINT-ALME,
Responsable NTIC chez AG2R
• Contrôle d’accès au réseau
Qualité et Système d’Information du SIB
Syndicat Interhospitalier de Bretagne
• Qui arrêtera Google ?
Offre Spéciale
Je souhaite acheter les numéros suivants
Tarifs TTC (TVA : 5,5 %)
1 exemplaire : 8€
5 exemplaires : 35€
IT-expert n° 51
Septembre/octobre 2004
DOSSIER : MDA : Model Driven Architecture ou
architecture guidée par le modèle
• Travail collaboratif et open source : des opportunités ?
• Les évolutions récentes en ingénierie des modèles
• CMMI - Capability Maturity Model Integration
• Interview THALES
• Nomadisme & sécurité
Année 2004
N° 50
N° 51
N° 52
Année 2005
N° 53
N° 56
N° 57
N° 58
10 exemplaires : 60€
Autre quantité :
Année 2006
N° 59
N° 60
N° 61
N° 62
N° 63
Pour commander les anciens numéros d’IT-expert, il vous suffit
de nous renvoyer ce document à l’adresse suivante :
IT-Expert
3, rue Marcel Allégot - 92190 Meudon - France
Tel : +33 (0)1 46 90 21 21 - Fax : +33 (0)1 46 90 21 20
Adresse d’expédition & de facturation
IT-expert n°58
Novembre/décembre 2005
DOSSIER : L’intégration de contenu,
un problème bien réel
• Les JavaServer Faces face à Struts
• Sybase Adaptive Server Enterprise 15
• Interview de Nicolas Maquaire,
Président de l’éditeur Français EntropySoft
Zoom client SAINT-GOBAIN
• Informatique et téléphonie :
à quand la convergence ?
Mme Mlle M.
Nom
Prénom
Société
Fonction
Adresse
CP
Ville
E-mail
Tél
Fax
IT-expert n°63
Septembre/Octobre 2006
DOSSIER : La géolocalisation
• Géolocalisation, les techniques alternatives
•
•
•
•
au GPS
Le positionnement par GPS
Géolocalisation, tout n’est pas permis…
Interview de Me Gérard HAAS, Docteur en droit
Recyclage des e-déchets
Chèque joint à l’ordre de Press & Communication France
Règlement à réception de facture
Date :
Signature obligatoire :
www.it-expertise.com
www.it-expertise.com
Et retrouvez de nouveaux services :
• un moteur de recherche pour trouver les informations techniques qui vous intéressent
• une nouvelle offre d’abonnement qui vous permet d’accéder aux anciens numéros
d’IT-expert en format pdf
• les livres blancs techniques d’éditeurs de logiciels, de SSII, de nos partenaires…
dans une rubrique "téléchargements" ouverte à tous !
Et toujours des informations sur nos partenaires,
sur les sommaires des numéros d’IT-expert
http://www.it-expertise.com :
un complément d’informations
à la version papier que vous recevez
tous les 2 mois !
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
Actualités internationales
Actualités
internationales
Quatre ans après avoir adopté une
législation antispam, la Commission Européenne se penche à nouveau sur le sujet par l’intermédiaire
de Viviane Reding, Commissaire à la
société de l’information et aux médias.
Considérant l’inertie des gouvernements, elle
menace d’introduire de nouvelles mesures législatives plus contraignantes afin de diminuer le volume
de courriel non sollicité qui atteindrait aujourd’hui
85 % en Europe. Plus de 22 % de ces courriels proviennent des Etats-Unis, loin devant la Chine avec
13 %. La France avec 6 % est le troisième émetteur
de courriels non sollicités à destination de l’Europe, à
égalité avec la Corée du Sud. Pourtant, les solutions
semblent exister, si l’on en juge par les résultats obtenus par la Hollande (85 % de réduction du volume de
ces courriels) ou celui de la Finlande où les courriels
non sollicités ne représentent plus aujourd’hui que
30 % du volume, contre 80 % il y a deux ans.
Une étude menée aux Etats-Unis vient par ailleurs de
mettre en évidence la montée en puissance des
spams à base d’images. Cette technique qui ne
représentait que 5 % des courriels non sollicités l’an
dernier atteindrait aujourd’hui 25 % des 61 milliards
de courriels quotidiens qu’ils représentaient en octobre de cette année. Les courriels en question sont
par ailleurs beaucoup plus difficilement détectables
par les logiciels de protection, lesquels se basent
souvent en grande partie sur le contenu textuel des
textes qu’ils filtrent.
Un bogue critique du navigateur
Firefox permet de déclencher l’envoi des informations de connexion
(identité de connexion et mot de
passe) lorsqu’un utilisateur visite
une page web compromise. Le
bogue a d’ores et déjà été exploité
dans le cadre d’une attaque contre
les utilisateurs de MySpace, l’un
des plus gros sites communautaires existant.
Une rumeur de plus en plus insistante prête à
Apple l’intention de lancer un « iPhone ». Selon
un journal taïwanais, qui ne précise pas ses
sources, le constructeur aurait d’ores et déjà
commandé 12 millions de ces appareils
auprès d’un manufacturier par ailleurs déjà
fournisseur d’iPod. Le lancement de ce nouvel
appareil qui combinerait téléphonie mobile et
lecteur de musique serait prévu pour le premier semestre de l’année prochaine. Certes, il
cannibaliserait certaines des ventes du iPod,
mais il mettrait de sérieux bâtons dans les roues des opérateurs de téléphonie mobile qui lorgnent sur le gâteau de
la musique téléchargeable et sont de plus en plus nombreux à proposer des téléchargements.
Un expert en sécurité allemand a jeté le trouble lors d’un
salon à Munich en faisant la démonstration de ce qui pourrait constituer un vecteur d’attaque de très grande ampleur
auprès des détenteurs de téléphones mobiles. Constatant
que les opérateurs de téléphonie utilisent régulièrement des
SMS techniques pour modifier le comportement des téléphones mobiles sans intervention de leurs utilisateurs, il
s’est penché sur la technique utilisé et en a conclu que les
téléphones ne vérifient pas l’origine des messages en question. En utilisant des SMS techniques contrefaits, il est parvenu dans un second temps à modifier le comportement
d’un Siemens C45, d’un Nokia E90 et d’un QTek Windows
Mobile 2005. Il deviendrait ainsi possible de récupérer à distance la liste des contacts d’un utilisateur, de se mettre en
copie carbone de l’ensemble des SMS qu’il reçoit ou
envoie… voire d’être inclus automatiquement en tant que
participant passif (écoute uniquement) de toutes communications à laquelle il participerait.
Les opérateurs téléphoniques interrogés à ce sujet par plusieurs médias restent aujourd’hui muets, arguant de la
nécessité d’étudier plus en détail les affirmations en question. Il est vrai qu’en l’absence de détails sur les mécanismes exacts employés, il est difficile d’être certains que les
téléphones employés durant la démonstration n’ont pas
été « préparés », ce qui rendrait alors l’attaque beaucoup
moins faisable. D’un autre côté, le refus des opérateurs de
commenter leur stratégie pour prévenir une telle attaque,
malgré qu’ils assurent en posséder une ne lasse pas d’inquiéter.
IT-expert n°64 - novembre/décembre 2006
25
Actualités internationales
Mi-novembre, Sun s’est enfin résolu à placer dans le
domaine du logiciel libre les plates-formes Java SE (Small
Edition) et ME (Micro Edition). La véritable surprise n’était
pas tant dans cette annonce que dans le choix de la
licence retenue pour ce faire : la GPLv2 ou GNU Public
License dans sa version 2. Voilà qui tranche avec les habitudes de Sun qui jusqu’ici utilisait une licence « maison ».
Accessoirement, les 6 millions de lignes de code du seul
Java SE suffisent à faire de Sun le plus gros contributeur
de tous les temps des logiciels placés en source libre. A
moyen terme se pose la question de savoir si Sun est prêt
à utiliser la GPL pour certains de ses logiciels déjà dans le
domaine public, au premier rang desquels OpenSolaris.
Les dirigeants de Sun disent étudier la question de très
près.
L’opération « ordinateur portable à 100$ » s’est vue rebaptiser « One Laptop Per Child » –
faute de parvenir à atteindre
l’objectif de coût unitaire. Fondée par Nicholas Negroponte,
cofondateur et président du
laboratoire des médias du MIT,
l’opération vise à proposer un
ordinateur portable robuste et
durable, dont le prix puisse
permettre aux gouvernements
de pays en voie de développement d’équiper leurs enfants.
Les machines sont dotées de
126 Mo de RAM et de 512 Mo
de mémoire flash, les ordinateurs disposent d’une
connexion WiFi et reposent sur
un système d’exploitation
Linux. Elles seront fabriquées
par le Taïwanais Quanta Computer. Un premier lot d’une
dizaine de machines a été livré au Brésil pour évaluation. Les
serveurs qui les accompagnent seront quant à eux construits
au Brésil. 900 autres portables devraient être fabriqués pour le
début de l’année prochaine et destinées aux développeurs qui
créeront des applications pour ces portables. Outre le Brésil,
l’Argentine, la Libye, le Nigeria et la Thaïlande ont exprimé leur
intérêt pour cette machine et envisagent d’en doter leur jeunesse. De son côté, AMD, l’un des partenaires de OLPC a
annoncé qu’il mettait un terme à son ordinateur d’entrée de
gamme qui visait précisément les pays émergeant. Vendu à
250 dollars, les ventes de la machine n’ont jamais vraiment
décollé et de nombreux retours étaient enregistrés. Avec
16 millions de dollars de pertes opérationnelles sur les 9 premiers mois de l’année, AMD a donc décidé de jeter l’éponge
sur ce front.
26
IT-expert n°64 - novembre/décembre 2006
Vendue au prix de 499 ou 599 dollars
dans le commerce, en fonction du
modèle, la console de jeu Play Station 3
s’affichait sur le site d’enchère eBay au
tarif moyen de 1 186 dollars durant les
15 jours qui ont suivi sa mise sur le marché et qui ont vu 14 675 ventes de cet
objet. Depuis, les prix en ligne ont chuté
et s’établissent entre 700 et 900 dollars.
La Wii, console concurrente de Nintendo a, pour sa part, engendré 26 708
ventes au tarif moyen de 413 dollars sur
la même période alors que son prix
public conseillé est de 250 dollars.
Microsoft a décidé de proposer une licence
gratuite de la toute nouvelle interface utilisateur RibbonX d’Office 2007 aux développeurs qui souhaitent créer des applications
dont l’apparence soit similaire à ceux de la
suite bureautique de l’éditeur. La licence
porte sur le design et les fonctionnalités de
l’interface et est accompagnée d’une
documentation proposant des lignes de
conduite pour son utilisation. Microsoft
estime à plusieurs centaines de millions de
dollars les dépenses qu’elle a consenties
sur cette interface qui constitue de l’avis
général l’aspect le plus novateur d’Office
2007.
Plusieurs écoles britanniques ont décidé
de démanteler tout ou partie de leurs
réseaux WiFi, en réponse aux inquiétudes
de groupes de parents d’élève, inquiet des
possibles répercussions que pourraient
avoir sur la santé de leurs enfants les
émissions des bornes.
Actualités internationales
Les analystes du Gartner Group se sont penchés sur la consommation électrique des gros centres de
données. Leurs conclusions sont plutôt pessimistes. Ils constatent notamment que là où un rack
consommait 2 kWh il y a quatre ans, le même rack, équipé de lames (blades) consomme aujourd’hui de
15 à 30 kWh. A ceci, il convient évidemment d’ajouter de 120 % à 130 % d’énergie supplémentaire pour
assurer la ventilation et le refroidissement de la salle. Malheureusement les technologies de refroidissement par circulation d’air dans le sol atteignent leurs limites, tant du fait de l’accroissement de la
consommation des machines que de la réduction de leur encombrement et donc d’une plus grande densité de matériel qui nuit à l’écoulement de l’air. Les conclusions de l’étude anticipent une hausse importante de la part de l’énergie électrique dans le budget des départements informatiques, qui pourrait ainsi
passer des 10 % actuels à 20 % ou 30 % à moyen terme si rien n’est fait.
La version du Google Web Toolkit 1.2 disponible depuis minovembre supporte enfin le développement et le déboguage à
partir d’un Mac d’applications utilisant les technologies Ajax.
Elle répond en cela à une demande pressante de la part des
La Citybank de Singapour propose
désormais à ses clients un nouveau
moyen de paiement aux détenteurs de
cartes de crédit platine dont la cible privilégiée est les 25 – 34 ans. Désormais,
les détenteurs de ces cartes pourront
payer en utilisant simplement leurs
empreintes digitales. Que cette première voie le jour dans un pays dont les
4,5 millions d’habitants sont réputés
friands de technologie et où les émetteurs de cartes utilisent des techniques
marketing agressives n’est bien
entendu pas un hasard. L’ensemble du
monde bancaire, en particulier dans la
région, devrait suivre l’expérience avec
beaucoup d’intérêt.
Apple met à disposition en
téléchargement plusieurs
mises à jour du firmware de
ses machines à base de processeurs Intel. Les correctifs
pallient à plusieurs problèmes
de démarrage ou de réveil
après une mise en veille.
D’autres téléchargements permettent de créer un CD bootable permettant la restauration du firmware des machines à base d’Intel en cas
d’échec durant la mise à jour
de celui-ci.
développeurs. La boîte à outils a par ailleurs subi des améliorations dans le domaine de la rapidité.
Les principaux acteurs de l’internet étaient réunis à Londres à la
mi-novembre à l’occasion de l’annonce par « Groupe 3 » du lancement d’un forfait pour l’accès au web à partir de téléphones
mobiles. Tous ont fait part de leurs difficultés à accéder à ce marché aujourd’hui verrouillé par les opérateurs de téléphonie qui restreignent les accès aux seuls services proposés sur leur propre
portail. Les timides ouvertures de ces derniers mois n’ont pas suffit à séduire les utilisateurs qui, faute de transparence, craignent de
voir grimper leur facture dès lors qu’ils accèdent à des contenus
en dehors de ces fameux portails. L’offre de « Groupe 3 » constitue donc une nouveauté, bien que les tarifs n’en soient pas encore
connus et que certains services très consommateurs de bande
passante tels que la vidéo ne seront pas inclus dans le forfait de
base. L’originalité de l’offre tient dans la commercialisation de
téléphones équipés de logiciels tels que Skype et MSN Messenger par exemple qui sont des compétiteurs directs des offres des
opérateurs téléphoniques.
Avec Windows Vista, Microsoft renforce son système anti-piratage. La
nouvelle version du système d’exploitation est équipée de la technologie
Software Protection Platform qui requière l’activation du système d’exploitation au moyen d’une clé logicielle dans les 30 jours qui suivent sa mise en
service. Le système vérifie en outre la légitimité de la clé utilisée. Passé ce
délai, les fonctionnalités se dégradent. Ainsi au bout d’une heure d’utilisation du web, l’utilisateur est automatiquement déconnecté. La technologie
SPP devrait à terme être ajoutée au programme Office Guenine Advantage
qui permet le téléchargement des mises à jour logicielles de la suite Office.
IT-expert n°64 - novembre/décembre 2006
27
Quoi de neuf Docteur ?
Windows
Vista :
le nouveau
système
d’exploitation
de Microsoft
La sortie de Windows XP fut une révolution,
une nouvelle ère pour les entreprises ; une
nouvelle expérience pour les utilisateurs. Le
22 juillet 2005 Microsoft annonça officiellement le nom de son nouveau système d’exploitation : Windows Vista, connu sous le nom
de code Longhorn.
La première version bêta de Windows Vista est
parue en juillet 2005, la deuxième en mai 2006.
Après plusieurs retours d’utilisateurs et d’entreprises utilisatrices des versions Release Candidate 1 et Release Candidate 2, la version
définitive de Windows Vista (RTM) a été publiée
en novembre 2006.
28
IT-expert n°64 - novembre/décembre 2006
Comparer les différentes versions de Windows Vista
Windows Vista, c’est :
Comme les autres versions de Windows 2000 et XP, le nouveau
système d’exploitation se décline en plusieurs versions s’adaptant
aux différents besoins.
Il existe 5 versions Windows Vista :
• Home Basic : Version principalement destinée aux utilisateurs grand public.
• Home Premium : Destinée aux utilisateurs avancés et exigeants, cette version contient tous les composants de
Home Basic, et intègre la fameuse interface graphique
AERO. Interface alliant effets de transparence des fenêtres
et effets 3D. Windows Vista Home Premium donne la possibilité de transformer une station de travail en un véritable
centre multimédia avec Media Center. Les usagers de
Tablet PC pourront également utiliser cette version pour
bénéficier de tous les apports de Windows Vista.
• Business : Dédiée à l’entreprise, Vista Business inclut toutes les fonctionnalités de la version Home Basic. Les stations Business pourront intégrer un domaine Active
Directory et ainsi bénéficier de la puissance d’administration et de sécurité ; notamment les Group Policy Objects.
• Enterprise : Destinée aux infrastructures complexes, Vista
Enterprise réduit le coût et la difficulté d’un déploiement
d’un parc PC en entreprise. Cette version propose plusieurs outils comme un sous-système pour gérer les applications basées sur UNIX (SUA), un module de chiffrement
de données (BitLocker) et la prise en charge de plusieurs
langues (pack MUI).
• Ultimate : La version Ultimate est la plus complète. Cette
version est destinée aux personnes expérimentées souhaitant profiter de l’intégralité des fonctions proposées par
Windows Vista Home Premium et Enterprise.
Maîtriser le déploiement et la migration
Pour faciliter le déploiement de Windows Vista ainsi que la nouvelle suite bureautique Office 2007, Microsoft a conçu Microsoft
Solution Accelerator for Business Desktop Deployment nommé
plus communément BDD. Ce framework est un guide qui permet
d’établir un planning de tests et de déploiement en fonction de
l’infrastructure.
VERSIONS
PUBLIC
• 10 000 personnes au travail pendant 5
années
• un budget de recherche de 5 milliards
d’euros
• 68 millions de lignes de code
• 800 applications testées chez 150 éditeurs
• 1,4 milliard de dollars de CA prévisionnel
pour l’industrie des PC sur les 2 ans à venir
dans le monde
• 500 millions de nouvelles acquisitions de
PC sur les 2 ans à venir dans le monde
• un créateur d’1 million d’emplois direct ou
indirect pour 2007/2008 en Europe (dont
25 000 en France pour 2007)
• une retombée économique estimée en
France à 14 euros pour 1 euro investit
Une migration basée sur BDD est conçue pour privilégier l’automatisation et minimiser l’intervention humaine. Ce procédé permet une transparence pour les utilisateurs et leur éviter toute gêne
tout en assurant la sécurité et l’intégrité des données lors du
déploiement.
Pour les entreprises utilisant le produit de gestion de parc SMS, le
modèle Zero Touch peut être utilisé ; et pour les entreprises ne
l’utilisant pas le modèle Lite Touche sera l’alternative.
Le déploiement massif de Windows Vista est simplifié par des outils
permettant de maîtriser la création et la distribution des images.
Avec ces nouveaux outils, Windows Vista donne les moyens à une
infrastructure de standardiser la migration de son parc, même
dans un environnement complexe et sensible à la gestion du
changement, tout comme un SI composé de stations de travail
disparates réparties sur plusieurs régions linguistiques.
FONCTIONNALITES
Home Basic
Grand Public Windows mail, moteur de recherche, galerie photos, Internet Explorer 7, Windows Defender
Home Premium
Grand public
Business
Entreprise
Interface graphique Aero, Media Center, support Tablet PC, création DVD
Interface graphique Aero, support Tablet PC, gestion de sauvegarde complète du PC,
intégration à un domaine active directory, encryptions de fichiers (EFS), gestion de fax
Enterprise
Entreprise
Interaction avec le monde Unix (SUA), licence native pour 4 systèmes virtuels, cryptage de
volume (Bitlocker)
Ultimate
Tout public
Version comprenant tous les composants, ultimate = enterprise + home premium
IT-expert n°64 - novembre/décembre 2006
29
Deux questions cruciales se poseront lors du choix de la migration :
- « Avons-nous les stations de travail adéquat pour la migration ? »
- « Nos applications internes et tierce partie sont-elles compatibles avec ce système d’exploitation ? »
En effet, la bibliothèque gargantuesque de pilotes de périphériques proposée en natif ne veut pas tacitement dire que tous les
périphériques seront supportés.
Bon nombre d’entreprises ne possèdent pas encore les stations
de travail pour accueillir le nouveau système d’exploitation et offrir
une satisfaction minimale ou optimale aux utilisateurs finaux.
Il s’agit là du premier frein à la migration d’un parc vers Windows
Vista, les entreprises devront avoir un parc composé de machines
récentes et puissantes pour obtenir les meilleures performances
et s’affranchir de mauvaises surprises lors d’une migration.
Figure 1 : Infrastructure BDD
Au cœur de la stratégie de migration, faisant partie intégrante du
framework BDD, Windows PE version 2.0 est un utilitaire bootable
qui permettra d’accompagner les équipes IT de manière efficace
dans leur déploiement, installation, dépannage et restauration sur
l’ensemble d’une infrastructure.
Les images sont construites à partir d’un nouveau format nommé
Windows Imaging Format (WIM), ce dernier s’adresse à toutes les
plates formes PC avec des configurations différentes, et fait abstraction du langage via le composant MUI (Multilingual User Interface).
WIM permet de créer une image unique à déployer, et bénéficie
d’attributs comme la compression, l’installation par partitions disques et reste ouvert aux personnalisations des développeurs et
éditeurs via l’API WIMGAPI.
Notons que le déploiement par image peut être adapté à une
migration de type mise à jour, sans altérations des données et
éviter l’installation complète avec une réinitialisation de la partition
hébergeant le système. Cela permettra de migrer vers Windows
Vista de manière plus transparente pour les utilisateurs finaux.
WinPE, quant à lui sera un bon allié pour les équipes en charge du
déploiement. Cet outil remis à jour pour cette mouture permet de
diminuer considérablement le temps de préparation des images et
d’accélérer le processus d’installation sur un parc informatique.
Par exemple, l’injection des pilotes de périphériques dans une
image (slipstream) ou bien encore, le dépannage des stations de
travail lorsque celles-ci ne démarrent pas correctement, se fait
via le biais de WinPE.
Ces différentes méthodologies de déploiement et de migration
nécessiteront des études approfondies et une expertise technique
pointue dans le cadre d’architectures complexes. De nombreuses
entreprises attendent que le nouvel OS « fasse ses preuves »,
d’autres viennent à peine de passer au service pack 2 de Windows XP ; mais la plus grande inquiétude reste la compatibilité du
matériel et des applications.
30
IT-expert n°64 - novembre/décembre 2006
Windows Vista nécessitera une mise à jour des parcs informatiques entraînant un coût financier non négligeable. Les stations
devront au minimum posséder 1Go de RAM, des processeurs de
dernières générations et des cartes graphiques puissantes pour
pouvoir exploiter convenablement le système, voilà qui devrait
relancer en partie la croissance de l’industrie des PC, et donner
lieu à des discussions en comités de pilotage.
D’un point de vue logiciel, Microsoft met à disposition un kit de
compatibilité permettant de tester la supportabilité des applications sur son nouvel OS. Ce toolkit est nommé Application Compatibility Tool, il permet aux entreprises de tester leurs applications
et de voir si ces dernières supportent la mise à jour ou régressent.
Notons que certains éditeurs n’ont pas encore mis à jour leurs
produits phare, à titre d’exemple l’éditeur Symantec avec Norton
Antivirus, ou encore certain logiciels Cisco ou Trend Micro qui
supporteront Windows Vista à partir de la fin du mois de janvier,
date de la sortie grand public, ou citons encore la migration
impossible pour les parcs utilisant Lotus Notes, ce dernier n’étant
pas encore compatible. IBM a prévu la compatibilité avec la sortie de la version 8 courant 2007. Rappelons tout de même que
Windows Vista a été testé sur 800 applications réparties sur 150
éditeurs.
La sécurité au cœur de Windows Vista
Depuis 1992, Microsoft s’oriente vers une politique de sécurité
dédiée à l’informatique de confiance. C’est dans cette optique
que la firme de Redmond a accentué cette initiative sur l’ensemble de sa gamme produit ; aussi bien en développement qu’en
infrastructure. Windows Vista a été développé en respectant ce
modèle d’informatique de confiance, basé sur SDL (Security
Development Lifecycle), cette nouvelle version a suivi un processus permettant de sécuriser le code et ainsi réduire la surface
d’attaque.
Le besoin en sécurité est omniprésent sur les 7 couches du
modèle OSI ; de la couche application à la couche physique en
passant par la couche réseau.
Pour rappel, le concept d’informatique de confiance (Trustworthy
Computing) repose sur quatre piliers : fiabilité, sécurité, confidentialité et intégrité.
Avant Windows Vista, certaines opérations nécessitaient l’utilisation de comptes ayant des droits utilisateurs avec des privilèges
élevés, ce qui exposait le SI à un risque potentiel dans le cas où les
processus d’exploitation n’étaient pas maîtrisés.
Doté de nombreux outils de sécurité, Windows Vista permettra de
mettre en œuvre une politique de sécurité en adéquation avec les
besoins utilisateurs et les exigences de l’infrastructure mais toutes les versions de Windows Vista ne comprennent pas ces outils.
• Centre de sécurité : intégré depuis le service pack 2 de Windows XP, il permet de centraliser l’ensemble des composants liés à la sécurité du système. Microsoft met à
disposition des autres éditeurs la possibilité d’intégrer les
attributs d’un logiciel tierce partie dans le centre de sécurité
et ainsi respecter le concept de l’administration centralisée.
• Windows Defender : délivre une protection intelligente en
temps réel contre les logiciels espions (dit spyware, malware), et en fonction de la criticité des alertes relevées
Defender exécutera une action en conséquence pour
assurer la disponibilité et garantir la stabilité du système.
• Contrôle d’accès utilisateur (dit UAC) : Sécurisé par
défaut, toutes les ouvertures de session ne se font pas
avec un compte administrateur, ce qui réduit l’accès et la
modification de composants critiques. Le contrôle d’accès utilisateur (UAC) permet d’exécuter des applications
en mode restreint. Par conséquent l’installation de logiciels et la modification de paramètre système par des utilisateurs n’ayant pas la capacité ou les droits d’effectuer
ces tâches se verront refuser leur action.
• Internet Explorer 7 : La menace Internet est grandissante,
d’année en année les techniques les plus ingénieuses et
complexes ont envahies la toile à grande vitesse, la navigation Internet professionnelle ou personnelle est devenue
une habitude quotidienne prise par les utilisateurs. La navigation banalisée non protégée représente un danger
potentiel entre les données privées et l’extérieur. En vue de
tous ces éléments, le nouveau navigateur Internet Explorer 7 offres une protection dynamique qui s’adapte au fur
et à mesure de la navigation. Par exemple, la détection de
phishing, la définition de zones de sécurité Internet, la gestion des ActiveX ou encore la gestion des cookies sont
intégrées en natif dans IE7 ; tout en améliorant l’ergonomie
pour les utilisateurs en intégrant la navigation par onglet, et
la gestion de flux RSS en natif.
Figure 2 : Centre de sécurité
Figure 4 : Internet Explorer 7
Figure 3 : Windows Defender
• Bitlocker : Cet outil interdit l’accès aux données stockées
sur un disque monté physiquement sur un autre PC ou
outils de piratage, type boot-CD. Le vol de données et
l’espionnage industriel sont des facteurs de risques a intégrés au cycle de vie d’un système d’information et Bitlocker permet de lever certaines interrogations en terme
de protection des données et de garantie contre le vol et la
corruption. A terme, la solution de protection basée sur le
matériel, nommé TPM, sera utilisée à plus grande échelle
et étendra les fonctionnalités de Bitlocker. Les construc-
IT-expert n°64 - novembre/décembre 2006
31
teurs de matériels sont en cours d’études et Windows
Vista est déjà compatible avec la technologie TPM.
• Gestion des périphériques amovibles : Malgré les campagnes de sensibilisation concernant les périphériques
amovibles, certains utilisateurs ne mesurent pas le risque
de cette utilisation. Certaines entreprises ont fait le choix
d’interdire l’utilisation de clé USB ou disques dur externe,
car la sensibilité et la protection des données étaient remises en cause. En effet, certains employés pouvaient s’emparer de documents et les diffuser à l’extérieur
volontairement ou non. Pour limiter la fuite d’informations
et l’ajout de fichiers non contrôlés sur le réseau via ce
biais, les administrateurs système pourront opter pour une
stratégie de groupe qui permettra d’interdire l’utilisation
de périphériques amovibles sur les stations Windows
Vista.
• Right Management Services : Windows Vista inclut un
composant de contrôle de droits d’identité numérique qui
permet d’ajuster la politique de sécurité en matière de
documents publiés et partagés.
Catégoriser et rechercher les données
IDC, groupe dédié à l’analyse de l’intelligence marketing, a estimé
que les entreprises perdaient plus de 14000$ en productivité par
an et par collaborateur à cause de la recherche d’information sur
les postes clients ou sur le réseau. La qualité d’un système d’exploitation se juge sur plusieurs critères, notamment la navigation
et la recherche des données.
Un système permettant un accès rapide et simple aux données
recherchées répond aux critères de satisfactions des utilisateurs
influant la productivité et permettant de faire des économies
considérables à une entreprise.
Cette nouvelle version de Windows intègre une gestion intelligente, habile, intuitive et efficace des données sur les disques et
partages en réseau.
• Nouvelle interface : L’explorateur Windows Vista est composé de plusieurs panneaux. L’un d’entre eux permet de pré
visualiser le document, sous réserve d’avoir le logiciel de
lecture associé à l’extension du fichier. Une barre située en
haut de la fenêtre permet de trier les fichiers en fonction de
critères établis : type de document, taille, date ou autres. En
bas de la fenêtre a été également ajoutée une barre d’information sur le fichier ou le répertoire sélectionné.
• Aero : Avec des effets de transparence et de 3D, Aero procure une navigation à la fois rapide et très intuitive. La nouvelle interface de Windows permet aux utilisateurs d’avoir
une ergonomie optimisée et un accès aux outils et divertissements plus rapidement.
• Prévisualisation des fichiers : L’explorateur intègre une
barre d’informations en bas de la fenêtre qui change en
fonction du type de fichier sélectionné, image, texte, multimédia, ou autre.
32
IT-expert n°64 - novembre/décembre 2006
Figure 5 : interface Aero
Voici les informations renseignées :
- La taille du fichier
- Les auteurs
- La date de modification
- Le titre
- La catégorie
- L’audience
- Les commentaires
- Une prévisualisation du fichier en miniature
• Le volet Windows : Le panneau Windows est un nouveau
composant présent sur le bureau, et regroupe une suite
d’information. Il permet de visualiser d’un coup d’œil différentes données, telles que le cours d’une action boursière,
un flux RSS, des notes ou encore la météo. Le volet Windows peut-être personnalisé, il est possible d’ajouter et/ou
de supprimer des gadgets (nom donné aux composants
du volet Windows).
Microsoft met à disposition des développeurs un SDK (kit
de développement) permettant de créer des gadgets,
dans un contexte d’entreprise. On peut alors imaginer la
création d’un gadget permettant de diffuser des informations d’entreprise à travers ces nouveaux composants,
sans forcément occasionner une gêne pour l’utilisateur.
• Recherche rapide : Une barre de recherche intégrée à
Windows permet de retrouver rapidement des fichiers en
fonction d’un mot-clé et cela dans les différents emplacements de stockage, en fonction du paramétrage d’indexation mis en place.
• Indexation des documents en réseau : Windows Vista met
à disposition des utilisateurs un nouvel outil de recherche
permettant de retrouver très rapidement des documents
sur un réseau. A travers un processus d’indexation, il est
possible de faire des recherches sur un autre PC ou serveur connecté au réseau, ou encore sur des ressources
réseau en mode déconnecté.
Notons la disparition de WinFS dans les fonctionnalités de recherche de Windows Vista. Basé sur un moteur SQL, présenté comme
une extension du système de fichier NTFS, WINFS aurait permis
de localiser et de catégoriser n’importe quelle donnée sur un disque et quelque soit sa nature (mail, photo, document…), en fonction de son contenu et en se basant sur les métadonnées du
fichier et sans tenir compte de l’emplacement.
La notion d’arborescence devient obsolète, une interface centralisée aurait permis de faire des recherches directes sur les disques
pour trouver les ressources correspondantes aux critères de
recherche en se basant sur des algorithmes et requêtes complexes.
Ce projet était cher à Bill Gates, qui annonça cette nouvelle innovation pour faire face à la recrudescence du nombre de données
hébergées sur les stations de travail et accroître la productivité des
utilisateurs. Malheureusement, ce projet ambitieux est officiellement arrêté fin juin 2006, et ne sera pas intégré à Windows Vista.
Notons que cet arrêt n’est pas vraiment définitif, une version est
toujours en cours de développement et sera proposée séparément sous forme de mise à jour vraisemblablement en 2008 pour
Windows Vista, et fera partie intégrante de la prochaine version de
SQL serveur et ADO.
Windows Vista : la mobilité facile
Ces cinq dernières années, différents instituts de statistiques et
sondages ont montré une recrudescence de l’utilisation des ordinateurs. Aux Etats-Unis, les ordinateurs portables sont en phase
de dépasser le pourcentage d’ordinateurs de bureau.
D’après le Gartner la productivité des employés est plus efficace
sur un PC portable. On observe une augmentation moyenne du
temps de travail de l’ordre de trois heures par semaine pour les utilisateurs mobiles.
l’ordinateur portable est en mode veille ou éteint.
• Gestion de cache : Windows Client Side Caching permettra de faire des économies de bandes passantes sur le
réseau et améliorera la vitesse d’exécution des tâches
réseau ; via ce biais et dans la mesure du possible le
contenu de l’information est téléchargé sur le PC et
ensuite mis en cache en temps réel.
• Nouvelle gestion de la batterie : La gestion de batterie
dans Windows Vista se base sur les informations matérielles et paramètres système. Par défaut Windows Vista propose 3 modes de gestion d’alimentation, l’un où la
performance est mise en avant, un autre où l’économie
d’énergie est prioritaire et le dernier mode où le système
équilibre économie de batterie et performance. Accessible
depuis le mobility center, la gestion d’énergie est paramétrable simplement.
• Hibernation et mise en veille : Avec Windows XP, le mode
veille et hibernation qui consistait à mettre en mémoire l’état
d’un système pour un redémarrage plus rapide, présentait
des imperfections. Les développeurs ont amélioré cette gestion qui permet aux utilisateurs de sauvegarder l’état d’une
session en mémoire. Notons que dans le cas où le niveau de
batterie est faible les documents seront sauvegardés sur le
disque dur pour économiser la batterie.
• Tablet PC : De nouvelles fonctionnalités ont été ajoutées
au mode Tablet PC. Par exemple des outils comme le
Snipping tool permet de capturer des parties de l’écran
actuellement affiché, la précision du stylet et des sélections sont améliorées, Internet Explorer intègre des spécificités d’ergonomie de navigation avec le stylet.
Environnement natif .NET 3.0
Devant l’explosion du mobile, Microsoft a aligné son nouveau
produit Windows Vista vers une logique du « connecté partout
depuis n’importe quel périphérique ». Les nouveaux outils dédiés
à la mobilité permettront d’avoir une facilité d’accès aux données.
Outils relatifs à la mobilité intégrés à Windows Vista :
• Centre de mobilité : Les principaux composants liés à la
mobilité sont accessibles depuis un point central, nommé
Centre de mobilité. Ce centre permet d’ajuster les paramètres et les performances en fonction de l’environnement où
l’on se trouve. Plus besoin d’ajuster les options de mobilités à travers plusieurs rubriques du panneau de configuration, car tous ces éléments sont à présent accessibles
rapidement dans cette console.
• Centre de synchronisation : La prolifération des appareils
mobiles prête parfois confusion au niveau de la gestion des
versions des documents et informations avec les PC. Pour
palier à cette problématique, Windows Vista intègre un point
central de gestion de synchronisation des informations.
• Sideshow : Cet outil permet d’accéder à plusieurs fonctionnalités d’un ordinateur portable depuis un autre appareil
mobile. Ainsi il est possible de déporter plusieurs fonctionnalités telles que l’affichage d’une boîte mail ou d’une vidéo à
distance sur un PDA ou smartphone, et cela même quand
Connu sous le nom de code WINFX, Windows Vista intègre nativement la nouvelle génération du framework, la version 3.0. Cette
nouvelle version est basée sur la CRL 2.0, et ne remet pas en
cause la programmation managée connue et largement utilisée
par des millions de développeurs.
Cette évolution donne plus de « puissance » aux développeurs à
travers les nouvelles API qui se déclinent en 4 couches : WPF,
WCF, WF, WCS.
Ces éléments permettent de délivrer des solutions de développement plus rapidement, via des milliers de lignes de code étant
déjà concaténées dans des simples appels de fonction.
Les développeurs pourront délivrer directement des applications
sur des postes Windows Vista sans avoir à déployer un package
.NET Framework pour exécuter l’application dans le bon contexte.
Par exemple, demain vous pourrez imaginer une application .NET 3.0
développée en interne servant à suivre en temps réel des stocks, et
déployer cette application sur l’ensemble de votre parc.
Elle sera développée plus rapidement, testée et déployée sur les postes clients via distribution de package GPO (composant régissant différentes règles sur l’ensemble de votre annuaire Active Directory), et les
clients seront prêts à travailler avec la nouvelle application.
IT-expert n°64 - novembre/décembre 2006
33
Conclusion
C’est sans aucun doute le produit logiciel le plus attendu pour
cette année 2007 et avant tout le système d’exploitation le plus
abouti réalisé par Microsoft, leader mondial du logiciel. Qu’il soit
adulé ou critiqué, Windows Vista ne peut pas laisser indifférent
lorsque l’on sait que ses prédécesseurs représentent 95,8 % des
systèmes d’exploitation des stations de travail PC dans le monde.
Figure 6 : Schéma Framework .NET 3.0
• Windows Presentation Foundation : est un composant qui
permet d’enrichir le contenu des applications, en y incorporant des interfaces graphiques « intelligentes », des
objets 3D, de la vidéo, du son et autre contenus riches.
Basé sur le format XAML (Extensible Application Markup
Language) qui est une des évolutions du format XML, les
développeurs pourront faire interagir plusieurs flux d’applications entre elles.
• Windows Cardspace : Cette nouvelle technologie s’aligne
sur la politique d’informatique de confiance, et la notion de
sécurisation des applicatifs par défaut. En effet, Cardspace permet d’implémenter dès la conception d’une
application la gestion des identités.
Basée sur la cryptographie avancée, cette couche devient
un complément ou un remplaçant dans le processus
d’identification classique (type nom d’utilisateur/mot de
passe) pour les applications web. Les architectes pourront
concevoir un système d’information en maitrisant les interactions d’authentification et d’identification de bout en
bout.
• Windows Communication Foundation : Parce qu’un système d’information complexe est généralement composé
de flux hétérogène, Microsoft a intégré une couche de
communication puissante qui permettra par le biais de
web services ou protocoles propriétaire Microsoft
d’échanger des flux entre différentes entités disparates.
• Windows Workflow Foundation : nom de code Avalon, la
dernière couche .NET 3.0 que nous vous présentons
apporte plus de flexibilité aux architectures basées sur
des workflows. La masse d’informations traitée au quotidien par une entreprise devient de plus en plus abondante.
Dans le but d’harmoniser et de contrôler ces flux, les serveurs d’entreprises de type Biztalk ont été créés. Afin de
gérer les workflows sequential ou state machine (respectivement automatisé ou humain), Microsoft a positionné au
cœur même du système Windows Vista un moteur de
workflow qui sera capable d’interagir avec d’autres entités
et moteurs. Associés au trio Visual Studio 2005, Sharepoint Services et Office 2007, les architectes bénéficient
d’un socle de fonctionnalités puissant, sécurisé et adaptés
aux besoins de systèmes complexes et hétérogènes.
Les particuliers seront en premier lieu déstabilisés par la nouvelle
interface et auront besoin d’un temps d’adaptation pour retrouver
leurs repères et fonctionnalités de base, car il s’est écoulé 5
années entre Windows XP et Vista. Les utilisateurs avancés
devront quant à eux s’armer de patience, lire, visionner des webcasts, interroger dans des forums avant d’être opérationnels à
100 % sur leur nouvelle mouture.
La rapidité du démarrage système ou de l’exécution des programmes, l’organisation des fichiers, la recherche de données, la
navigation Internet ou encore la protection intégrée et automatisée
du système permettront une productivité de travail améliorée.
Windows Vista s’apprête à bouleverser les habitudes de millions
d’usagers dans le monde et leur offrir une nouvelle expérience
mieux adaptée à leur besoin en terme de gestion de contenus
riches (multimédia, web 2.0) tout en assurant une protection
contre les dangers de la toile avec le contrôle parental et la gestion
des logiciels malveillants et virus.
Tout de même, gare au fonctionnement en mode dégradé sur les
PC d’anciennes générations… L’expérience pourrait tourner court
et être frustrante.
L’adoption de Windows Vista dans le monde professionnel
apporte des axes d’amélioration pour diminuer le TCO. D’après le
CIGREF, les grands comptes n’envisagent pas de migrer vers
Windows Vista avant 2008.
Malgré de nombreux avantages, des zones d’ombres restent en
vue, notamment la grille des tarifs à établir en fonction des besoins
de versions, du volume de licence à acquérir et du type de contrat
signé avec Microsoft (Software Assurance ou non ?).
Dans les mois à venir, les DSI, responsables, ingénieurs, techniciens et autres acteurs du marché seront à l’écoute des retours
des premières entreprises qui auront fait le pas vers Vista… I
Sammy Popotte
Technical Account Manager
chez Microsoft France
[email protected]
34
IT-expert n°64 - novembre/décembre 2006
IT-expert, soudain tout est clair…
IT-expert, la référence technique
des professionnels de l’informatique
Bimestriel de conseil et d’expertise technique,
IT-expert vous offre l’information essentielle pour
vous former et décider.
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
www.it-expertise.com
Pour tous renseignements : IT-expert - 3, rue Marcel Allégot - 92190 MEUDON - FRANCE
Tél. : +33 (0)1 46 90 21 21 - e-mail : [email protected]
Abonnez-vous à IT-expert
Je m’abonne 1 an au bimestriel IT-expert. Je recevrai 6 numéros pour 89 € TTC
Je m’abonne 1 an à IT-expert version papier + accès au pdf en ligne* pour 120 € TTC
Mme Mlle M.
Nom
Prénom
Société
Fonction
Adresse
CP
Ville
E-mail
Bon d’abonnement à faxer au
+33 (0)1 46 90 21 20
ou renvoyer au Service Abonnements
3, rue Marcel Allégot
92190 Meudon
France
Tél
Fax
Chèque joint à l’ordre de Press & Communication France
Règlement à réception de facture
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE
* Vous recevez dès sa parution un exemplaire d’IT-expert par la poste à l’adresse de votre choix et vous aurez accès à l’ensemble des anciens numéros d’IT-expert en version PDF sur le site web
d’IT-expert : http://www.it-expertise.com
11/12/06
Date :
Signature obligatoire :
Comment ça marche ?
LES CURSEURS
SOUS SQL SERVER
Eviter les curseurs, oui mais…
« N’utilisez pas les curseurs, ils ne sont pas performants » est une phrase qui revient souvent dans la bouche des DBA.
Certes, une grande partie des traitements de boucle est remplaçable par des traitements ensemblistes, d’autant plus
que le moteur relationnel est optimisé pour ce type de tâche.
Notons au passage que parmi les « templates » de code T-SQL fournis avec SQL Server Management Studio, l’outil de développement et d’administration fourni avec SQL Server 2005, les curseurs ne figurent plus dans la liste.
Cependant, il est parfois nécessaire d’exécuter un traitement pour chaque ligne d’un résultat, comme définir une
concaténation de caractères, lancer un traitement spécifique…
Comment éviter donc l’usage du curseur ?
Méthodes alternatives à l’utilisation des curseurs
Il existe de nombreuses techniques alternatives à l’utilisation des curseurs dont chacune s’adapte généralement plus
dans un contexte précis.
Explorons trois de ces techniques.
La première consiste à utiliser une requête avec paramètre, la deuxième à utiliser une variable de type table avec une
boucle While et la troisième à faire appel à définir une procédure stockée en .NET.
IT-expert n°64 - novembre/décembre 2006
37
Requête avec paramètre
Un besoin qui fréquemment est de pouvoir concaténer le résultat des champs d’une requête.
Le principe est d’empiler les résultats d’un SELECT dans une variable.
Prenons un exemple sur la table HumanResources.Department de la base exemple de SQL Server 2005, AdventureWorks.
Concaténons le nom des départements.
USE AdventureWorks
DECLARE @DptName varchar(max);
SET @DptName = '';
select @DptName= @DptName + COALESCE(Name +',','') from HumanResources.Department;
IF @DptName IS NOT NULL
SET @DptName = SUBSTRING(@DptName,1,LEN(@DptName)-1)
SELECT @DptName
La fonction COALESCE permet de traiter le cas des valeurs nulles.
Variable table avec une boucle While
Le principe est d’utiliser une variable de type table, de l’alimenter et boucler en fonction du nombre de lignes insérées,
information obtenue grâce à la variable globale @@ROWCOUNT.
A la différence de la première technique, celle-ci permet d’effectuer un traitement pour chaque ligne recherchée.
Sur ce principe recompilons chaque procédure de notre base à l’aide du code suivant :
SET NOCOUNT ON
DECLARE @rows int, @j int;
DECLARE @schemaName nvarchar(128);
DECLARE @name nvarchar(128);
DECLARE @procName nvarchar(128);
DECLARE @procTable TABLE(pk int IDENTITY (1, 1),schema_name nvarchar(128) , name nvarchar(128));
INSERT INTO @procTable
SELECT schema_name(schema_id),name FROM sys.objects WHERE type in ('P','U','V') and name not
in('sp_helpdiagrams','sp_creatediagram','sp_alterdiagram', 'sp_dropdiagram', 'sp_renamediagram',
'sp_upgraddiagrams','sp_helpdiagramdefinition')
SET @rows = @@ROWCOUNT;
SET @j = 1;
WHILE @j<= @rows
BEGIN
SELECT @schemaName = schema_name, @name = name FROM @procTable WHERE pk = @j;
SET @procName = @schemaName +'.'+@name
EXECUTE sp_recompile @procName
SET @j = @j + 1;
END;
La liste des procédures de la base est obtenue en interrogeant la vue système de SQL Server 2005 sys.objects. Pour
les versions ultérieures, il faudra utiliser la vue sysobjects. Une colonne de type IDENTITY a été définie sur notre variable table afin de pouvoir effectuer le traitement défini sur chaque élément de notre résultat.
Procédure en C#
L’apport de la CLR dans SQL Server donne une très grande richesse pour certains traitements la manipulation de
caractères ou des calculs mathématiques qui sont moins efficaces en T-SQL et surtout plus fastidieux à écrire.
Regardons à travers l’exemple ci-dessous le fonctionnement d’une procédure en C#.
La manière de coder une procédure en .NET est très proche de celle employée dans ADO.NET.
Les différences notables sont surtout au niveau de l’objet « connection » et de l’objet « SqlPipe » permet de définir le
« resultset » à renvoyer au client.
38
IT-expert n°64 - novembre/décembre 2006
L’instruction ("context connection=true")) précise que la connexion utilisée est celle de SQL Server. Dans cet exemple, l’objet SqlPipe renvoie une chaîne de caractères mais nous pouvons aussi renvoyer un enregistrement ou une table.
Notons tout de même à propos de cette nouvelle fonctionnalité que les manipulations d’ensembles seront toujours
plus performantes à l’aide des instructions T-SQL.
using
using
using
using
System.Data;
System.Data.SqlClient;
System.Transactions;
Microsoft.SqlServer.Server;
public partial class StoredProcedures
{
[Microsoft.SqlServer.Server.SqlProcedure()]
public static void SampleSP(int rating)
{
using (SqlConnection conn = new SqlConnection("context connection=true"))
{
conn.Open();
string rsResult;
SqlCommand cmd = new SqlCommand(
"SELECT VendorID, AccountNumber, Name FROM Purchasing.Vendor " +
"WHERE CreditRating <= @rating", conn);
cmd.Parameters.AddWithValue("@rating", rating);
SqlDataReader r = cmd.ExecuteReader();
while (r.Read())
{
// effectue des traitements dans la boucle
}
SqlContext.Pipe.Send(rsResult);
}
}
}
A propos des performances
Connaissez-vous la règle des 80-20 ? Elle consiste à optimiser 20 pourcent des traitements les plus coûteux pour
améliorer 80 pourcent des performances du serveur.
Chaque base de données possède ses spécificités. Ainsi, même deux bases ayant la même structure et des volumétries identiques peuvent avoir des performances différentes.
En conclusion, ne vous jetez pas sur la réécriture de tous vos curseurs et passez, au contraire, davantage de temps
sur vos traitements coûteux en ressources, d’autant que, parfois, le curseur sera plus performant que d’autres techniques… SQL Server nous fournit plusieurs d’outils de monitoring tels que le profiler, le perfmon, les instructions SET
STATISTICS IO, SET STATISTICS TIME…
REFERENCES
T-SQL Coding standards :
http://msdn.microsoft.com/library/default.asp?url=/library/
en-us/dnsqlpro04/html/sp04l9.asp
Best SQL Server Performance Tuning Tips :
http://www.sql-serverperformance.com/best_sql_server_performance_tips.asp
Cursor performance :
http://www.sqlteam.com/item.asp?ItemID=5761
Managed Data Access Inside SQL Server with ADO.NET and SQLCLR
http://msdn.microsoft.com/library/default.asp?url=/library/
en-us/dnsql90/html/mandataaccess.asp
Laurent BANON
Consultant expert SQL Server
Chez Microsoft Consulting Services
[email protected]
IT-expert n°64 - novembre/décembre 2006
39
Fenêtre sur cour
Interview de Madame Seigneur,
Directeur Informatique
du Conseil Général
de Vendée
Le Conseil Général de Vendée, avec un territoire de 6 720 km habité par plus
de 540 000 Vendéens a souhaité en 2003, mettre en œuvre le plan « 100 %
haut débit », qui devait permettre à l’ensemble de ses habitants et aux entreprises d’avoir accès à des services de haut-débit. Plusieurs technologies ont
été utilisées : l’ADSL, le CPL et aussi WiMax. Dans le cadre de notre article
consacré à WiMax, nous avons eu le plaisir d’interviewer Madame Seigneur,
Directeur Informatique du Conseil Général de Vendée à ce sujet.
40
Pourriez-vous nous présenter le service informatique et l’environnement technique dans lequel vous travaillez ?
Pourriez-vous nous présenter et nous expliquer les enjeux du plan
100 % haut débit du Conseil Général de Vendée ?
Françoise Seigneur : Nous avons actuellement 26 agents et 3
recrutements sont prévus dans l’année. Notre environnement
technique comprend un parc informatique de 1 400 postes de
travail pour une trentaine de serveurs en environnement UNIX,
LINUX et Windows 2000 et 2003 avec un premier pas vers la « virtualisation » en 2007. Nous avons 80 sites en tout dont une
soixantaine en réseau, connectés soit par fibre optique, soit par
ADSL ou SDSL soit en Wimax. L’essentiel de nos bases de données est sous ORACLE. Notre intranet est en environnement
LINUX/JAVA. Cet intranet devient le portail d’entrée pour tous les
outils de travail informatiques des utilisateurs (messagerie OWA,
agenda, annuaire, organigramme, information interne, notes de
service, applications métiers web, réservations de salles, de véhicules et de matériels, demande d’assistance…). Enfin nous avons
un SIG en cours de construction sur la base de MAPINFO.
Françoise Seigneur : Début 2003, la situation de la Vendée était
similaire à celle de tous les territoires faiblement urbanisés, seulement neuf villes ayant accès à des services de haut-débit de type
ADSL, de nombreux ménages et entreprises ne pouvant pas en
bénéficier alors qu’ils en exprimaient le besoin. Les objectifs poursuivis par le plan haut débit voté par l’Assemblée départementale
en juin 2003 étaient les suivants :
IT-expert n°64 - novembre/décembre 2006
• disposer d’offres de services haut débit sur la totalité du territoire départemental ;
• disposer d’offres de services adaptées aux besoins des ménages et du monde économique ;
• introduire la concurrence, par la diversité des opérateurs et
des technologies, pour faire baisser les coûts et enrichir la
gamme des services proposés.
Ces objectifs devaient être réalisés dans des délais rapides et au
meilleur coût pour la collectivité. Les objectifs posés par la collectivité départementale, rejoignant ceux exprimés par les ménages
et le monde économique, l’ont donc été en terme de services à
offrir, et non pas d’infrastructures à créer.
Les résultats obtenus sont les suivants :
• équipement de l’ensemble des centraux téléphoniques en ADSL
dès septembre 2005, et la résorption de 36 zones d’ombre,
• installation de 20 stations WiMax en 2004 et 2005,
• dégroupage en 2005 du chef-lieu du département, la Rochesur-Yon, et de 6 communes de la couronne yonnaise.
Concernant votre projet Wimax, pourquoi le choix de cette technologie plutôt que de l’ADSL ou du CPL par exemple ?
Françoise Seigneur : Ce choix a été fait à l’issue d’un appel d’offres qui a mis en concurrence ces différentes technologies. Le
Wimax nous a été présenté comme étant la meilleure en termes
de rapport qualité (performance) prix. Il est vrai que le prix a été un
élément assez déterminant par rapport à l’élément technique car
nous n’avions encore jamais expérimenté les liaisons de type
« hertzien » pour du transport de données informatiques.
Rappelons cependant que nous utilisons également l’ADSL et le
CPL pour certains sites inéligibles au Wimax.
Pourriez-vous nous expliquer la mise en œuvre de votre projet et
son déploiement ?
Françoise Seigneur : Après quelques coupures intempestives,
nos inquiétudes initiales sont maintenant effacées puisque le
réseau fonctionne bien et les coupures sont devenues rares et
souvent indépendantes de l’opérateur (météorologie très mauvaise ou obstacle dû au relief). Nous apprécions en outre particulièrement la souplesse et la rapidité d’installation de nouvelles
liaisons ainsi que la disponibilité de l’opérateur en cas de dysfonctionnement.
Est-ce que la mise en place d’une communication entre le SI central et les sites distants n’implique pas un degré de sécurité supplémentaire ?
Françoise Seigneur : D’une part nous sommes dans un Intranet
(voire Extranet) « privé » donc dissocié de l’Internet, d’autre part
nous disposons d’une sécurité interne de haut niveau qui fonctionne pour toutes les entrées/sorties de notre réseau. Mais il est
vrai que nous devons en permanence maintenir un niveau de
sécurisation de plus en plus « vigilant », donc ajuster constamment nos éléments actifs de contrôle.
l’ouverture vers le citoyen des procédures de demandes de prestations départementales telles que les transports scolaires ou
l’aide sociale…
Un autre projet concerne l’ouverture de notre système d’information géographique à usage interne pour les services de la collectivité puis progressivement sur le Web pour nos partenaires
extérieurs et l’usager.
Un autre concerne l’évolution d’une informatique de « gestion » vers
une informatique de « pilotage » grâce à la mise en place d’un système décisionnel et d’une solution de suivi des projets internes.
Enfin nous souhaitons une montée en puissance du mouvement
de migration de nos applications métiers en environnement Web
pour les rendre accessibles depuis notre Intranet et notre site
Internet et par l’ensemble de nos sites extérieurs.
Vous constaterez que la majorité de ces projets est « tournée » vers
les NTIC et l’ouverture vers l’extérieur grâce aux moyens de transport
informatiques que nous avons mis en place, dont le Wimax. Le débit
de ce mode de transport étant limité, nous nous devons d’adapter
nos outils de travail internes aux limites de cette technologie.
Quels sont les pré-requis pour la mise en œuvre de cette technologie ?
Françoise Seigneur : Il faut vérifier que les usages qui en seront
faits seront bien compatibles avec cette technologie, en particulier en raison des limites et de l’irrégularité de son débit ; vérifier
que les sites à raccorder sont bien « joignables » en « aérien ».
Quels sont, d’après vous, les principaux avantages et inconvénients de Wimax ?
Françoise Seigneur : L’avantage essentiel de WiMax réside dans
sa souplesse et sa rapidité d’installation. De plus, il nous permet
de créer un contact avec nos sites distants les plus éloignés et
isolés du Département. Les services concernés qui sont essentiellement des services sociaux et culturels ont beaucoup apprécié
de se trouver ainsi intégrés au réseau de communication interne.
Ils bénéficient de l’Intranet et des applications métiers qui les
concernent.
Le seul petit souci est lié au mode de communication lui-même :
par définition « aérien », il reste très sensible aux obstacles physiques : relief, construction ou végétation faisant écran. I
Quels sont vos projets à moyen et long terme ?
Françoise Seigneur : Nous avons 4 grands projets en cours.
Un projet sur la dématérialisation de nos échanges internes et
externes d’informations et de documents. Nous souhaitons par
exemple informatiser notre circuit de validation des rapports et
délibérations du Département ; la transmission électronique de
nos actes administratifs vers la Paierie départementale et la CRC ;
Madame SEIGNEUR
Directeur informatique du Conseil
Général de Vendée
IT-expert n°64 - novembre/décembre 2006
41
Livres
Clear Blogging:
How People Blogging Are
Changing the World and
How You Can Join Them
Clear Blogging
Par Bob Walsh
300 pages
25,90 euros
ISBN: 1-59059-691-9
Editions Apress
Après quelques années de vie et d’expansion ininterrompue, la blogosphère est
aujourd’hui devenue un phénomène à part entière dont le caractère éphémère
n’est plus à craindre puisqu’une trentaine de millions de bloggers sont
aujourd’hui actifs à travers le monde. Cet ouvrage qui s’adresse précisément à
ces écrivains réguliers et à ceux qui envisagent de le devenir devrait donc
connaître un franc succès. L’auteur, ancien journaliste, reconverti dans l’informatique et blogger averti y détaille le phénomène, les bénéfices que l’on peut
en attendre, les pièges à éviter et les moyens à se donner pour faire de son blog
le prochain média influent. Basé sur de nombreux entretiens avec des bloggers
influents, cet excellent ouvrage brille en outre par l’absence de tout jargon technique.
Design Patterns en Ajax
L’utilisation des techniques Ajax pour le développement d’une application Web
n’en est encore qu’à ses débuts et il est difficile de savoir s’il s’agit d’un effet de
mode ou d’une démarche qui perdurera. Toujours est-il que la souplesse promise ne saurait être obtenue sans appliquer des recettes éprouvées. Cet
ouvrage tente précisément d’en proposer quand bien même il n’y parvient pas
toujours de manière convaincante. En revanche on lui reconnaîtra le mérite de
ne pas se contenter d’énoncer des fonctionnalités et de préférer mettre en
perspective la réutilisation de certaines techniques de programmation et l’ergonomie de l’interface.
Design Patterns en Ajax
Par Michael Mahemoff
682 pages
48 euros
ISBN : 2-84177-397-3
Editions O’Reilly
IT-expert n°64 - novembre/décembre 2006
43
CONFÉRENCE
ORGANISÉE PAR
Mardi 13 mars 2007
de 9 à 17 h 30
Espace Charles Louis Havas, Neuilly-sur-Seine
avec le soutien de
4e édition
Outsourcing
2007
(
THÈMES
ABORDÉS
Partenaires Presse
Externalisation et qualité de service,
les conditions du succès
Externalisation : les conditions de la réussite
SLA, conduite du changement, aspects juridiques.
Externalisation et certification :
Engagement des partenaires dans un modèle d'amélioration continue.
L'évolution des modèles d'externalisation
Gestion documentaire et solutions d'impression : gisement de qualité, productivité ?
Gestion des Ressources Humaines demain.
Externalisation des Télécoms : tendances et perspectives.
La réponse de l'offshore
Modèles d'externalisation réussie et retours d'expérience
POUR PLUS
D'INFORMATIONS
Plate-forme d'information et d'échange entre
utilisateurs, experts du marché, analystes et
journalistes au travers de :
http://www.idc.com/france/events/outsourcing07.jsp
L’analyse IDC
Témoignages utilisateurs et études de cas concrets
Vision des grands acteurs du marché
Débats et rencontres autour de tables rondes
Exposition spécialisée
Contact :
IDC France
Valérie Rolland
Tél. : 01 55 39 61 24
[email protected]
COUPON D’INSCRIPTION OUTSOURCING 2007 - 13 mars 2007 - A retourner par fax au 01 55 39 61 20 ou par courrier avant le 6 février 2007, dans la limite des places disponibles
Mme Mlle M Participera Nom : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prénom : . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Secteur d’activité
Banque, Assurance, Finance
Industrie
Transports, Energie, Immobilier
Fonction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Adresse : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
CP : . . . . . . . . . . . . . . . . . . . . . . . Ville : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tél. : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fax : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Email : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Secteur Public
NTIC
Autres
Commerce, Distribution
Services
10-99
5 000-10 000
100-499
Plus de 10 000
Nombre d’employés
Moins de 10
500-4 999
124 Bureaux de la Colline • 92213 Saint-Cloud Cedex
Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 20 • w w w.idc.com/france
Archipels
Société : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Rubrique à brac
Wimax
Que faire lorsque le xDSL n’est pas disponible pour le raccordement à Internet ? En effet, ces technologies, tant pratiques soient-elles, sont basées sur le raccordement
téléphonique existant. Le problème réside dans la distance
de raccordement : 5400 mètres au maximum en utilisant le
LDSL (aussi appelé Re-ADSL). Bien que cette offre présente
des débits faibles et sans garantie, il est donc difficilement
exploitable en entreprise, bien que certains ne soient pas éligibles du fait de l’éloignement des centraux téléphoniques. Il
ne reste alors qu’à se tourner vers des offres satellites onéreuses, peu généreuses en bande passante ou lentes telles
que le RNIS, ou encore par modem analogique dans le pire
des cas. Wimax se faufile dans ce cas de figure et permet un
accès haut débit dans des zones reculées et ce, sans fil. Le
Wimax serait donc la réponse tant attendue depuis des
années ? Zoom sur cette technologie prometteuse…
Wimax signifie « Worldwide Interoperability for Microwave
Access ». Il s’agit d’une technologie sans fil utilisant en France
ce qu’on appelle la Boucle Locale Radio (BLR). Cette dernière, fait référence à la « boucle locale » que l’on retrouve
avec le xDSL, qui désigne le dernier tronçon entre les équipements de raccordement (NRA et DSLAMS) et l’utilisateur final
par le biais des installations téléphoniques existantes. Historiquement, cette Boucle Locale Radio était utilisée pour donner accès à haut débit à l’utilisateur final qui ne peut y avoir
accès par d’autres moyens et ce, sans fil. Il s’agit tout particulièrement des zones qui sont géographiquement difficiles à
câbler. Si plusieurs essais concluants ont été faits, notamment avec le WADSL (Wireless Asymetric Digital Subscriber
Line) en Ardèche, c’est lors de l’annonce de Wimax que l’intérêt de la BLR redore tout son intérêt. En effet, Wimax utilise
nativement (entre autre) la bande de fréquence de 3,5GHz
que l’ARCEP (l’ex ART) a autorisé à utiliser en France ainsi
que celle des 26GHz concédée par l’armée. Mais celui-ci
possède de nombreux autres avantages pour se distinguer
des autres technologies, filaire ou non. Wimax permet notamment une reprise des équipements BLR existants et une
adaptation aisée (le Wimax utilise une très large bande de
fréquence de fonctionnement). Il permet également des
débits plus importants et garantis, des portées plus conséquentes, des possibilités de mobilité, triple et quadruple play…
Nous y reviendrons un peu plus tard pour nous pencher
d’abord sur les acteurs du Wimax.
IT-expert n°64 - novembre/décembre 2006
45
Les licences Wimax
La réglementation sur l’exploitation du Wimax est plutôt stricte : il est indispensable de posséder des licences. En France, il n’y a pas de plages de fréquences libres. Les plages de fréquences de 3,5 et 26 Ghz sont
ainsi soumises à licences. Celles-ci sont distribuées à un nombre limité par régions ou au niveau national. Historiquement, ce sont les licences abandonnées de la BLR qui sont partagées aujourd’hui et d’autres qui
seront distribués au compte-gouttes. Seules deux licences sont autorisées au niveau régional et on note de
deux à dix fois supérieures le nombre de demandes. L’Île de France a ainsi recueilli dix-sept demandes,
seize pour l’Aquitaine, et quinze pour le Rhône-Alpes. A contrario, le Limousin ou la Champagne Ardenne
compte moins de dix demandes. Notons que l’engouement est pourtant très présent. Enfin, huit sociétés vont
se partager les licences au niveau national : France Télécom, SFR- Neuf Telecom (SHD), Bolloré, Free (par le
biais des licences d’altitude telecom)…
Le verdict des candidatures devrait tomber avant le premier février de cette année. A noter que la répartition
des licences se fera en fonction de trois critères : la contribution au développement territorial des services à
haut-débit, l’aptitude du projet à favoriser la concurrence sur le haut-débit, et le montant de la redevance que
le candidat est prêt à payer dès l’attribution. S’ajoute à cela une taxe de dix mille ou quatre-vingt mille euros
par an en fonction du capital de l’opérateur.
Ligne T1 pour entreprises
Accès DSL
Autres types
díaccès
Ligne T1 pour PME
SECTEURS
3
2
Hotspots
4
5
Accès 802.16
(Wimax)
1
Réseau de transport
(backbone)
Réseau de collecte
réseau privé par fibre
Ligne de retour (backhaul)
Exemple de mélange de technologies
Wimax : Le forum
Le Wimax Forum est en effet l’auteur du Wimax et les normes IEEE 802.16 le normalisent. Ces normes, nombreuses, permettent d’assurer d’abord un standard mais également de dicter l’évolution du Wimax. Attention,
car originellement 802.16 définissait la famille des « Wireless MAN » et a été repris pour être appelé Wimax,
notamment par ses créateurs, ceux du Wimax forum. Par abus de langage et de facilité, le 802.16 a été
renommé communément Wimax, tel le Wi-Fi avec 802.11.
Le forum est constitué d’industriels soucieux de vouloir harmoniser les technologies MAN sans fil. Voici un
extrait du forum :
« Le Wimax Forum est la seule organisation apportant conformité et interopérabilité à l’industrie du haut-débit
sans fil. Le Wimax Forum intègre également des tests de matériels et des programmes de certification [ndlr :
que n’apporte pas IEEE] : le label Wimax Forum Certified ».
46
IT-expert n°64 - novembre/décembre 2006
Standard
Description
IEEE 802.16-2001
Définit des réseaux metropolitains (MAN) utilisant
Publié
Statut
08/04/2002
obsolète
15/01/2003
obsolète
01/04/2003
obsolète
01/10/2004
actif
17/03/2004
actif
des fréquences supérieures à 10 GHz (et jusquíà
66GHZ)
IEEE 802.16c-2002
Définit les options possibles pour les réseaux
utilisant les fréquences entre 10 et 66 GHz
IEEE 802.16a-2003
Amendement au standard 802.16 pour les
fréquences entre 2 et 11 GHz
IEEE 802.16-2004
Actualisation des standards de base 802.16,
802.16a et 802.16c
IEEE 802.16.2
Interopérabilité entre toutes les solutions 802.16
IEEE P802.16e
Mobilité (jusqu’à 60 km/h).
-
En cours
IEEE P802.16f
Meshed Network
-
En cours
Ce label permet d’identifier les matériels qui sont (seront) compatibles 100 % Wimax. Intel et Motorola se sont
d’ailleurs mis conjointement d’accord pour développer leurs puces. Celles-ci seront disponibles dès le début
2007. Mais ce ne sont pas les seules entreprises derrières le forum : Nokia, Nortel, Cisco, Alcatel, AT&T,
Broadcom, France Telecom, Singtel…, près de 400 professionnels animent le Wimax forum, à plus ou moins
grandes échelles et permettent de rendre ce projet viable. Ce projet de haut-débit sans fil vous paraît peutêtre trop théorique, inconcevable ou peut-être même mort-né (qui se souvient du WADSL après tout ?). Et
pourtant Wimax existe bel et bien, en témoignent les déploiements qui ont commencé en Ile-de-France : l’Essonne, les Yvelines, la Seine-et-Marne et le Val d’Oise se voient desservies par la société SHD (Société du Haut
Débit – groupe SFR/Neuf-Cegetel) en Wimax. Comme quoi les zones mal desservies ne sont pas forcément
celles que l’on croie, puisque l’accès au haut-débit n’est pas identique pour tous, même en région parisienne – proche couronne. Un bel espoir pour les zones isolées car le Wimax répond à un besoin réel où les
offres ne sont pas vraiment légions. Les tests effectués dans le pays des Vals de Saintonge ont démontré que
la technologie Wimax est viable : 160 postes raccordés pendant dix mois et jusqu’à vingt kilomètres de distance entre station de base et récepteurs CPE (Customer Premise Equipment – ce sont les « modems »
Wimax). Les résultats ont été très satisfaisants, même s’il en ressort qu’il est essentiel d’étudier la nature du
terrain et de déployer le matériel le plus adapté à celui-ci.
Wimax : pour quelques kilomètres de plus
Comme nous l’avons vu, le très gros avantage du Wimax est la possibilité de
déploiement sans fil de l’internet à haut-débit, dans des conditions inadaptées aux
technologies classiques et sur de longues distances. Les coûts de déploiement
sont aussi réduits : la mise en place d’antenne coûte moins cher et prend beaucoup moins de temps à mettre en place qu’une liaison par fibre optique. On parle
de moins de dix milles euros pour une station de base et d’environ quatre cents
euros pour les récepteurs CPE.
Nous arrivons au cœur du sujet : quelles sont les performances offertes par le Wimax ?
Tout d’abord, il est possible d’utiliser des débits de 70 Mbit/s sur une distance de
50 kilomètres (diamétralement opposés). Il est important de préciser que ce sont
des données dans des conditions idéales et qu’il faut donc relativiser. Sachez
tout d’abord que le Wimax est capable de traverser de petits obstacles comme les
maisons et les voitures et qu’il n’est donc pas essentiel d’avoir une ligne de vue
directe entre CPE et station de base (ou entre stations de bases). Deux modes
opératoires sont donc possibles au sein des bandes de bases :
IT-expert n°64 - novembre/décembre 2006
47
• LOS : Line Of Sight - Ligne de vue directe – utilisation des plages de fréquences 2 à 11 Ghz (3,5 Ghz en France)
• NLOS : Non-Line Of Sight – Ligne de vue indirecte – utilisation des plages de fréquences de 11 à 66 Ghz
(26 Ghz en France)
Environnement
Taille de la cellule
Débit par secteur díantenne
Urbain intérieur (NLOS)
1 km
21 Mbit/s (canaux de 10 MHz)
Rurbain intérieur (NLOS)
2,5 km
22 Mbit/s (canaux de 10 MHz)
Rurbain extérieur (LOS)
7 km
22 Mbit/s (canaux de 10 MHz)
Rural intérieur (NLOS)
5,1 km
4,5 Mbit/s (canaux de 3,5 MHz)
Rural extérieur (LOS)
15 km
4,5 Mbit/s (canaux de 3,5 MHz)
Ce sont les équipements eux-mêmes qui sont configurés pour être utilisé en LOS ou NLOS. Le but est de
l’adapter au mieux en fonction de l’environnement. LOS pour un milieu urbain par exemple et NLOS entre stations de bases (backhaul) en rase campagne.
Ligne de retour (backhaul)
Internet
Station de base (BTS)
Exemple d’utilisation pour un particulier
Dans la pratique, on peut espérer environ 12 Mbits/s sur une distance de 20 kilomètres (diamétralement
opposés). C’est notamment grâce à la technique de multiplexage par répartition de fréquences orthogonales (OFDM) que ce tour de force et possible : il devient alors envisageable possible de communiquer à travers
des obstacles et ainsi d’implémenter une architecture urbaine, plus adaptée. Le deuxième gros intérêt est de
pouvoir installer soi-même son CPE (les équipements d’intérieurs sont donc envisageables) sans avoir à
faire appel à une société pour l’installation d’une antenne sur le toit.
A propos de l’utilisateur final, celui-ci est en droit de se demander quelle sera la bande passante mise à disposition. Il faut d’abord préciser que chaque antenne Wimax est divisée en sous parties appelées secteur.
Chaque secteur met à disposition un débit maximum, qui est défini par l’environnement (LOS, NLOS, nature
des obstacles, etc.). Ensuite, la bande passante de chaque secteur est partagée entre utilisateurs. Il faut donc
garder à l’esprit que plus le nombre d’utilisateurs relié sur une antenne est important, plus le débit sera faible
pour chacun. Une solution serait d’utiliser des réseaux maillés…
48
IT-expert n°64 - novembre/décembre 2006
Mais Wimax ne s’arrête pas là. D’autres spécifications sont en effet en cours de validation dont notamment
les réseaux maillés (meshed network), comme on peut en trouver avec le Wi-Fi, mais surtout la mobilité. Ces
deux points ne sont pas anodins, puisqu’ils définissent d’une part l’internet haut débit mobile mais, d’autre
part, le remplacement du GSM et des technologies connexes que sont le GPRS – UMTS/EDGE pour la partie données. Son nom est Wimax Mobile. Non seulement Wimax intègre des mécanismes de QOS (Quality Of
Services) nativement, mais propose des débits plus rapides. Voici le quadruple play proposé par le Wimax
forum : données, voix, vidéo et téléphonie mobile. Peut-être que cette nouvelle technologie permettrait-elle
de décanter les prix d’un marché stagnant. En tous cas, c’est un nouvel exemple très encourageant de la
convergence données/voix-vidéo qui s’amorce.
Wimax : le putsch de l’internet ?
Wimax a été défini pour être ouvert aux autres technologies sans fil. Notons d’abord qu’il n’est pas le remplaçant ni le concurrent de l’xDSL bien que des offres SDSL à débits plus importants soient proposées. Il n’est
pas non plus le concurrent du Wi-Fi, au contraire.
Originellement, le Wimax occupait la plage des 10-66 Ghz et permettait l’utilisation en champs libre (LOS). Par
la suite, le Wimax forum s’est intéressé à la plage des 2-11 Ghz, notamment pour l’interopérabilité avec les
équipements fonctionnant dans cet espace de fréquence… dont le Wi-Fi !
L’inter-opérabilité est ainsi possible avec le Wi-Fi. Prenons pour exemple les Etats-Unis qui utilisent la plage
des 2,4 Ghz : elle très proche de celle du Wimax utilisé là-bas. Le Wimax pourrait devenir ainsi l’extension du
Wi-Fi. Celui-ci décrit l’utilisation d’un LAN alors que Wimax est celui d’un MAN. On ne peut pas comparer quelques dizaines ou centaines de mètres à quelques kilomètres, bien sûr.
Un autre exemple de l’ouverture de Wimax : Wibro (« WIreless BROadband ») qui, bien que bénéficiant également de la norme IEEE 802.16 « E », se place en concurrent direct. Cet effort de la part du Wimax forum permet d’envisager une compatibilité avec cette technologie d’origine Coréenne et de celles à venir. Il est
amusant de constater que le Wimax soit en même temps celui qui a su redonner de l’intérêt à la BLR et qu’il
soit le plus ouvert aux concurrents.
Wimax : quid de la sécurité ?
Voilà un point très sensible. Quid de la sécurité ? Wimax s’appuie sur les protocoles triples DES ou AES pour
l’encryption. L’authentification s’appuie sur PKM-EAP et TLS. Si ces protocoles sont connus comme « sûr »,
il ne faut pas perdre de vue que la communication radio est interceptable. C’est notamment sur les aspects
sécurité que le Wi-Fi s’est fait épingler (WEP, pour ne pas le citer). La donne est différente, puisque le « point
d’accès » est mis à disposition par l’opérateur et non par un particulier.
Une étude sérieuse de Josh Wright (Aruba) a mis en avant des trous de sécurités du Wimax. Il indique que le
Wimax est sensible aux attaques suivantes :
• Insertion de stations intruse
• Attaques en déni de service
• Attaques par « l’homme du milieu »
• Modification réseau par le biais de trames spoofées (802.16e ne prend pas en compte le chiffrement des
trames de gestion)
L’attaque par « l’homme du milieu » est une technique visant à intercepter, modifier, et ré-expédier les données
sans qu’on ne doute de la présence d’un tiers. Cette technique nécessite néanmoins, en Wimax, d’être exactement dans la ligne de mire entre le CPE et la station de base. Ce qui laisse suggérer des séances d’acrobaties hasardeuses aux hackers…
L’hypothèse la plus probable concerne plutôt l’insertion de stations intruses. En général, les professionnels
dont l’utilisation du Wimax est soumise à licence sont assez peu bavards sur les mécanismes de protection
de leur réseau ce qui [en théorie] limite les tentatives.
IT-expert n°64 - novembre/décembre 2006
49
Conclusion
Le Wimax comble un trou qui existe depuis des années. L’accès au haut-débit n’est pas homogène et ce,
même en région parisienne. L’intérêt est multiple : le haut-débit sans fil est le premier avantage remarquable
mais le Wimax apporte également son lot d’innovations. Le quadruple play et ses mécanismes associés permettent d’envisager un début très prometteur. Son engouement de la part des régions et son support de la
part des industriels du Wimax forum laisse présager une solution pérenne et non un effet de mode.
Si le Wimax est victime de certaines faiblesses de sécurité, misons que tout sera fait pour combler ces brèches comme il a été fait avec le Wi-Fi. De gros efforts de la part du Forum démontrent un souci de vouloir bien
faire et d’aller dans le bon sens. On peut citer notamment l’interopérabilité.
De gros espoirs sont posés sur le Wimax. Si celui-ci tient toutes ses promesses, une vraie solution, pour les
professionnels ou non, est enfin arrivée. Peut-être assisterons-nous également à un décantement des régions
saturées au profit de celles qui sont désertées par ce manque de moyens. I
Quelques liens utiles
Le Wimax
http://www.wimax-fr.com/
http://www.le-blog-wimax.com/la_technologie_wimax/
http://www.futura-sciences.com/comprendre/d/dossier524-4.php
http://fr.wikipedia.org/wiki/Wimax
http://en.wikipedia.org/wiki/IEEE_802.16
http://www.francetelecom.com/sirius/rd/fr/ddm/fr/technologies/ddm200406/techfiche1.php
http://www.itrnews.com/article.php?oid=33587&usermail= %3Cuser_name %3E
http://www.01net.com/editorial/273692/boucle-locale-radio/en-attendant-wimax…/
http://www.vnunet.fr/fr/vnunet/news/2005/12/12/wimax-mobile-norme-ieee-80216e
http://www.zdnet.fr/entreprise/service-informatique/poste-client/0,50007192,39202212,00.htm
http://www.journaldunet.com/0602/060228-paysvalsaintonge.shtml
A propos des licences Wimax
http://www.journaldunet.com/0601/060116wimax.shtml
Sécurité Wimax
http://www.tech-faq.com/lang/fr/wimax-security.shtml
http://www.reseaux-telecoms.net/actualites/lire-securite-wimax-devrait-mieux-faire-15040.html
http://www.fing.org/jsp/fiche_actualite.jsp?STNAV=&RUBNAV=&CODE=1122045397706&LANGUE=0&RH=TECRES
La BLR
http://solutions.journaldunet.com/0111/011102_faqblr.shtml
WADSL
http://tic.aquitaine.fr/Presentation-des-technologies,148.html#sommaire_10
http://www.art-telecom.fr/index.php?id=36
http://www.inforoutes-ardeche.fr/portail/iportail/249/index.html
Alcatel parle du Wimax
http://video.google.com/videoplay?docid=-7396662295690084683&q=Charbax
Le quadruple play
http://solutions.journaldunet.com/0505/050511_faq_quadruple_play.shtml
Vincent TESSIER
Administrateur réseaux & systèmes
50
IT-expert n°64 - novembre/décembre 2006
Comment faire face à l’explosion
de vos flux d’informations ?
Pour concevoir et réaliser vos projets :
Exposition et Conférences
7 et 8 mars 2007
Cnit - Paris, La Défense
Votre rendez-vous avec 100 exposants, 70 ateliers exposants
et 3 évènements associés autour de Microsoft, Bea Systems et W4.
> Vous avez un projet
de
dématérialisation ?
> Vous souhaitez déve
lopper
un intranet ?
> Comment choisir la so
lution
d’archivage adaptée à
votre
activité professionnell
e?
> Comment optimiser
la relation
client grâce à la gestion
de
contenu ?
Documation est une occ
asion unique de
rencontrer en deux jou
rs les acteurs
clés du marché de la
gestion de
contenu et du document
et de participer à
des conférences et dé
monstrations
gratuites à forte valeur
ajoutée !
Demandez votre badge sur www.documation.fr
CODE : ITE
EXCHANGE…
ET « QUELQUES-UNS »
DEVIENT « TOUS
».
L’accès à distance n’est plus le privilège de quelques-uns, c’est une nécessité
pour tous. Microsoft Exchange Server 2007 unifie les e-mails, messages vocaux
et agenda en un seul système de messagerie sécurisé. Ainsi, tout le monde
peut se connecter à l’information dont il a besoin, où qu’il soit.
Découvrez les entreprises qui donnent un accès à distance à leurs équipes
sur microsoft.com/france/exchange
Pour l’accès à Internet, au WiFi et au téléphone, un abonnement à un service de
téléphonie mobile, auprès de votre opérateur de télécommunications, est requis.