IT_64 - IT-expert Magazine
Transcription
IT_64 - IT-expert Magazine
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE Bimestriel - novembre/decembre 2006 - 16€ Capital Immatériel n°64 Les curseurs sous SQL Server PAGE 37 PAGE 6 Wimax Windows Vista : le nouveau système d’exploitation de Microsoft PAGE 28 PAGE 45 ZOOM OUTSOURCING L’AVIS DES DIRECTIONS INFORMATIQUES Ministère des Finances Direction Générale des Impôts Nadine Chauvière Sous-Directrice des SI de la DGI « Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. » Groupe SFR Cegetel Eric Eteve Directeur Informatique Centre Ingénierie Mobilité « La solution CAST de gestion de la soustraitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer » Framatome - Groupe AREVA Michel Fondeviole DSI de Framatome-ANP « CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. » EN SAVOIR PLUS Demandez le Livre Blanc rédigé par le Gartner Group et CAST sur ce thème : « Information Series on Application Management » : www.castsoftware.com/outsourcing Découvrez l’expérience de plusieurs sociétés utilisatrices de solutions d’Application Intelligence : www.castsoftware.com/customers www.castsoftware.com La maîtrise des applications et des prestataires dans une opération d’outsourcing De la valeur ajoutée de l’Application Intelligence pour piloter efficacement un parc applicatif sous-traité Dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution. de coûts. C’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. Vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses. L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. Sont ainsi apparues des solutions dites d’Application Intelligence, basées sur une technologie avancée d’analyse de code source. Publi-Reportage La valeur ajoutée de ce type de solutions d’Application Intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après. trat con de Fin Appe ls d 'off res Cycle de vie d'une opération d'Outsourcing Co ntr ôle des coûts i de Suiv connaissance s sfert de Tran Comme dans n’importe quelle opération d’outsourcing, le contrat liant le fournisseur est capital, en particulier les SLAs. Néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls SLAs se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives En fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. Résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant. technique Recette L es entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer des externalisations plus stratégiques. On l’a récemment observé dans l’automobile avec Renault ou dans la grande distribution avec Carrefour. jet pro Audit de l’existant et préparation des appels d’offres • Déterminer les caractéristiques techniques du portefeuille applicatif existant avant de le sous-traiter • Disposer d’informations de référence pour évaluer les propositions des sous-traitants • Obtenir une image à l’instant t des applications pour permettre un suivi dans le temps Transfert vers le prestataire • Réduire la phase d’acquisition de la connaissance pour entreprendre plus vite des tâches productives • Diminuer le coût lié à la production d’une documentation exploitable et maintenable par le prestataire Contrôle de la qualité et des coûts en cours de projet • Suivre l’évolution de la maintenabilité et de la qualité pour éviter toute dérive • Etre capable de valider la quantité et la qualité du travail facturé • Etre en mesure de challenger le sous-traitant lors des négociations d’avenants • Industrialiser les recettes techniques Renouvellement de contrat, transfert ou ré-internalisation • Déterminer et qualifier les écarts entre la prestation prévue et les livrables recettés • Disposer des informations techniques caractéristiques du portefeuille applicatif en fin de prestation Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, CAST. Reconnu par les analystes informatiques comme précurseur du marché, CAST compte plus 500 comptes utilisateurs de sa plate-forme d’Application Intelligence dans le monde. Edito édito LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE Le capital immatériel n’est certes pas une nouveauté. L’année 2006 aura cependant été l’occasion de son retour sur le devant d’une scène largement monopolisée par des considérations comptables et financières. La difficulté à le valoriser, alors même que les normes comptables USGAP et IFRS ont pris de l’ampleur ces dernières années explique peut-être cette éclipse dont on constatera avec intérêt qu’elle semble n’avoir été que passagère. Qu’il soit technologique, humain ou organisationnel, le capital immatériel occupe une place prépondérante dans les activités relatives aux technologies de l’information et des communications. Bien plus que les machines et l’infrastructure réseau, la valeur ajoutée tient dans ce domaine aux individus, à l’inventivité dont ils font preuve et aux méthodes qu’ils appliquent. Malgré l’évidence de cet état de fait, il nous faut constater la quasi-absence de moyens à la portée des décideurs pour valoriser de manière factuelle ces éléments. En découle naturellement l’absence de pilotage de cet aspect primordial de leur activité et donc le gaspillage. Dans un monde où les activités tertiaires et les services occupent une place sans cesse croissante, continuer à jouer en aveugle serait suicidaire. L’ébauche de prise de conscience de ces richesses aujourd’hui peu ou pas gérées est encourageante, mais le chemin à parcourir est à la fois long et surtout nécessite une remise en cause profonde de nombreuses habitudes. Au bout de celui-ci se trouve pourtant un monde nouveau dans lequel l’Homme retrouverait une position centrale et auquel la société actuelle semble aspirer. Reste à savoir si les Etats Européens sauront s’accorder sur les réformes indispensables et les mettre rapidement en ouvre. Sur ce plan, la France se devrait de jouer un rôle moteur, pour peu que nous sachions regarder la réalité en face et préférer nous tourner vers l’avenir plutôt que de nous accrocher à un modèle vieillissant et bientôt obsolète. Jean-Pierre FORESTIER Rédacteur en Chef Editeur Press & Communication France Une filiale du groupe CAST 3, rue Marcel Allégot 92190 Meudon - FRANCE Tél. : 01 46 90 21 21 Fax. : 01 46 90 21 20 http ://www.it-expertise.com Email : [email protected] Rédacteur en chef Jean-Pierre Forestier Email : [email protected] Directeur de publication Aurélie Magniez Email : [email protected] Abonnements/Publicité Email : [email protected] Conception Graphique C. Grande Email : [email protected] Imprimeur Moutot Imprimeurs Parution IT-expert - (ISSN 1270-4881) est un journal édité 6 fois par an, par P & C France, sarl de presse au capital de 60 976,61 €. Avertissement Tous droits réservés. Toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autorisation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 P&C France. Toutes les marques citées sont des marques déposées. Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. Toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de Press & Communication. Abonnements 01 46 90 21 21 Prix pour 6 numéros (1 an) France ; U.E. : 89 € TTC Dom TOM, Autres Pays : 128 € TTC Un bulletin d’abonnement se trouve en page 35/36 de ce numéro. Vous pouvez vous abonner sur http://www.it-expertise.com/ Abonnements/Default.aspx ou nous écrire à [email protected] 4 IT-expert n°64 - novembre/décembre 2006 IT-expert n° 64 - novembre/décembre 2006 Sommaire 6 Dossier L’économie de l’immatériel : être ou ne pas être un leader économique En décembre dernier, Thierry Breton, ministre de l’économie des finances et de l’industrie, se voyait remettre le rapport de la Commission sur l’économie de l’immatériel. Maurice Lévy son président, a bien voulu retracer pour nous les enjeux majeurs mis en lumière par les travaux de la commission et les principales propositions qui en ont découlées. 10 25 Optimiser la gestion des actifs de la DSI et du SI : Apports et enjeux du capital immatériel Le CIGREF a consacré l’an dernier deux rapports au capital immatériel, marquant ainsi tout l’intérêt que les grandes entreprises françaises lui portent, en particulier dans un domaine : l’informatique, où l’immatériel est omniprésent. Notre dossier positionne tout d’abord le capital immatériel comme composant du capital de l’entreprise, en définit les constituants. Une seconde partie, présente la méthode IC-dVAL ® comme outil de management et de communication pour les DSI conscientes de l’importance de cette part du capital trop souvent négligée. Actualités Internationales Actualités internationales et annonces produits chez les éditeurs… 28 Quoi de Neuf Docteur ? Windows Vista : le nouveau système d’exploitation de Microsoft Le nouveau système d’exploitation de Microsoft bat tous les records, 6 milliards de dollars d’investissement auquel ajouter 500 millions de dollars pour la seule campagne de lancement. Si la migration des entreprises n’interviendra sans doute pas avant 2008, nous ne pouvions attendre cette échéance pour faire le point sur les faits marquants du remplaçant annoncé de Windows XP. 37 Comment ça Marche ? Les curseurs sous SQL Server L’emploi des curseurs dans SQL Server a toujours été déconseillé. Il arrive cependant que certains traitements de données ne puissent s’exprimer aisément sous forme ensembliste. Plusieurs techniques existent qui ne nécessitent pas de curseurs et que nous passons en revue dans cet article. L’une d’elle tire partie de la présence du CLR (.Net) dans la version 2005 du moteur. 40 Fenêtre sur cour Interview de Madame Seigneur, Directeur Informatique du Conseil Général de Vendée Madame Seigneur, Directrice Informatique du Conseil Général de Vendée nous présente l’avancement du plan ambitieux décidé il y a trois ans pour donner accès aux technologies haut débit sur la totalité du département. 43 Livres Clear Blogging et Design Patterns en Ajax sont les ouvrages que nous vous recommandons ce mois-ci. 45 Rubrique à brac Wimax A la veille de l’attribution des licences aux opérateurs de la Boucle Locale Radio, notre article présente Wimax. Son arrivée prochaine intéressera toutes les entreprises qui déçues de l’ADSL ou simplement inéligibles pour ce mode de communication ne pouvait jusqu’alors pour accéder à l’internet que se tourner vers des lignes spécialisées ou des liaisons satellitaires à prix astronomique. IT-expert n°64 - novembre/décembre 2006 5 Dossier & Interviews L’économie de l’immatériel : être ou ne pas être un leader économique Par Maurice Lévy, Président du Directoire de Publicis Groupe Président de la Commission sur l’économie de l’immatériel nous avions le plus besoin : une définition, c’est-à-dire la réponse à cette question, préalable à toutes les autres : « De quoi s’agit-il ? ». Quand Thierry Breton m’a demandé de présider la Commission sur l’économie de l’immatériel, j’ai d’abord été, comme tous les membres de la Commission, saisi par le vertige de la tâche. La démarche du Ministre était originale et nouvelle, et il n’était donc pas possible de compter sur le renfort de précédents ou d’exemples similaires venus de l’étranger. Nous avions tout à inventer, et nous avons donc commencé par écouter ce qu’avaient à nous dire les témoins, venus de partout (entreprises, banques, directions d’administrations centrales, universités… en France et à l’étranger), sur l’émergence de cette nouvelle frontière des économies développées. Ces audiences, nombreuses, passionnantes, ont été l’occasion pour nous de recueillir des informations et d’entendre des propositions. Les idées se précisaient, les méthodes se dessinaient, et les objectifs apparaissaient de plus en plus clairs. Et ce qui émergeait surtout, c’était ce dont 6 IT-expert n°64 - novembre/décembre 2006 L’immatériel, c’est une économie qui n’a pas de fondement physique, et qui place la capacité intellectuelle, l’imagination, l’inspiration, en un mot le talent, au cœur de toute création de valeur. C’est donc une économie qui est dans tout, qui est partout, et qui irrigue tous les secteurs de la vie du pays. C’est l’acte de création d’un couturier, le choix des fragrances d’un nez, l’idée d’une marque, le design d’un objet. Mais c’est aussi la recherche, les brevets, ou la finance, déjà dématérialisée. Et c’est encore tout ce qui tourne autour des technologies de l’information et de la communication. Et c’est la musique, la culture… L’immatériel constitue une part considérable de l’économie : la priorité est de le répertorier, de l’évaluer, et d’en connaître la dimension exacte, évidemment déterminante. L’invention de cet outil de mesure devra être, pour la France, une priorité. L’immatériel recèle d’immenses potentialités de développement. Il suffit pour s’en convaincre de tourner ses regards vers les Etats-Unis, la Corée du Sud, ou l’Inde. Cette économie de l’abstrait est devenue une réalité concrète aujourd’hui, elle est destinée à l’être de plus en plus et à occuper, dans le fonctionnement des pays développés, une part toujours croissante. On peut déjà estimer que l’immatériel représente à peu près, pour notre pays, 15 % de la valeur ajoutée et 20 % de l’emploi. La Commission a progressivement découvert, à mesure qu’avançaient ses travaux, que l’immatériel offrait à la France la possibilité de gagner un point de croissance supplémentaire, ce fameux point qui, depuis trop longtemps, fait cruellement défaut à notre économie, et dont l’absence nous empêche d’entreprendre et d’avancer. La croissance continuera, bien sûr, de s’appuyer aussi sur l’économie industrielle, dont il ne nous est pas venu un instant à l’esprit de contester le caractère éminent, et que nous recommandons de renforcer. Mais c’est l’immatériel qui fera la différence. C’est vers l’immatériel que la France doit se tourner si elle veut renouer avec une croissance créatrice d’emplois. C’est dans cet esprit que nous avons formulé des recommandations. Elles sont nombreuses, et elles touchent à bien des secteurs de l’économie nationale. On pourra trouver cette diversité trop ambitieuse, et juger que nos propositions, par leur nature et par leur nombre, vont dans des directions trop multiples. Il est vrai que ce sont des recommandations tous azimuts. Mais c’est l’immatériel qui est une économie tous azimuts. Si nous voulons aborder cette nouvelle page avec confiance et affronter les défis avec des armes dignes d’eux, il nous faudra oser des réformes qui modifieront, et parfois en profondeur, bien des aspects de notre économie et bien des secteurs de notre société. La Commission, si l’on considère l’ampleur de la tâche qui lui était confiée, le caractère novateur du problème qui lui était soumis, et l’ambition qu’elle se devait d’avoir pour l’économie française, n’avait pas d’autre choix que d’essayer d’être, sinon exhaustive, du moins aussi éclectique que possible dans ses orientations. La Commission a esquissé trois directions pour ces changements nécessaires. • Il faut d’abord changer de réflexes. Cela paraît presque impossible, parce que les réflexes, qui sont de l’ordre de l’instinct, se subissent plus qu’ils ne se commandent. Mais il nous faudra justement rendre possible cet effort sur nous-mêmes, pour rompre avec l’économie de la rente, qui pérennise les situations acquises et qui préfère la logique de la subvention à celle de l’investissement. Ainsi donnerons-nous aux talents, encore trop souvent insoupçonnés, de notre pays la chance de se révéler et de s’épanouir comme ils le méritent. • Il faut ensuite changer d’échelle. L’économie de l’immatériel ne connaît pas de frontières. C’est une économie de réseaux fondée sur le numérique qui se joue de l’espace géographique. Les informations, dans ce monde digital, interactif et mobile, passent en un clin d’œil d’un bout à l’autre de la planète. Le commerce a changé de forme et de nature : le soleil ne se couche jamais sur les transactions électroniques. Le cadre de l’action publique ne pourra donc pas, sur ce sujet, être strictement national. L’Europe est, dans l’économie de l’immatériel, l’espace le plus restreint qu’il soit permis de concevoir. Les réformes fiscales, notamment en ce qui concerne la TVA, devront par exemple être européennes. La relance de l’idée et du fait européens sera à la fois la cause et la conséquence du développement de l’économie de l’immatériel. • Il faut enfin changer de modèle. Que l’on ne se méprenne pas : la Commission n’a à aucun moment envisagé de renoncer au modèle français, dont chacun mesure ce qu’il doit à des siècles de combats. Mais on ne pourra pas éviter de regarder la réalité en face : le système français a été conçu pour le monde d’hier, un monde où les contraintes n’étaient pas les mêmes, où les richesses ne coulaient pas des mêmes sources et où l’économie répondait à des exigences et à des définitions aujourd’hui souvent désuètes. Ces changements, nous en avons articulé l’expression autour de 70 recommandations concrètes. Nous avons conscience du fait que certaines d’entre elles remettent en cause, d’une façon parfois abrupte, nos habitudes ou nos traditions, et qu’il faudra du courage pour les appliquer. Mais c’est précisément de cette vertu que la France a besoin : du courage. Je ne peux évidemment pas énumérer toutes les propositions que nous avons formulées, mais je tiens à en retenir quelques-unes : • Améliorer notre gestion de l’image de la France à l’étranger en constituant au sein de l’AFII une cellule de veille et de réaction aux changements internationaux. L’exercice du métier de publicitaire m’a appris qu’une image se gouverne ou se subit, et que si on ne fabrique pas soi-même l’idée que les autres se font de vous, on est contraint de se regarder dans le miroir déformant qu’ils vous tendent. La marque France est un capital immense, dont la gestion devra être confiée à une agence dédiée. • Privilégier les PME dans le cadre de la commande publique, selon un Small Business Act à l’européenne. Dans l’économie de l’immatériel, qui est une économie en mouvement, rien n’est plus dan- IT-expert n°64 - novembre/décembre 2006 7 gereux que de rendre immuables les puissances établies. Les gisements de croissance se trouvent largement dans les entreprises de petite taille, dont il faudra encourager en particulier les projets de recherche. • Améliorer nos performances en matière d’enseignement supérieur. L’Université française, qui fut autrefois un exemple pour le monde, décline à une vitesse qui met en péril le statut et le prestige de notre pays. Il faut, pour reprendre la formule que notre rapport a inspirée à Thierry Breton, un véritable « plan Marshall » pour l’enseignement supérieur : accroître de 0,5 point de PIB l’effort dans cette direction apparaît, étant donné l’ampleur de la crise, comme un minimum. Mais l’argent ne suffira pas : les universités ont besoin de cette autonomie, garantie de la concurrence et de la compétitivité, qu’on leur refuse depuis trop longtemps. Et il est vital pour l’avenir du pays qu’elles puissent choisir leurs étudiants. La sélection, dès lors qu’elle se fonde sur des critères justes, ce n’est pas l’inégalité, c’est la véritable égalité : celle des chances. • Adapter notre fiscalité à l’immatériel. Il est temps de passer de la logique de la taxation à celle de l’incitation, et de réfléchir à des modifications profondes de notre système fiscal, notamment en ramenant le taux normal de l’impôt sur les sociétés à la moyenne de l’Union européenne. • Renforcer le rayonnement des musées français en leur donnant la possibilité de céder le droit d’utilisation de leur nom dans des conditions très strictes et de vendre certaines de leurs œuvres selon des modalités très encadrées, ainsi qu’en ouvrant la voie à des fonds de dotation sur le modèle des « Endowment funds » à l’américaine. Entendonsnous bien : il ne s’agit pas de livrer nos institutions culturelles, qui sont inestimables et qui font de la France un joyau, aux lois les plus aveugles du marché. Il s’agit de garantir qu’elles resteront dignes de leur mission de service public, en leur donnant les moyens de leurs ambitions, ce qui suppose d’ouvrir plus largement leurs sources de financement. Sur ce point comme sur les autres, la France ne peut pas s’offrir le luxe de refuser les meilleures volontés et de décliner les offres généreuses. Il faut pour cela savoir atténuer les frontières arbitraires, et notamment la distinction public-privé qui oppose les énergies au lieu de les rassembler. 8 IT-expert n°64 - novembre/décembre 2006 • Mettre en place un plan d’accompagnement des efforts de l’industrie du logiciel dans les domaines de la formation initiale, de l’internationalisation, de la R&D et de l’image de l’industrie française du logiciel. L’objectif devrait être de faciliter le doublement du chiffre d’affaires d’une quinzaine de sociétés dont le CA est inférieur à 15M euros. Il existe une réelle chance de développer de nouveaux champions mondiaux du logiciel, en s’appuyant sur la position de ces grands utilisateurs. Plusieurs types de modalités peuvent être envisagés, notamment l’externalisation concertée de blocs logiciels d’utilité commune vers des éditeurs. On pourrait par exemple tâcher de reproduire le modèle réussi d’Amadeus. Une dynamique pourrait être lancée au niveau national, en s’appuyant sur les travaux de l’Allemagne et des pôles de compétitivité. • Créer un Haut conseil pour la croissance pour l’immatériel présidé par le Premier ministre. J’entends d’ici la réplique : « encore un comité Théodule ! ». Il ne s’agit pourtant pas de créer une institution de plus, mais de placer sous le contrôle de l’autorité publique la mise en œuvre énergique des réformes nécessaires. Le passage à l’ère immatérielle ne se fera pas sans audace ni sans une forte impulsion politique. Il conviendra notamment de remettre en cause notre conception et notre organisation du travail, beaucoup trop rigide et contraignante pour une économie qui est, par définition, celle de la liberté, de la flexibilité, et de l’esprit d’entreprendre. Et il faudra revenir sur le maquis de nos législations et recommandations. Dans cet univers aussi instable qu’imprévisible, c’est une activité aussi indispensable que périlleuse que de mettre en relation les systèmes d’information, et d’en optimiser la valorisation. L’informatique est à la fois une cause, une conséquence et un symbole de ce monde où tout est immédiat et interconnecté. Car le monde change. Et nous ? Changeons-nous aussi vite et aussi profondément que lui ? Il n’est pas trop tard, mais il faut s’y mettre tout de suite. Les bouleversements que j’ai décrits ne sont pas pour un avenir lointain. Ils ont eu lieu. Nous y sommes. Demain, c’était déjà hier, et pour que la France renoue avec sa croissance perdue, il lui faudra être de son siècle. Pour cela, elle aura besoin de tous ses talents, c’est-à-dire de cette admirable réserve d’énergie que constituent ses femmes et ses hommes. C’est une chance. Il revient à chacun d’entre nous de ne pas la laisser passer. I ORESYS, Acteur majeur du conseil en management et organisation, ORESYS s’engage auprès des grandes entreprises pour accompagner leurs projets de transformation et l’amélioration de leurs performances. Nos 200 consultants experts s’engagent en synergie avec les équipes internes. Leur originalité tient dans une multi compétence tant sur les volets métiers, fonctionnels que technologiques. _Notre savoir-faire Notre savoir-faire s’étend de la définition d’une stratégie à sa mise en ouvre opérationnelle, en intégrant les dimensions organisation, accompagnement du changement et systèmes d’information. Oresys dispose des compétences et des outils pour assister ses clients sur tous les aspects de la conduite de grands projets de transformation. www.oresys.com Design > www.enola-creation.fr ENSEMBLE POUR LA RÉUSSITE DE VOS PROJETS OPTIMISER LA GESTION DES ACTIFS DE LA DSI ET DU SI : Apports et enjeux du capital immatériel 10 IT-expert n°64 - novembre/décembre 2006 Révolution ou révélation du capital immatériel ? L’année 2006 a été marquée par de nombreuses d’annonces autour de l’économie de l’immatériel et de son carburant principal, le capital immatériel. Le monde des systèmes d’informations n’a pas échappé à ce mouvement. Il n’y a à cela pas vraiment matière à étonnement. Tous ceux qui, depuis bien longtemps ou plus récemment, sont convaincus que le capital immatériel représente à la fois une approche pertinente, efficace et opérationnelle, trouveront là matière à se réjouir. A l’inverse du conte, le roi était sans doute élégamment habillé depuis longtemps, mais la révélation est tout aussi fulgurante. Pourquoi plutôt en 2006 qu’auparavant alors que depuis longtemps les concepts et les méthodes existent ? Pourquoi, alors même que la littérature académique en traite depuis plusieurs décennies avec une certaine abondance ? Pourquoi maintenant alors que depuis des générations tous les décideurs sont intimement persuadés de l’importance du capital immatériel ? Il existe 4 raisons clefs pour l’intérêt actuel autour du capital immatériel : • Une réalité : l’économie de la connaissance et la dématérialisation • Un manque : la non ou mauvaise prise en compte de facteurs clés de performance dans les comptes de l’entreprise • Une demande : ne pas réduire le management des entreprises et la stratégie aux seuls indicateurs financiers • Une nouveauté : des méthodes nouvelles pour utiliser au mieux des facteurs concurrentiels importants Notre propos s’appuie sur bientôt quatre années d’échanges et de travaux dans le cadre du CIGREF. L’initialisation des réflexions sur le capital immatériel au CIGREF a débuté en 2000 dans le cadre du groupe de travail sur la gestion des connaissances, dont le rapport de synthèse consacre une annexe détaillée sur le thème « Quelle est la valeur du savoir et de la connaissance de l’entreprise ? ». Disons clairement que nous ne prétendons pas que le capital immatériel soit une révolution conceptuelle ni que son application puisse être pensée comme une panacée faisant table rase. Bien au contraire, c’est tout l’intérêt de cette approche que de s’inscrire dans une continuité englobante sur le plan des idées, des méthodes et des pratiques. Aussi les chasseurs de pierre philosophale stratégique et autres martingales managériales resteront sur leur faim. IT-expert n°64 - novembre/décembre 2006 11 La valeur : un objectif qui nécessite des moyens Identifier les actifs immatériels Comme souvent, il faut autant que possible définir ce que recouvrent les termes. Et bien entendu comme tout domaine riche et dynamique, le capital immatériel se décline sous différentes appellations, marquées par l’origine différente des approches. Capital, actif ou ressource seront qualifiés d’immatériel, d’incorporelles, d’intangibles, d’intellectuel. Pour beaucoup d’auteurs et de praticiens, les différentes expressions sont prises comme synonymes. Dans tous les cas, les différentes nuances exprimées ne doivent pas masquer la convergence d’enjeux et de points de vue par rapport à des approches plus classiques de l’entreprise et de l’économie. Pour une organisation, créer de la valeur signifie remplir sa mission avec efficience, quelle que soit la nature de cette mission. La mesure de la valeur créée est nécessaire. Mais la mesure de la valeur ne doit pas occulter que celle-ci est une résultante. La valeur est un effet et non la cause. C’est le message fondamental notamment d’une approche comme la Balanced Scorecard. Cela démontre aussi que même en réduisant la valeur aux résultats financiers, il ne faut pas négliger des aspects non financiers. A priori, tout manager souhaite créer le plus de valeur possible. Il ne peut se contenter de mesurer cette valeur. Il doit agir sur les causes, les facteurs de création de valeur. Ces facteurs sont les vrais actifs de l’organisation. D’une certaine manière, le seul rôle du manager, c’est d’assurer la meilleure combinaison des facteurs de création de valeur. En clair, le manager gère des actifs. I Une définition Le capital immatériel désigne l’ensemble des actifs non monétaire et sans substance physique détenus par l’entreprise en vue de son utilisation pour la production ou la fourniture de bien et de services. Ces actifs, quels sont ils ? Ils existent trois catégories distinctes d’actifs : l’actif monétaire, les actifs matériels, et les actifs immatériels. Les deux premières catégories sont bien connues. Elles sont aussi dotées d’un corpus étendu, détaillé, spécifique et souvent normalisé pour leur gestion et l’optimisation de leur utilisation. La troisième catégorie n’est pas aussi bien lotie. Cette différence serait anodine si la place prise par les actifs immatériels n’était pas devenue, de l’avis de tous, à la fois déterminante et majoritaire. On notera au passage que les actifs immatériels ont toujours été prépondérants. Les ressources physiques (terres, forêts, mers, minerais, énergies…) à disposition de l’humanité n’ont que peu variée depuis son apparition. C’est son aptitude à s’en servir, en clair ses compétences, qui ont changé. Cette définition est proche de celle retenue par les comptables pour le chapitre IAS 38 qui spécifie les traitements des actifs intangibles dans ce référentiel international de normes comptables. Mais il est impératif de préciser que les comptables imposent des contraintes fortes à la notion d’actif : l’identification et le contrôle. La définition comptable d’une immobilisation incorporelle impose qu’elle soit identifiable afin de la distinguer clairement du goodwill. Une entreprise contrôle un actif si elle a le pouvoir d’obtenir les avantages économiques futurs découlant de la ressource sousjacente et si elle peut également restreindre l’accès des tiers à ces avantages. Humain "Tout ce qui est dans la tête des gens" Organisationnel Relationnel "Tout ce qui reste dans l'entreprise à la fin de la journée" "Tout ce qui relie l'entreprise à son environnement" Humain Connaissances Compétences Routines Motivation Organisationnel Culture Valeurs Politiques Méthodes Procédés Processus Composantes Relationnel Clients Investisseurs Partenaires Fournisseurs Communauté Fonctions Concernées Production Commerciale SI Qualité Achat R&D RH Finance Communication Marketing Vision Financière Vision Stratégique Vision Managériale La quête de la valeur La quête de l'avantage compétitif La quête du pilotage et du contrôle Vue générale du capital immatériel Source : CIGREF 12 Juridique IT-expert n°64 - novembre/décembre 2006 Capital Total Capital immatériel Capital matériel Capital monétaire Capital physique Capital organisationnel Capital relationnel Capital humain Classification des actifs de l’entreprise Source : CIGREF Capital immatériel Capital humain Capital organisationnel Attributs des personnes tels que l'intelligence, le savoir faire, la créativité, la façon de travailler Eléments détenus par l'entreprise tels que la propriété intellectuelle, les systèmes, les processus, les bases de données, les valeurs, la culture… Capital relationnel Relations externes avec les clients, les fournisseurs, les partenaires, les réseaux, les régulateurs… Classification des actifs immatériels Source : CIGREF L’application de ces deux principes va conduire à ne pas considérer les compétences des individus comme un actif, puisqu’elles sont à la fois difficilement identifiables et faiblement contrôlables. Une grande partie du capital humain est ainsi ignorée par la comptabilité. Or le manager ne peut pas faire l’impasse sur ce capital humain. Ainsi, malgré les avancées majeures de la comptabilité pour offrir une image pertinente de la valeur d’une entreprise, elle amène à sous-évaluer la place du capital immatériel. Valoriser les actifs immatériels Il existe un grand nombre de méthodes d’évaluation et/ou de valorisation des actifs immatériels. Notre objectif n’est pas d’en présenter ni un catalogue ni une sélection. Nous contenterons de présenter une typologie, établie par Erik Sveiby (biographie en fin de dossier). Les différentes méthodes de mesure des intangibles peuvent être regroupées en 4 catégories : • Méthodes d’évaluation directe du capital immatériel Elles estiment la valeur monétaire des actifs intangibles par l’identification de leurs différentes composantes. Une fois les composantes identifiées, elles peuvent être évaluées directement soit individuellement soit avec un coefficient agrégé. • Méthodes de capitalisation marchande Elles calculent la différence entre la valeur de marché (ou capitalisation boursière) et la valeur des actions détenues par ses actionnaires comme étant la valeur du capital intellectuel ou des actifs intangibles de l’entreprise. • Méthodes des retours sur actifs La différence entre le ROA (return on assets) de l’entreprise et celui de la moyenne de son secteur d’activité est multipliée par la moyenne des actifs matériels de l’entreprise pour calculer un gain annuel moyen dû aux intangibles. En divisant ce gain annuel moyen par le coût moyen du capital de l’entreprise ou un taux d’intérêt, on peut estimer la valeur des actifs immatériels. • Méthodes des « scorecards » ou tableaux de bord Les différentes composantes du capital immatériel sont identifiées. Des indicateurs et des indices sont créés et rassemblés dans un tableau de bord ou scorecard ou sous forme graphique. Les méthodes des scorecards sont similaires aux méthodes d’évaluation directe, mis à part qu’aucune évaluation monétaire n’est faite de la valeur du capital immatériel. Un indice composite peut être ou non produit. Manager le capital immatériel : apports et opportunités du capital immatériel pour le manager en général et le DSI en particulier Le capital immatériel est un sujet pour manageur à plus d’un titre. C’est d’abord un sujet qui est là pour rester. Les mois et les années qui viennent devraient voir une montée en puissance du domaine. La gestion des actifs immatériels devrait assez vite devenir un « must » de la panoplie du manager qui se respecte. IT-expert n°64 - novembre/décembre 2006 13 « L’économie a changé. En quelques années, une nouvelle composante s’est imposée comme un moteur déterminant de la croissance des économies : l’immatériel. Durant les Trente Glorieuses, le succès économique reposait essentiellement sur la richesse en matières premières, sur les industries manufacturières et sur le volume de capital matériel dont disposait chaque nation. Cela reste vrai, naturellement. Mais de moins en moins. Aujourd’hui, la véritable richesse n’est pas concrète, elle est abstraite. Elle n’est pas matérielle, elle est immatérielle. C’est désormais la capacité à innover, à créer des concepts et à produire des idées qui est devenue l’avantage compétitif essentiel. Au capital matériel a succédé, dans les critères essentiels de dynamisme économique, le capital immatériel ou, pour le dire autrement, le capital des talents, de la connaissance, du savoir. En fait, la vraie richesse d’un pays, ce sont ses hommes et ses femmes. » Extraits du Rapport de Maurice Lévy et Jean Pierre Jouyet, Economie de l’immatériel, novembre 2006, rédigée à la demande de Thierry Breton, Ministre de l’Economie 14 IT-expert n°64 - novembre/décembre 2006 Le capital immatériel est désormais un sujet à l’agenda des PDG, des directeurs financiers, des régulateurs et des investisseurs. Il est plus que probable qu’il fera bientôt l’objet d’un reporting encouragé voir exigé. Ce n’est pas prendre grand risque que de parier sur l’instauration de standards pour le reporting du capital immatériel à moyen terme. Mais plus que tout autre point, insistons sur le fait que comprendre le capital immatériel peut substantiellement améliorer la capacité des manageurs à créer de la valeur. Or, le DSI est avant toute chose en responsabilité de management. Si on excepte les locaux et le hardware, tout ce qui compose le système d’information de l’entreprise est immatériel. En général, les locaux et le hardware ne sont pas présentés comme les facteurs clés de la performance du système d’information, bien qu’ils ne soient pas négligeables. Le DSI doit donc avoir à sa disposition une approche opérationnelle pour optimiser sa gestion des actifs immatériels qui composent sa direction et le système d’information de son entreprise. Nous présentons dans la suite une approche qui a fait l’objet de mises en œuvre réussies dans plusieurs DSI d’entreprises membres du CIGREF. Un outil opérationnel pour le DSI : La méthode IC-dVAL® La méthode IC-dVAL®, « Intellectual Capital dynamic Value », a été développée par Ahmed Bounfour. I L’approche globale d’IC-dVAL® C’est une méthode d’analyse économique internationalement reconnue pour comprendre, modéliser et évaluer le capital immatériel. Elle repose sur les travaux de la Resource Based View (RBV) et des capacités dynamiques de l’entreprise. C’est un modèle intégré d’évaluation de la performance et de la valeur relative du capital immatériel des organisations. I La valeur dynamique du capital immatériel par la méthode IC-dVAL® En effet, IC-dVAL® est à la croisée des chemins d’autres approches d’évaluation du capital immatériel. Elle s’inscrit dans une perspective dynamique dans la mesure où elle privilégie les interactions entre les différentes perspectives du management du capital immatériel (input, output, externe, interne). Pour cela, elle est en parfaite adéquation avec le Knowledge Management de seconde génération. L’approche dynamique du capital immatériel par la méthode IC-dVAL® vise à faire le lien entre des niveaux d’investissements, des niveaux de performance observés ou souhaités et des niveaux de valorisation d’actifs immatériels. La perspective « input » correspond en fait à la perspective « ressource ». En d’autres termes, on ne considère que les éléments immatériels considérés comme des inputs dans le processus de production. Parmi ces inputs, on retrouve les investissements en R&D, en ressources humaines, en technologie de l’information, en marketing et publicité, etc. La perspective « output/stratégie » s’intéresse à la valorisation financière des actifs immatériels de l’entreprise et à leur alignement stratégique. I Construction de la méthode Selon cette méthode, les ressources sont classées suivant trois catégories : • le capital humain, • le capital organisationnel • le capital relationnel. La méthode évalue la « valeur métier » (chaîne de valeur de l’entreprise) et la « valeur marché » du système d’information (chaîne de valeur de la DSI pour les autres métiers de l’entreprise) grâce à des indicateurs de performance partiels (IPP) et un indicateur de performance global (IPG). La perspective « externe » s’inscrit dans la valorisation financière des actifs immatériels avec néanmoins quelques variantes. La perspective comptable ne s’intéresse qu’aux conditions d’activation des éléments immatériels dans les états financiers. La perspective financière n’est animée que par l’attribution d’une valeur à ces éléments. La valeur métier répond à la problématique de l’alignement stratégique (« suis-je aligné avec la stratégie globale de l’entreprise ? »). La perspective « interne » n’est autre que la perspective managériale privilégiant l’approche partenariale de la valeur créée. Concrètement, cette valeur « marché » permet de suivre et de contrôler les investissements en actifs immatériels de la DSI. La valeur « marché » répond à la problématique de la valeur financière (« combien je vaux ? »). Perspective Externe Règles comptables Modèle de Lev IAS Approche par les ressources Perspective Output/ Stratégique Approche IC-dVAL© Perspective Input Edvinsson & Malone Stewart Balanced Scorecard I Danish Guidelines (Dan.) Meritum (EU) Wissenbilantz (All.) METI Guidelines (Jap.) Balanced Scorecard II Première génération de modèles Perspective Manégariale Interne Cartographie des principales méthodes de reporting et management des immatériels Source : A. Bounfour, 2003 IT-expert n°64 - novembre/décembre 2006 15 Composantes de la valeur "marché" d'une DSI (k€) Budget, chiffre d'affaires et survaleur estimés (k€) 8000 100000 7000 80000 6000 5000 60000 4000 40000 3000 2000 20000 0 1000 0 Immobilisations Corporelles Immobilisations Incorporelles Valeur du capital immateriel de la DSI Valeur globale de la DSI Budget Offre d'affaires estimée Ecart (survaleur CA) Suivi de la valeur « marché » de la DSI Source : présentation A. Bounfour, 2006 - (NB : valeurs fictives) En effet, sur ces deux graphiques, on peut apprécier les composantes de la valeur « marché » de la DSI ainsi que sa participation à la création de valeur. Cette « valeur métier » regroupe différentes facettes : • La valeur d’efficience : la capacité à réaliser une action opérationnelle (ex : suis-je capable de consolider les comptes en moins de trois jours, etc. ?) • La valeur de liaison : la capacité à lier deux activités • La valeur d’accélération : la capacité à accélérer une activité • La valeur de restructuration : la capacité qu’offre le S.I. à permettre et accompagner la transformation de l’entreprise (ex : lors de fusions, acquisitions, cessions, etc.) • La valeur d’innovation : la capacité à faire des choses nouvelles • La valeur d’existence exprime le montant que les dirigeants sont prêts à payer pour posséder la fonction en interne. Les IPP sont définis pour trois dimensions du capital immatériel : • les ressources et compétences (IPR), • les processus (IPP) et, • les outputs (IPO) : réputation… L’IPG est un indice synthétique permettant d’apprécier la performance globale de l’organisation. Il est calculé sur la base de plusieurs autres indices (les IPP) et est souvent utilisé pour le calcul de « la valeur dynamique du capital intellectuel ». Pour chaque indice, il sera possible de définir des écarts tels que : • Le niveau d’Atteinte de l’Objectif (NaO) pour un plan stratégique de trois ans • Le niveau de Performance Relative (NpR) par rapport à l’idéal- type • L’Idéal-type (IT), déterminé subjectivement. Chaine de valeur de la DSI- Valeur marché Ressources et Compétences Chaîne de valeur globale de L'entreprise-Valeur Métier IPR Impacts Valeur d'efficience Valeur de liaison Processus IPP IPG Capital Immatériel Valeur d'accélération Valeur de restructuration Valeur d'innovation Outputs IPO Valeur d'existence Calcul d'indices de performance relative par étalonnage (autres DSI, SSII, autres benchmarks) Modélisation de la valeur : approche marché et approche métier par la méthode IC-dVAL® ©Ahmed Bounfour 16 IT-expert n°64 - novembre/décembre 2006 Recommandations pour se lancer dans la mise en œuvre Si vous êtes arrivé jusqu’ici, vous demandez sans doute par où continuer. Voici une liste de recommandations pour vous aider à franchir la prochaine étape. Partager l’information • Diffusez ce document à vos collaborateurs, collègues, supérieurs • Consultez le dossier Capital Immatériel du CIGREF (Réservé aux membres) Esquissez une carte du capital immatériel de votre département, direction, entreprise… L'indice de performance globale (IPR, IPP, IPO, IPG) 100 80 60 Estimez la part du capital immatériel dans votre domaine Questionnez vos pratiques actuelles en terme de reporting de la performance (les vôtres et celles de votre entreprise en général). • Quelle est la part des éléments non financiers ? • Quelle place donnent-elles au capital immatériel ? Questionnez vos pratiques actuelles de management (les vôtres et celles de votre entreprise en général) : • Comment le capital immatériel est t-il pris en compte ? • Qu’est ce qui favorise/fait obstacle à une bonne prise en compte de l’immatériel dans vos pratiques internes ? Constituer un groupe pilote Identifiez dans votre département, direction, entreprise 3 à 5 personnes pour constituer un groupe de réflexion et de proposition pour lancer une démarche sur le capital immatériel. 40 20 0 Indice de performance des ressources -IPR Indice de performance des processus IPP Indice de performance des Outputs IPO Indice de performance Global -IPG L’indice de performance global ©Ahmed Bounfour - (NB : valeurs fictives) I Mise en pratique NB : Toutes les données sources des graphiques sont fictives pour respecter la confidentialité des résultats. Un des DSI membre du CIGREF s’est focalisé sur les ressources et compétences de sa DSI. La méthode lui a permis de progresser sur deux points : • Établir une cartographie des compétences en repérant les profils type • Apporter un tout autre éclairage sur le criblage de l’ensemble du portefeuille de projet, qui sera alors segmenté par type de valeur métier et par priorité. Si on analyse les résultats, on s’aperçoit : • qu’au niveau des ressources humaines, la question était d’externaliser les tâches de support, de renforcer les consultants métier et les architectes. Les indicateurs de la méthode indiquent un petit écart par rapport à l’idéal-type (IT) • que l’on est un peu en dessous de l’IT pour les ressources physiques • concernant les ressources technologiques, celles-ci sont à renforcer dans certains domaines tels que les réseaux. IT-expert n°64 - novembre/décembre 2006 17 Pour ce qui est des ressources informationnelles, elles sont assez diffuses dans un marché moyennement concentré et concurrentiel. Ressources Humaines 60 50 Un autre DSI s’est penché sur les processus. La méthode et le calcul des indices s’appuient sur des standards tels que les 34 processus COBIT, auxquels sont ajoutés un processus « innovation » et un processus « identitaire ». 40 30 20 10 0 -10 Niveau Relative de Performance Niveau Atteinte des Objectifs Idéal Type Ecart Idéal Type Indices de performances partiels des ressources et compétences ©Ahmed Bounfour Selon lui, la définition et l’analyse des écarts par rapport à l’IT sont de bons outils de motivation pour les cadres. En effet, cette méthode a été très vite partagée par ses équipes. De plus, une prime d’objectif a été mise en place pour améliorer les points à améliorer (contrôle de gestion, directions opérationnelles, RH, etc.). En analysant les diagrammes ci-après, on remarque globalement que cette DSI est majoritairement sur-positionnée. Ressources physiques 60 50 Le processus « Planification & Organisation » compte légèrement plus d’indicateurs sur-positionnés que d’indicateurs sous-positionnés. Ses deux principales faiblesses se situent au niveau de la politique des réseaux télécoms (au sein de PO 4) et au niveau de la vente de ses activités extérieures (au sein de PO 8). 40 30 20 10 0 -10 Niveau Relative de Performance Niveau Atteinte des Objectifs Idéal Type Ecart Idéal Type Indices de performances partiels des ressources et compétences ©Ahmed Bounfour Concernant le processus « acquisition et mise en place », cette DSI est majoritairement sur-positionnée mais connaît une principale faiblesse au niveau du développement de logiciels et de nouvelles applications (au sein d’AMP 1). Planification et Organisation - NpR Ressources Technologiques 100 60 50 80 40 30 60 20 10 40 0 20 -10 -20 0 -30 Niveau Relative de Performance Niveau Atteinte des Objectifs Idéal Type PO1 Ecart Idéal Type Indices de performances partiels des ressources et compétences ©Ahmed Bounfour 50 40 30 20 10 0 -10 Niveau Relative de Performance Niveau Atteinte des Objectifs Idéal Type Ecart Idéal Type Indices de performances partiels des ressources et compétences ©Ahmed Bounfour 18 IT-expert n°64 - novembre/décembre 2006 PO3 PO4 PO5 PO6 PO7 PO8 PO9 PO10 PO11 Indices de performances partiels des processus ©Ahmed Bounfour Ressources Informationnelles 60 PO2 Planification et Organisation - Ecart Idéal Type 35 30 25 20 15 10 5 0 -5 -10 -15 -20 -25 -30 -35 PO1 PO2 PO3 PO4 PO5 PO6 PO7 PO8 PO9 PO10 Indices de performances partiels des processus ©Ahmed Bounfour PO11 Au sein d’une DSI, plusieurs méthodes distinctes sont utilisées pour rendre compte de sa performance. Pourtant, le reporting reste difficile compte tenu des difficultés liées à la communication avec la direction générale, liées au leadership et au management. Considérant la méthode IC-dVAL®, les indicateurs sont conçus de façon à s’aligner sur la stratégie globale de l’entreprise et à permettre des reporting financiers. Acquisition et Mise en place Niveau de performance relative 80 70 60 50 40 30 20 10 0 AMP1 AMP2 AMP3 AMP4 AMP5 Les apports de la méthode IC-dVAL® pour le DSI AMP6 Processus Indices de performances partiels des processus ©Ahmed Bounfour Schématisons les apports de la méthode IC-dVAL® pour les DSI. I L’Impact managérial d’IC-dVAL® Acquisition et Mise en place Ecart Type Idéal 40 35 30 25 20 15 10 5 0 -5 -10 -15 -20 -25 -30 C’est un bon outil de management pour le DSI car la méthode permet entre autres d’élaborer une cartographie des investissements par ressource/compétence et processus, et de motiver ses troupes. I L’outil de communication IC-dVAL® AMP1 AMP2 AMP3 AMP4 AMP5 L’outil fournit des éléments de valeur compréhensibles pour les autres acteurs de l’entreprise grâce aux indices et à l’établissement d’un compte de résultat de la DSI. À la fin de l’exercice comptable, en plus de l’outil de communication, la DSI disposera aussi d’un résultat courant et d’un cash-flow. AMP6 Processus Indices de performances partiels des processus ©Ahmed Bounfour CIGREF Se poser de nouvelles questions Nouvelle Vision Indice Benchmark Benchlearn Vos équipes Entreprise Stratégie Métiers Fonction SI Management Communiquer Performance "Chiffrer sa stratégie" Indices de preformance ANALYSTES Indice Valorisation Compte de résultat Leadership Communication Sécurité Portfolio Techno ISO ABC SRM COBIT RH Capitalisable ITIL Archi CMMI Traçable IC dV AL® L’approche Capital immatériel Source : CIGREF IT-expert n°64 - novembre/décembre 2006 19 I IC-dVAL® permet le benchmarking et le benchlearning Se comparer est un processus d’apprentissage et d’amélioration continu. Le critère de comparaison peut être soit monétaire (benchmarking), soit appréciée vis-à-vis du regard des autres (benchlearning). Cette mise en place nécessite l’implication du DSI au moins aux étapes clés. La méthode étant « légère », elle ne nécessite qu’une faible charge de travail pouvant être étalée dans le temps à sa convenance. Conclusion Dans les deux cas, il est d’autant plus facilité qu’avec cette méthode, on dispose d’une structure de comparaison homogène grâce aux indicateurs et aux référentiels. I La mise en place de la méthode dans la DSI La mise en place n’exige pas de « ticket d’entrée » en termes d’outillage. Le seul vrai pré requis c’est « la volonté de tester une approche innovante » en sachant que la méthode puise au maximum dans les outils et les informations existantes. Ce qui reste nécessaire peut être construit en cours de route en respectant la culture de l’entreprise. Au sein des DSI, plusieurs démarches ont été entreprises ainsi que le modélise l’anneau central du schéma ci-après. Au centre de cet anneau nous retrouvons le capital immatériel. Il vient synthétiser, coordonner et donner un sens commun à ces différentes démarches, celui de la recherche de la performance et de la valeur de la DSI. Dans cette quête, le CIGREF suit particulièrement plusieurs domaines, accompagnés le plus souvent de publications et promeut plusieurs outils et référentiels qui convergent en un point : le capital immatériel. Gouvernance COBIT Enquête CIGREF McKinsey Connaissance des attentes de l'entreprise Politique d'audit Intelligence Economique Règles de gouvernance claires Une bonne idée des forces et faiblesses de son S.I. Des éléments de conduite et de mesures de qualité de service Processus de la DSI ITIL Connaissance du marché Capital Immatériel Une bonne compréhension des enjeux sociaux et du capital humain Volonté de tester une approche innovante Une analyse fine de ses structures de coûts Implication du DSI et ressource pour le projet Modèle de Benchmarking des coûts La réconciliation des points de vue Source : Inspirée de STIME, présentation CIGREF, septembre 2004 20 IT-expert n°64 - novembre/décembre 2006 Référentiel RH Evaluation Compétences Pendant longtemps la pratique du capital immatériel par les DSI relevait du domaine de l’intuition. Cette pratique dispose désormais d’outils dont l’un est la méthode IC-dVAL®. L’opérationnalisation de cette méthode répond aux attentes observées des praticiens du S.I. Bien que les résultats obtenus soient particulièrement probants, il reste encore du chemin à faire. Pour rendre cette méthode plus industrialisable, il serait nécessaire d’élargir le groupe pilote. L’élaboration d’un indicateur synthétique de la valeur des S.I. serait alors réalisée. Il pourrait être reconnu dans la sphère financière et contribuerait au processus d’amélioration continue des DSI. Il va sans dire que cet indice nécessite un référentiel normalisé que seul un groupe de praticiens assez étendu pourrait réaliser. Le CIGREF continue activement ses travaux portant sur l’opérationnalisation du capital immatériel. Il crée pour cela un « Cercle de l’Immatériel » avec pour objectif d’offrir un cadre de partage autour d’une approche opérationnelle. I Pour aller plus loin • Rapport CIGREF : Capital immatériel : 7 jours pour comprendre (2006) • Rapport CIGREF : DSI et capital immatériel : Maturité et mise en œuvre (2006), rédigé par Annick Kong. Rapports du CIGREF disponibles sur le site : www.cigref.fr, rubrique publications • Le contexte, le contenu et les fondements de la méthode IC-dVAL®, « Intellectual Capital dynamic Value », sont décrits dans le livre d’A. Bounfour et G. Epinette, « Valeur et performance des systèmes d’information, une approche nouvelle du Capital immatériel », Dunod, novembre 2006. • www.sveiby.com Renaud PHELIZON Directeur de Mission - CIGREF IT-expert n°64 - novembre/décembre 2006 21 LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE Pour compléter votre bibliothèque de référence technique, commandez vite les anciens numéros* d’IT-expert à tarif préférentiel ! IT-expert n°50 IT-expert n°52 IT-expert n°53 IT-expert n°56 IT-expert n°57 Novembre/décembre 2004 Janvier/février 2005 Juillet/août 2005 Septembre/Octobre 2005 DOSSIER : La gouvernance du système d’information • Le projet LDAP • Firefox votre prochain navigateur ? • JSF versus Webforms • Interview Intermarché • L’entreprise sous le feu de la guerre DOSSIER : La veille et ses outils • L’interopérabilité des systèmes d’informa- DOSSIER : Equiper les forces de terrain d’une solution mobile • La gestion des utilisateurs centralisée ou le DOSSIER : L’urbanisation des systèmes d’information • L’urbanisation suffit-elle à rationaliser le parc applicatif d’entreprise ? • La gestion de contenu • Interview Bouygues Télécom • Continuité d’activité : le choix des armes * Dans la limite des stocks disponibles de l’information tions : fantasme ou perspective ? • SQL Server 2005 • Les clés du succès en gestion des métadonnées • Interview SCOR • Consolidation de messagerie, dimensionnement du réseau : Le juste équilibre Juillet/août 2004 DOSSIER : La qualité peut-elle devenir un véritable outil économique ? • • • • La qualité dans les développements Java IBM DB2 « Stinger » Les points de fonctions Interview du Ministère des Affaires Etrangères • SQL Server 2000 : des outils d’administration et de télésurveillance provisioning • Les alternatives à la suite bureautique Microsoft • Les Tags RFID : révolution technologique ou cauchemar • Les solutions Linux IT-expert n°59 IT-expert n°60 IT-expert n°61 IT-expert n°62 Janvier/février 2006 Mars/avril 2006 Mai/juin 2006 Juillet/Août 2006 DOSSIER : Vers un standard pour le pilotage des coûts informatiques - Un levier de performance économique : AB C/ABM • Contrôle des développements externalisés DOSSIER : La qualité des applications développées en technologies objet • L’industrialisation des développements au & solutions de gouvernance • K9a : une nouvelle grille de lecture pour la conduite agile de projets de systèmes d’information • Interview de Jérôme Dupont, Directeur Conventions & Projets du GIP-MDS • La guerre des processeurs aura-t-elle lieu ? • Environnements de Développement Intégrés • Urbanisme des Systèmes d’Information versus DOSSIER : Optimiser innovations et transformations en gérant le portefeuille de projets et d’applications • Subversion : le grand départ ? • L’accessibilité numérique • Wi-Fi DOSSIER : Panorama sur les techniques Agiles • PHP5, une alternative à .NET et J2EE ? • Eclipse : le Big Bang Callisto • Test Driven Development • Interview d’Elisabeth Le Boité, Responsable secours des échecs projets Architecture d’Entreprise • Interview de Monsieur SAINT-ALME, Responsable NTIC chez AG2R • Contrôle d’accès au réseau Qualité et Système d’Information du SIB Syndicat Interhospitalier de Bretagne • Qui arrêtera Google ? Offre Spéciale Je souhaite acheter les numéros suivants Tarifs TTC (TVA : 5,5 %) 1 exemplaire : 8€ 5 exemplaires : 35€ IT-expert n° 51 Septembre/octobre 2004 DOSSIER : MDA : Model Driven Architecture ou architecture guidée par le modèle • Travail collaboratif et open source : des opportunités ? • Les évolutions récentes en ingénierie des modèles • CMMI - Capability Maturity Model Integration • Interview THALES • Nomadisme & sécurité Année 2004 N° 50 N° 51 N° 52 Année 2005 N° 53 N° 56 N° 57 N° 58 10 exemplaires : 60€ Autre quantité : Année 2006 N° 59 N° 60 N° 61 N° 62 N° 63 Pour commander les anciens numéros d’IT-expert, il vous suffit de nous renvoyer ce document à l’adresse suivante : IT-Expert 3, rue Marcel Allégot - 92190 Meudon - France Tel : +33 (0)1 46 90 21 21 - Fax : +33 (0)1 46 90 21 20 Adresse d’expédition & de facturation IT-expert n°58 Novembre/décembre 2005 DOSSIER : L’intégration de contenu, un problème bien réel • Les JavaServer Faces face à Struts • Sybase Adaptive Server Enterprise 15 • Interview de Nicolas Maquaire, Président de l’éditeur Français EntropySoft Zoom client SAINT-GOBAIN • Informatique et téléphonie : à quand la convergence ? Mme Mlle M. Nom Prénom Société Fonction Adresse CP Ville E-mail Tél Fax IT-expert n°63 Septembre/Octobre 2006 DOSSIER : La géolocalisation • Géolocalisation, les techniques alternatives • • • • au GPS Le positionnement par GPS Géolocalisation, tout n’est pas permis… Interview de Me Gérard HAAS, Docteur en droit Recyclage des e-déchets Chèque joint à l’ordre de Press & Communication France Règlement à réception de facture Date : Signature obligatoire : www.it-expertise.com www.it-expertise.com Et retrouvez de nouveaux services : • un moteur de recherche pour trouver les informations techniques qui vous intéressent • une nouvelle offre d’abonnement qui vous permet d’accéder aux anciens numéros d’IT-expert en format pdf • les livres blancs techniques d’éditeurs de logiciels, de SSII, de nos partenaires… dans une rubrique "téléchargements" ouverte à tous ! Et toujours des informations sur nos partenaires, sur les sommaires des numéros d’IT-expert http://www.it-expertise.com : un complément d’informations à la version papier que vous recevez tous les 2 mois ! LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE Actualités internationales Actualités internationales Quatre ans après avoir adopté une législation antispam, la Commission Européenne se penche à nouveau sur le sujet par l’intermédiaire de Viviane Reding, Commissaire à la société de l’information et aux médias. Considérant l’inertie des gouvernements, elle menace d’introduire de nouvelles mesures législatives plus contraignantes afin de diminuer le volume de courriel non sollicité qui atteindrait aujourd’hui 85 % en Europe. Plus de 22 % de ces courriels proviennent des Etats-Unis, loin devant la Chine avec 13 %. La France avec 6 % est le troisième émetteur de courriels non sollicités à destination de l’Europe, à égalité avec la Corée du Sud. Pourtant, les solutions semblent exister, si l’on en juge par les résultats obtenus par la Hollande (85 % de réduction du volume de ces courriels) ou celui de la Finlande où les courriels non sollicités ne représentent plus aujourd’hui que 30 % du volume, contre 80 % il y a deux ans. Une étude menée aux Etats-Unis vient par ailleurs de mettre en évidence la montée en puissance des spams à base d’images. Cette technique qui ne représentait que 5 % des courriels non sollicités l’an dernier atteindrait aujourd’hui 25 % des 61 milliards de courriels quotidiens qu’ils représentaient en octobre de cette année. Les courriels en question sont par ailleurs beaucoup plus difficilement détectables par les logiciels de protection, lesquels se basent souvent en grande partie sur le contenu textuel des textes qu’ils filtrent. Un bogue critique du navigateur Firefox permet de déclencher l’envoi des informations de connexion (identité de connexion et mot de passe) lorsqu’un utilisateur visite une page web compromise. Le bogue a d’ores et déjà été exploité dans le cadre d’une attaque contre les utilisateurs de MySpace, l’un des plus gros sites communautaires existant. Une rumeur de plus en plus insistante prête à Apple l’intention de lancer un « iPhone ». Selon un journal taïwanais, qui ne précise pas ses sources, le constructeur aurait d’ores et déjà commandé 12 millions de ces appareils auprès d’un manufacturier par ailleurs déjà fournisseur d’iPod. Le lancement de ce nouvel appareil qui combinerait téléphonie mobile et lecteur de musique serait prévu pour le premier semestre de l’année prochaine. Certes, il cannibaliserait certaines des ventes du iPod, mais il mettrait de sérieux bâtons dans les roues des opérateurs de téléphonie mobile qui lorgnent sur le gâteau de la musique téléchargeable et sont de plus en plus nombreux à proposer des téléchargements. Un expert en sécurité allemand a jeté le trouble lors d’un salon à Munich en faisant la démonstration de ce qui pourrait constituer un vecteur d’attaque de très grande ampleur auprès des détenteurs de téléphones mobiles. Constatant que les opérateurs de téléphonie utilisent régulièrement des SMS techniques pour modifier le comportement des téléphones mobiles sans intervention de leurs utilisateurs, il s’est penché sur la technique utilisé et en a conclu que les téléphones ne vérifient pas l’origine des messages en question. En utilisant des SMS techniques contrefaits, il est parvenu dans un second temps à modifier le comportement d’un Siemens C45, d’un Nokia E90 et d’un QTek Windows Mobile 2005. Il deviendrait ainsi possible de récupérer à distance la liste des contacts d’un utilisateur, de se mettre en copie carbone de l’ensemble des SMS qu’il reçoit ou envoie… voire d’être inclus automatiquement en tant que participant passif (écoute uniquement) de toutes communications à laquelle il participerait. Les opérateurs téléphoniques interrogés à ce sujet par plusieurs médias restent aujourd’hui muets, arguant de la nécessité d’étudier plus en détail les affirmations en question. Il est vrai qu’en l’absence de détails sur les mécanismes exacts employés, il est difficile d’être certains que les téléphones employés durant la démonstration n’ont pas été « préparés », ce qui rendrait alors l’attaque beaucoup moins faisable. D’un autre côté, le refus des opérateurs de commenter leur stratégie pour prévenir une telle attaque, malgré qu’ils assurent en posséder une ne lasse pas d’inquiéter. IT-expert n°64 - novembre/décembre 2006 25 Actualités internationales Mi-novembre, Sun s’est enfin résolu à placer dans le domaine du logiciel libre les plates-formes Java SE (Small Edition) et ME (Micro Edition). La véritable surprise n’était pas tant dans cette annonce que dans le choix de la licence retenue pour ce faire : la GPLv2 ou GNU Public License dans sa version 2. Voilà qui tranche avec les habitudes de Sun qui jusqu’ici utilisait une licence « maison ». Accessoirement, les 6 millions de lignes de code du seul Java SE suffisent à faire de Sun le plus gros contributeur de tous les temps des logiciels placés en source libre. A moyen terme se pose la question de savoir si Sun est prêt à utiliser la GPL pour certains de ses logiciels déjà dans le domaine public, au premier rang desquels OpenSolaris. Les dirigeants de Sun disent étudier la question de très près. L’opération « ordinateur portable à 100$ » s’est vue rebaptiser « One Laptop Per Child » – faute de parvenir à atteindre l’objectif de coût unitaire. Fondée par Nicholas Negroponte, cofondateur et président du laboratoire des médias du MIT, l’opération vise à proposer un ordinateur portable robuste et durable, dont le prix puisse permettre aux gouvernements de pays en voie de développement d’équiper leurs enfants. Les machines sont dotées de 126 Mo de RAM et de 512 Mo de mémoire flash, les ordinateurs disposent d’une connexion WiFi et reposent sur un système d’exploitation Linux. Elles seront fabriquées par le Taïwanais Quanta Computer. Un premier lot d’une dizaine de machines a été livré au Brésil pour évaluation. Les serveurs qui les accompagnent seront quant à eux construits au Brésil. 900 autres portables devraient être fabriqués pour le début de l’année prochaine et destinées aux développeurs qui créeront des applications pour ces portables. Outre le Brésil, l’Argentine, la Libye, le Nigeria et la Thaïlande ont exprimé leur intérêt pour cette machine et envisagent d’en doter leur jeunesse. De son côté, AMD, l’un des partenaires de OLPC a annoncé qu’il mettait un terme à son ordinateur d’entrée de gamme qui visait précisément les pays émergeant. Vendu à 250 dollars, les ventes de la machine n’ont jamais vraiment décollé et de nombreux retours étaient enregistrés. Avec 16 millions de dollars de pertes opérationnelles sur les 9 premiers mois de l’année, AMD a donc décidé de jeter l’éponge sur ce front. 26 IT-expert n°64 - novembre/décembre 2006 Vendue au prix de 499 ou 599 dollars dans le commerce, en fonction du modèle, la console de jeu Play Station 3 s’affichait sur le site d’enchère eBay au tarif moyen de 1 186 dollars durant les 15 jours qui ont suivi sa mise sur le marché et qui ont vu 14 675 ventes de cet objet. Depuis, les prix en ligne ont chuté et s’établissent entre 700 et 900 dollars. La Wii, console concurrente de Nintendo a, pour sa part, engendré 26 708 ventes au tarif moyen de 413 dollars sur la même période alors que son prix public conseillé est de 250 dollars. Microsoft a décidé de proposer une licence gratuite de la toute nouvelle interface utilisateur RibbonX d’Office 2007 aux développeurs qui souhaitent créer des applications dont l’apparence soit similaire à ceux de la suite bureautique de l’éditeur. La licence porte sur le design et les fonctionnalités de l’interface et est accompagnée d’une documentation proposant des lignes de conduite pour son utilisation. Microsoft estime à plusieurs centaines de millions de dollars les dépenses qu’elle a consenties sur cette interface qui constitue de l’avis général l’aspect le plus novateur d’Office 2007. Plusieurs écoles britanniques ont décidé de démanteler tout ou partie de leurs réseaux WiFi, en réponse aux inquiétudes de groupes de parents d’élève, inquiet des possibles répercussions que pourraient avoir sur la santé de leurs enfants les émissions des bornes. Actualités internationales Les analystes du Gartner Group se sont penchés sur la consommation électrique des gros centres de données. Leurs conclusions sont plutôt pessimistes. Ils constatent notamment que là où un rack consommait 2 kWh il y a quatre ans, le même rack, équipé de lames (blades) consomme aujourd’hui de 15 à 30 kWh. A ceci, il convient évidemment d’ajouter de 120 % à 130 % d’énergie supplémentaire pour assurer la ventilation et le refroidissement de la salle. Malheureusement les technologies de refroidissement par circulation d’air dans le sol atteignent leurs limites, tant du fait de l’accroissement de la consommation des machines que de la réduction de leur encombrement et donc d’une plus grande densité de matériel qui nuit à l’écoulement de l’air. Les conclusions de l’étude anticipent une hausse importante de la part de l’énergie électrique dans le budget des départements informatiques, qui pourrait ainsi passer des 10 % actuels à 20 % ou 30 % à moyen terme si rien n’est fait. La version du Google Web Toolkit 1.2 disponible depuis minovembre supporte enfin le développement et le déboguage à partir d’un Mac d’applications utilisant les technologies Ajax. Elle répond en cela à une demande pressante de la part des La Citybank de Singapour propose désormais à ses clients un nouveau moyen de paiement aux détenteurs de cartes de crédit platine dont la cible privilégiée est les 25 – 34 ans. Désormais, les détenteurs de ces cartes pourront payer en utilisant simplement leurs empreintes digitales. Que cette première voie le jour dans un pays dont les 4,5 millions d’habitants sont réputés friands de technologie et où les émetteurs de cartes utilisent des techniques marketing agressives n’est bien entendu pas un hasard. L’ensemble du monde bancaire, en particulier dans la région, devrait suivre l’expérience avec beaucoup d’intérêt. Apple met à disposition en téléchargement plusieurs mises à jour du firmware de ses machines à base de processeurs Intel. Les correctifs pallient à plusieurs problèmes de démarrage ou de réveil après une mise en veille. D’autres téléchargements permettent de créer un CD bootable permettant la restauration du firmware des machines à base d’Intel en cas d’échec durant la mise à jour de celui-ci. développeurs. La boîte à outils a par ailleurs subi des améliorations dans le domaine de la rapidité. Les principaux acteurs de l’internet étaient réunis à Londres à la mi-novembre à l’occasion de l’annonce par « Groupe 3 » du lancement d’un forfait pour l’accès au web à partir de téléphones mobiles. Tous ont fait part de leurs difficultés à accéder à ce marché aujourd’hui verrouillé par les opérateurs de téléphonie qui restreignent les accès aux seuls services proposés sur leur propre portail. Les timides ouvertures de ces derniers mois n’ont pas suffit à séduire les utilisateurs qui, faute de transparence, craignent de voir grimper leur facture dès lors qu’ils accèdent à des contenus en dehors de ces fameux portails. L’offre de « Groupe 3 » constitue donc une nouveauté, bien que les tarifs n’en soient pas encore connus et que certains services très consommateurs de bande passante tels que la vidéo ne seront pas inclus dans le forfait de base. L’originalité de l’offre tient dans la commercialisation de téléphones équipés de logiciels tels que Skype et MSN Messenger par exemple qui sont des compétiteurs directs des offres des opérateurs téléphoniques. Avec Windows Vista, Microsoft renforce son système anti-piratage. La nouvelle version du système d’exploitation est équipée de la technologie Software Protection Platform qui requière l’activation du système d’exploitation au moyen d’une clé logicielle dans les 30 jours qui suivent sa mise en service. Le système vérifie en outre la légitimité de la clé utilisée. Passé ce délai, les fonctionnalités se dégradent. Ainsi au bout d’une heure d’utilisation du web, l’utilisateur est automatiquement déconnecté. La technologie SPP devrait à terme être ajoutée au programme Office Guenine Advantage qui permet le téléchargement des mises à jour logicielles de la suite Office. IT-expert n°64 - novembre/décembre 2006 27 Quoi de neuf Docteur ? Windows Vista : le nouveau système d’exploitation de Microsoft La sortie de Windows XP fut une révolution, une nouvelle ère pour les entreprises ; une nouvelle expérience pour les utilisateurs. Le 22 juillet 2005 Microsoft annonça officiellement le nom de son nouveau système d’exploitation : Windows Vista, connu sous le nom de code Longhorn. La première version bêta de Windows Vista est parue en juillet 2005, la deuxième en mai 2006. Après plusieurs retours d’utilisateurs et d’entreprises utilisatrices des versions Release Candidate 1 et Release Candidate 2, la version définitive de Windows Vista (RTM) a été publiée en novembre 2006. 28 IT-expert n°64 - novembre/décembre 2006 Comparer les différentes versions de Windows Vista Windows Vista, c’est : Comme les autres versions de Windows 2000 et XP, le nouveau système d’exploitation se décline en plusieurs versions s’adaptant aux différents besoins. Il existe 5 versions Windows Vista : • Home Basic : Version principalement destinée aux utilisateurs grand public. • Home Premium : Destinée aux utilisateurs avancés et exigeants, cette version contient tous les composants de Home Basic, et intègre la fameuse interface graphique AERO. Interface alliant effets de transparence des fenêtres et effets 3D. Windows Vista Home Premium donne la possibilité de transformer une station de travail en un véritable centre multimédia avec Media Center. Les usagers de Tablet PC pourront également utiliser cette version pour bénéficier de tous les apports de Windows Vista. • Business : Dédiée à l’entreprise, Vista Business inclut toutes les fonctionnalités de la version Home Basic. Les stations Business pourront intégrer un domaine Active Directory et ainsi bénéficier de la puissance d’administration et de sécurité ; notamment les Group Policy Objects. • Enterprise : Destinée aux infrastructures complexes, Vista Enterprise réduit le coût et la difficulté d’un déploiement d’un parc PC en entreprise. Cette version propose plusieurs outils comme un sous-système pour gérer les applications basées sur UNIX (SUA), un module de chiffrement de données (BitLocker) et la prise en charge de plusieurs langues (pack MUI). • Ultimate : La version Ultimate est la plus complète. Cette version est destinée aux personnes expérimentées souhaitant profiter de l’intégralité des fonctions proposées par Windows Vista Home Premium et Enterprise. Maîtriser le déploiement et la migration Pour faciliter le déploiement de Windows Vista ainsi que la nouvelle suite bureautique Office 2007, Microsoft a conçu Microsoft Solution Accelerator for Business Desktop Deployment nommé plus communément BDD. Ce framework est un guide qui permet d’établir un planning de tests et de déploiement en fonction de l’infrastructure. VERSIONS PUBLIC • 10 000 personnes au travail pendant 5 années • un budget de recherche de 5 milliards d’euros • 68 millions de lignes de code • 800 applications testées chez 150 éditeurs • 1,4 milliard de dollars de CA prévisionnel pour l’industrie des PC sur les 2 ans à venir dans le monde • 500 millions de nouvelles acquisitions de PC sur les 2 ans à venir dans le monde • un créateur d’1 million d’emplois direct ou indirect pour 2007/2008 en Europe (dont 25 000 en France pour 2007) • une retombée économique estimée en France à 14 euros pour 1 euro investit Une migration basée sur BDD est conçue pour privilégier l’automatisation et minimiser l’intervention humaine. Ce procédé permet une transparence pour les utilisateurs et leur éviter toute gêne tout en assurant la sécurité et l’intégrité des données lors du déploiement. Pour les entreprises utilisant le produit de gestion de parc SMS, le modèle Zero Touch peut être utilisé ; et pour les entreprises ne l’utilisant pas le modèle Lite Touche sera l’alternative. Le déploiement massif de Windows Vista est simplifié par des outils permettant de maîtriser la création et la distribution des images. Avec ces nouveaux outils, Windows Vista donne les moyens à une infrastructure de standardiser la migration de son parc, même dans un environnement complexe et sensible à la gestion du changement, tout comme un SI composé de stations de travail disparates réparties sur plusieurs régions linguistiques. FONCTIONNALITES Home Basic Grand Public Windows mail, moteur de recherche, galerie photos, Internet Explorer 7, Windows Defender Home Premium Grand public Business Entreprise Interface graphique Aero, Media Center, support Tablet PC, création DVD Interface graphique Aero, support Tablet PC, gestion de sauvegarde complète du PC, intégration à un domaine active directory, encryptions de fichiers (EFS), gestion de fax Enterprise Entreprise Interaction avec le monde Unix (SUA), licence native pour 4 systèmes virtuels, cryptage de volume (Bitlocker) Ultimate Tout public Version comprenant tous les composants, ultimate = enterprise + home premium IT-expert n°64 - novembre/décembre 2006 29 Deux questions cruciales se poseront lors du choix de la migration : - « Avons-nous les stations de travail adéquat pour la migration ? » - « Nos applications internes et tierce partie sont-elles compatibles avec ce système d’exploitation ? » En effet, la bibliothèque gargantuesque de pilotes de périphériques proposée en natif ne veut pas tacitement dire que tous les périphériques seront supportés. Bon nombre d’entreprises ne possèdent pas encore les stations de travail pour accueillir le nouveau système d’exploitation et offrir une satisfaction minimale ou optimale aux utilisateurs finaux. Il s’agit là du premier frein à la migration d’un parc vers Windows Vista, les entreprises devront avoir un parc composé de machines récentes et puissantes pour obtenir les meilleures performances et s’affranchir de mauvaises surprises lors d’une migration. Figure 1 : Infrastructure BDD Au cœur de la stratégie de migration, faisant partie intégrante du framework BDD, Windows PE version 2.0 est un utilitaire bootable qui permettra d’accompagner les équipes IT de manière efficace dans leur déploiement, installation, dépannage et restauration sur l’ensemble d’une infrastructure. Les images sont construites à partir d’un nouveau format nommé Windows Imaging Format (WIM), ce dernier s’adresse à toutes les plates formes PC avec des configurations différentes, et fait abstraction du langage via le composant MUI (Multilingual User Interface). WIM permet de créer une image unique à déployer, et bénéficie d’attributs comme la compression, l’installation par partitions disques et reste ouvert aux personnalisations des développeurs et éditeurs via l’API WIMGAPI. Notons que le déploiement par image peut être adapté à une migration de type mise à jour, sans altérations des données et éviter l’installation complète avec une réinitialisation de la partition hébergeant le système. Cela permettra de migrer vers Windows Vista de manière plus transparente pour les utilisateurs finaux. WinPE, quant à lui sera un bon allié pour les équipes en charge du déploiement. Cet outil remis à jour pour cette mouture permet de diminuer considérablement le temps de préparation des images et d’accélérer le processus d’installation sur un parc informatique. Par exemple, l’injection des pilotes de périphériques dans une image (slipstream) ou bien encore, le dépannage des stations de travail lorsque celles-ci ne démarrent pas correctement, se fait via le biais de WinPE. Ces différentes méthodologies de déploiement et de migration nécessiteront des études approfondies et une expertise technique pointue dans le cadre d’architectures complexes. De nombreuses entreprises attendent que le nouvel OS « fasse ses preuves », d’autres viennent à peine de passer au service pack 2 de Windows XP ; mais la plus grande inquiétude reste la compatibilité du matériel et des applications. 30 IT-expert n°64 - novembre/décembre 2006 Windows Vista nécessitera une mise à jour des parcs informatiques entraînant un coût financier non négligeable. Les stations devront au minimum posséder 1Go de RAM, des processeurs de dernières générations et des cartes graphiques puissantes pour pouvoir exploiter convenablement le système, voilà qui devrait relancer en partie la croissance de l’industrie des PC, et donner lieu à des discussions en comités de pilotage. D’un point de vue logiciel, Microsoft met à disposition un kit de compatibilité permettant de tester la supportabilité des applications sur son nouvel OS. Ce toolkit est nommé Application Compatibility Tool, il permet aux entreprises de tester leurs applications et de voir si ces dernières supportent la mise à jour ou régressent. Notons que certains éditeurs n’ont pas encore mis à jour leurs produits phare, à titre d’exemple l’éditeur Symantec avec Norton Antivirus, ou encore certain logiciels Cisco ou Trend Micro qui supporteront Windows Vista à partir de la fin du mois de janvier, date de la sortie grand public, ou citons encore la migration impossible pour les parcs utilisant Lotus Notes, ce dernier n’étant pas encore compatible. IBM a prévu la compatibilité avec la sortie de la version 8 courant 2007. Rappelons tout de même que Windows Vista a été testé sur 800 applications réparties sur 150 éditeurs. La sécurité au cœur de Windows Vista Depuis 1992, Microsoft s’oriente vers une politique de sécurité dédiée à l’informatique de confiance. C’est dans cette optique que la firme de Redmond a accentué cette initiative sur l’ensemble de sa gamme produit ; aussi bien en développement qu’en infrastructure. Windows Vista a été développé en respectant ce modèle d’informatique de confiance, basé sur SDL (Security Development Lifecycle), cette nouvelle version a suivi un processus permettant de sécuriser le code et ainsi réduire la surface d’attaque. Le besoin en sécurité est omniprésent sur les 7 couches du modèle OSI ; de la couche application à la couche physique en passant par la couche réseau. Pour rappel, le concept d’informatique de confiance (Trustworthy Computing) repose sur quatre piliers : fiabilité, sécurité, confidentialité et intégrité. Avant Windows Vista, certaines opérations nécessitaient l’utilisation de comptes ayant des droits utilisateurs avec des privilèges élevés, ce qui exposait le SI à un risque potentiel dans le cas où les processus d’exploitation n’étaient pas maîtrisés. Doté de nombreux outils de sécurité, Windows Vista permettra de mettre en œuvre une politique de sécurité en adéquation avec les besoins utilisateurs et les exigences de l’infrastructure mais toutes les versions de Windows Vista ne comprennent pas ces outils. • Centre de sécurité : intégré depuis le service pack 2 de Windows XP, il permet de centraliser l’ensemble des composants liés à la sécurité du système. Microsoft met à disposition des autres éditeurs la possibilité d’intégrer les attributs d’un logiciel tierce partie dans le centre de sécurité et ainsi respecter le concept de l’administration centralisée. • Windows Defender : délivre une protection intelligente en temps réel contre les logiciels espions (dit spyware, malware), et en fonction de la criticité des alertes relevées Defender exécutera une action en conséquence pour assurer la disponibilité et garantir la stabilité du système. • Contrôle d’accès utilisateur (dit UAC) : Sécurisé par défaut, toutes les ouvertures de session ne se font pas avec un compte administrateur, ce qui réduit l’accès et la modification de composants critiques. Le contrôle d’accès utilisateur (UAC) permet d’exécuter des applications en mode restreint. Par conséquent l’installation de logiciels et la modification de paramètre système par des utilisateurs n’ayant pas la capacité ou les droits d’effectuer ces tâches se verront refuser leur action. • Internet Explorer 7 : La menace Internet est grandissante, d’année en année les techniques les plus ingénieuses et complexes ont envahies la toile à grande vitesse, la navigation Internet professionnelle ou personnelle est devenue une habitude quotidienne prise par les utilisateurs. La navigation banalisée non protégée représente un danger potentiel entre les données privées et l’extérieur. En vue de tous ces éléments, le nouveau navigateur Internet Explorer 7 offres une protection dynamique qui s’adapte au fur et à mesure de la navigation. Par exemple, la détection de phishing, la définition de zones de sécurité Internet, la gestion des ActiveX ou encore la gestion des cookies sont intégrées en natif dans IE7 ; tout en améliorant l’ergonomie pour les utilisateurs en intégrant la navigation par onglet, et la gestion de flux RSS en natif. Figure 2 : Centre de sécurité Figure 4 : Internet Explorer 7 Figure 3 : Windows Defender • Bitlocker : Cet outil interdit l’accès aux données stockées sur un disque monté physiquement sur un autre PC ou outils de piratage, type boot-CD. Le vol de données et l’espionnage industriel sont des facteurs de risques a intégrés au cycle de vie d’un système d’information et Bitlocker permet de lever certaines interrogations en terme de protection des données et de garantie contre le vol et la corruption. A terme, la solution de protection basée sur le matériel, nommé TPM, sera utilisée à plus grande échelle et étendra les fonctionnalités de Bitlocker. Les construc- IT-expert n°64 - novembre/décembre 2006 31 teurs de matériels sont en cours d’études et Windows Vista est déjà compatible avec la technologie TPM. • Gestion des périphériques amovibles : Malgré les campagnes de sensibilisation concernant les périphériques amovibles, certains utilisateurs ne mesurent pas le risque de cette utilisation. Certaines entreprises ont fait le choix d’interdire l’utilisation de clé USB ou disques dur externe, car la sensibilité et la protection des données étaient remises en cause. En effet, certains employés pouvaient s’emparer de documents et les diffuser à l’extérieur volontairement ou non. Pour limiter la fuite d’informations et l’ajout de fichiers non contrôlés sur le réseau via ce biais, les administrateurs système pourront opter pour une stratégie de groupe qui permettra d’interdire l’utilisation de périphériques amovibles sur les stations Windows Vista. • Right Management Services : Windows Vista inclut un composant de contrôle de droits d’identité numérique qui permet d’ajuster la politique de sécurité en matière de documents publiés et partagés. Catégoriser et rechercher les données IDC, groupe dédié à l’analyse de l’intelligence marketing, a estimé que les entreprises perdaient plus de 14000$ en productivité par an et par collaborateur à cause de la recherche d’information sur les postes clients ou sur le réseau. La qualité d’un système d’exploitation se juge sur plusieurs critères, notamment la navigation et la recherche des données. Un système permettant un accès rapide et simple aux données recherchées répond aux critères de satisfactions des utilisateurs influant la productivité et permettant de faire des économies considérables à une entreprise. Cette nouvelle version de Windows intègre une gestion intelligente, habile, intuitive et efficace des données sur les disques et partages en réseau. • Nouvelle interface : L’explorateur Windows Vista est composé de plusieurs panneaux. L’un d’entre eux permet de pré visualiser le document, sous réserve d’avoir le logiciel de lecture associé à l’extension du fichier. Une barre située en haut de la fenêtre permet de trier les fichiers en fonction de critères établis : type de document, taille, date ou autres. En bas de la fenêtre a été également ajoutée une barre d’information sur le fichier ou le répertoire sélectionné. • Aero : Avec des effets de transparence et de 3D, Aero procure une navigation à la fois rapide et très intuitive. La nouvelle interface de Windows permet aux utilisateurs d’avoir une ergonomie optimisée et un accès aux outils et divertissements plus rapidement. • Prévisualisation des fichiers : L’explorateur intègre une barre d’informations en bas de la fenêtre qui change en fonction du type de fichier sélectionné, image, texte, multimédia, ou autre. 32 IT-expert n°64 - novembre/décembre 2006 Figure 5 : interface Aero Voici les informations renseignées : - La taille du fichier - Les auteurs - La date de modification - Le titre - La catégorie - L’audience - Les commentaires - Une prévisualisation du fichier en miniature • Le volet Windows : Le panneau Windows est un nouveau composant présent sur le bureau, et regroupe une suite d’information. Il permet de visualiser d’un coup d’œil différentes données, telles que le cours d’une action boursière, un flux RSS, des notes ou encore la météo. Le volet Windows peut-être personnalisé, il est possible d’ajouter et/ou de supprimer des gadgets (nom donné aux composants du volet Windows). Microsoft met à disposition des développeurs un SDK (kit de développement) permettant de créer des gadgets, dans un contexte d’entreprise. On peut alors imaginer la création d’un gadget permettant de diffuser des informations d’entreprise à travers ces nouveaux composants, sans forcément occasionner une gêne pour l’utilisateur. • Recherche rapide : Une barre de recherche intégrée à Windows permet de retrouver rapidement des fichiers en fonction d’un mot-clé et cela dans les différents emplacements de stockage, en fonction du paramétrage d’indexation mis en place. • Indexation des documents en réseau : Windows Vista met à disposition des utilisateurs un nouvel outil de recherche permettant de retrouver très rapidement des documents sur un réseau. A travers un processus d’indexation, il est possible de faire des recherches sur un autre PC ou serveur connecté au réseau, ou encore sur des ressources réseau en mode déconnecté. Notons la disparition de WinFS dans les fonctionnalités de recherche de Windows Vista. Basé sur un moteur SQL, présenté comme une extension du système de fichier NTFS, WINFS aurait permis de localiser et de catégoriser n’importe quelle donnée sur un disque et quelque soit sa nature (mail, photo, document…), en fonction de son contenu et en se basant sur les métadonnées du fichier et sans tenir compte de l’emplacement. La notion d’arborescence devient obsolète, une interface centralisée aurait permis de faire des recherches directes sur les disques pour trouver les ressources correspondantes aux critères de recherche en se basant sur des algorithmes et requêtes complexes. Ce projet était cher à Bill Gates, qui annonça cette nouvelle innovation pour faire face à la recrudescence du nombre de données hébergées sur les stations de travail et accroître la productivité des utilisateurs. Malheureusement, ce projet ambitieux est officiellement arrêté fin juin 2006, et ne sera pas intégré à Windows Vista. Notons que cet arrêt n’est pas vraiment définitif, une version est toujours en cours de développement et sera proposée séparément sous forme de mise à jour vraisemblablement en 2008 pour Windows Vista, et fera partie intégrante de la prochaine version de SQL serveur et ADO. Windows Vista : la mobilité facile Ces cinq dernières années, différents instituts de statistiques et sondages ont montré une recrudescence de l’utilisation des ordinateurs. Aux Etats-Unis, les ordinateurs portables sont en phase de dépasser le pourcentage d’ordinateurs de bureau. D’après le Gartner la productivité des employés est plus efficace sur un PC portable. On observe une augmentation moyenne du temps de travail de l’ordre de trois heures par semaine pour les utilisateurs mobiles. l’ordinateur portable est en mode veille ou éteint. • Gestion de cache : Windows Client Side Caching permettra de faire des économies de bandes passantes sur le réseau et améliorera la vitesse d’exécution des tâches réseau ; via ce biais et dans la mesure du possible le contenu de l’information est téléchargé sur le PC et ensuite mis en cache en temps réel. • Nouvelle gestion de la batterie : La gestion de batterie dans Windows Vista se base sur les informations matérielles et paramètres système. Par défaut Windows Vista propose 3 modes de gestion d’alimentation, l’un où la performance est mise en avant, un autre où l’économie d’énergie est prioritaire et le dernier mode où le système équilibre économie de batterie et performance. Accessible depuis le mobility center, la gestion d’énergie est paramétrable simplement. • Hibernation et mise en veille : Avec Windows XP, le mode veille et hibernation qui consistait à mettre en mémoire l’état d’un système pour un redémarrage plus rapide, présentait des imperfections. Les développeurs ont amélioré cette gestion qui permet aux utilisateurs de sauvegarder l’état d’une session en mémoire. Notons que dans le cas où le niveau de batterie est faible les documents seront sauvegardés sur le disque dur pour économiser la batterie. • Tablet PC : De nouvelles fonctionnalités ont été ajoutées au mode Tablet PC. Par exemple des outils comme le Snipping tool permet de capturer des parties de l’écran actuellement affiché, la précision du stylet et des sélections sont améliorées, Internet Explorer intègre des spécificités d’ergonomie de navigation avec le stylet. Environnement natif .NET 3.0 Devant l’explosion du mobile, Microsoft a aligné son nouveau produit Windows Vista vers une logique du « connecté partout depuis n’importe quel périphérique ». Les nouveaux outils dédiés à la mobilité permettront d’avoir une facilité d’accès aux données. Outils relatifs à la mobilité intégrés à Windows Vista : • Centre de mobilité : Les principaux composants liés à la mobilité sont accessibles depuis un point central, nommé Centre de mobilité. Ce centre permet d’ajuster les paramètres et les performances en fonction de l’environnement où l’on se trouve. Plus besoin d’ajuster les options de mobilités à travers plusieurs rubriques du panneau de configuration, car tous ces éléments sont à présent accessibles rapidement dans cette console. • Centre de synchronisation : La prolifération des appareils mobiles prête parfois confusion au niveau de la gestion des versions des documents et informations avec les PC. Pour palier à cette problématique, Windows Vista intègre un point central de gestion de synchronisation des informations. • Sideshow : Cet outil permet d’accéder à plusieurs fonctionnalités d’un ordinateur portable depuis un autre appareil mobile. Ainsi il est possible de déporter plusieurs fonctionnalités telles que l’affichage d’une boîte mail ou d’une vidéo à distance sur un PDA ou smartphone, et cela même quand Connu sous le nom de code WINFX, Windows Vista intègre nativement la nouvelle génération du framework, la version 3.0. Cette nouvelle version est basée sur la CRL 2.0, et ne remet pas en cause la programmation managée connue et largement utilisée par des millions de développeurs. Cette évolution donne plus de « puissance » aux développeurs à travers les nouvelles API qui se déclinent en 4 couches : WPF, WCF, WF, WCS. Ces éléments permettent de délivrer des solutions de développement plus rapidement, via des milliers de lignes de code étant déjà concaténées dans des simples appels de fonction. Les développeurs pourront délivrer directement des applications sur des postes Windows Vista sans avoir à déployer un package .NET Framework pour exécuter l’application dans le bon contexte. Par exemple, demain vous pourrez imaginer une application .NET 3.0 développée en interne servant à suivre en temps réel des stocks, et déployer cette application sur l’ensemble de votre parc. Elle sera développée plus rapidement, testée et déployée sur les postes clients via distribution de package GPO (composant régissant différentes règles sur l’ensemble de votre annuaire Active Directory), et les clients seront prêts à travailler avec la nouvelle application. IT-expert n°64 - novembre/décembre 2006 33 Conclusion C’est sans aucun doute le produit logiciel le plus attendu pour cette année 2007 et avant tout le système d’exploitation le plus abouti réalisé par Microsoft, leader mondial du logiciel. Qu’il soit adulé ou critiqué, Windows Vista ne peut pas laisser indifférent lorsque l’on sait que ses prédécesseurs représentent 95,8 % des systèmes d’exploitation des stations de travail PC dans le monde. Figure 6 : Schéma Framework .NET 3.0 • Windows Presentation Foundation : est un composant qui permet d’enrichir le contenu des applications, en y incorporant des interfaces graphiques « intelligentes », des objets 3D, de la vidéo, du son et autre contenus riches. Basé sur le format XAML (Extensible Application Markup Language) qui est une des évolutions du format XML, les développeurs pourront faire interagir plusieurs flux d’applications entre elles. • Windows Cardspace : Cette nouvelle technologie s’aligne sur la politique d’informatique de confiance, et la notion de sécurisation des applicatifs par défaut. En effet, Cardspace permet d’implémenter dès la conception d’une application la gestion des identités. Basée sur la cryptographie avancée, cette couche devient un complément ou un remplaçant dans le processus d’identification classique (type nom d’utilisateur/mot de passe) pour les applications web. Les architectes pourront concevoir un système d’information en maitrisant les interactions d’authentification et d’identification de bout en bout. • Windows Communication Foundation : Parce qu’un système d’information complexe est généralement composé de flux hétérogène, Microsoft a intégré une couche de communication puissante qui permettra par le biais de web services ou protocoles propriétaire Microsoft d’échanger des flux entre différentes entités disparates. • Windows Workflow Foundation : nom de code Avalon, la dernière couche .NET 3.0 que nous vous présentons apporte plus de flexibilité aux architectures basées sur des workflows. La masse d’informations traitée au quotidien par une entreprise devient de plus en plus abondante. Dans le but d’harmoniser et de contrôler ces flux, les serveurs d’entreprises de type Biztalk ont été créés. Afin de gérer les workflows sequential ou state machine (respectivement automatisé ou humain), Microsoft a positionné au cœur même du système Windows Vista un moteur de workflow qui sera capable d’interagir avec d’autres entités et moteurs. Associés au trio Visual Studio 2005, Sharepoint Services et Office 2007, les architectes bénéficient d’un socle de fonctionnalités puissant, sécurisé et adaptés aux besoins de systèmes complexes et hétérogènes. Les particuliers seront en premier lieu déstabilisés par la nouvelle interface et auront besoin d’un temps d’adaptation pour retrouver leurs repères et fonctionnalités de base, car il s’est écoulé 5 années entre Windows XP et Vista. Les utilisateurs avancés devront quant à eux s’armer de patience, lire, visionner des webcasts, interroger dans des forums avant d’être opérationnels à 100 % sur leur nouvelle mouture. La rapidité du démarrage système ou de l’exécution des programmes, l’organisation des fichiers, la recherche de données, la navigation Internet ou encore la protection intégrée et automatisée du système permettront une productivité de travail améliorée. Windows Vista s’apprête à bouleverser les habitudes de millions d’usagers dans le monde et leur offrir une nouvelle expérience mieux adaptée à leur besoin en terme de gestion de contenus riches (multimédia, web 2.0) tout en assurant une protection contre les dangers de la toile avec le contrôle parental et la gestion des logiciels malveillants et virus. Tout de même, gare au fonctionnement en mode dégradé sur les PC d’anciennes générations… L’expérience pourrait tourner court et être frustrante. L’adoption de Windows Vista dans le monde professionnel apporte des axes d’amélioration pour diminuer le TCO. D’après le CIGREF, les grands comptes n’envisagent pas de migrer vers Windows Vista avant 2008. Malgré de nombreux avantages, des zones d’ombres restent en vue, notamment la grille des tarifs à établir en fonction des besoins de versions, du volume de licence à acquérir et du type de contrat signé avec Microsoft (Software Assurance ou non ?). Dans les mois à venir, les DSI, responsables, ingénieurs, techniciens et autres acteurs du marché seront à l’écoute des retours des premières entreprises qui auront fait le pas vers Vista… I Sammy Popotte Technical Account Manager chez Microsoft France [email protected] 34 IT-expert n°64 - novembre/décembre 2006 IT-expert, soudain tout est clair… IT-expert, la référence technique des professionnels de l’informatique Bimestriel de conseil et d’expertise technique, IT-expert vous offre l’information essentielle pour vous former et décider. LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE www.it-expertise.com Pour tous renseignements : IT-expert - 3, rue Marcel Allégot - 92190 MEUDON - FRANCE Tél. : +33 (0)1 46 90 21 21 - e-mail : [email protected] Abonnez-vous à IT-expert Je m’abonne 1 an au bimestriel IT-expert. Je recevrai 6 numéros pour 89 € TTC Je m’abonne 1 an à IT-expert version papier + accès au pdf en ligne* pour 120 € TTC Mme Mlle M. Nom Prénom Société Fonction Adresse CP Ville E-mail Bon d’abonnement à faxer au +33 (0)1 46 90 21 20 ou renvoyer au Service Abonnements 3, rue Marcel Allégot 92190 Meudon France Tél Fax Chèque joint à l’ordre de Press & Communication France Règlement à réception de facture LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE * Vous recevez dès sa parution un exemplaire d’IT-expert par la poste à l’adresse de votre choix et vous aurez accès à l’ensemble des anciens numéros d’IT-expert en version PDF sur le site web d’IT-expert : http://www.it-expertise.com 11/12/06 Date : Signature obligatoire : Comment ça marche ? LES CURSEURS SOUS SQL SERVER Eviter les curseurs, oui mais… « N’utilisez pas les curseurs, ils ne sont pas performants » est une phrase qui revient souvent dans la bouche des DBA. Certes, une grande partie des traitements de boucle est remplaçable par des traitements ensemblistes, d’autant plus que le moteur relationnel est optimisé pour ce type de tâche. Notons au passage que parmi les « templates » de code T-SQL fournis avec SQL Server Management Studio, l’outil de développement et d’administration fourni avec SQL Server 2005, les curseurs ne figurent plus dans la liste. Cependant, il est parfois nécessaire d’exécuter un traitement pour chaque ligne d’un résultat, comme définir une concaténation de caractères, lancer un traitement spécifique… Comment éviter donc l’usage du curseur ? Méthodes alternatives à l’utilisation des curseurs Il existe de nombreuses techniques alternatives à l’utilisation des curseurs dont chacune s’adapte généralement plus dans un contexte précis. Explorons trois de ces techniques. La première consiste à utiliser une requête avec paramètre, la deuxième à utiliser une variable de type table avec une boucle While et la troisième à faire appel à définir une procédure stockée en .NET. IT-expert n°64 - novembre/décembre 2006 37 Requête avec paramètre Un besoin qui fréquemment est de pouvoir concaténer le résultat des champs d’une requête. Le principe est d’empiler les résultats d’un SELECT dans une variable. Prenons un exemple sur la table HumanResources.Department de la base exemple de SQL Server 2005, AdventureWorks. Concaténons le nom des départements. USE AdventureWorks DECLARE @DptName varchar(max); SET @DptName = ''; select @DptName= @DptName + COALESCE(Name +',','') from HumanResources.Department; IF @DptName IS NOT NULL SET @DptName = SUBSTRING(@DptName,1,LEN(@DptName)-1) SELECT @DptName La fonction COALESCE permet de traiter le cas des valeurs nulles. Variable table avec une boucle While Le principe est d’utiliser une variable de type table, de l’alimenter et boucler en fonction du nombre de lignes insérées, information obtenue grâce à la variable globale @@ROWCOUNT. A la différence de la première technique, celle-ci permet d’effectuer un traitement pour chaque ligne recherchée. Sur ce principe recompilons chaque procédure de notre base à l’aide du code suivant : SET NOCOUNT ON DECLARE @rows int, @j int; DECLARE @schemaName nvarchar(128); DECLARE @name nvarchar(128); DECLARE @procName nvarchar(128); DECLARE @procTable TABLE(pk int IDENTITY (1, 1),schema_name nvarchar(128) , name nvarchar(128)); INSERT INTO @procTable SELECT schema_name(schema_id),name FROM sys.objects WHERE type in ('P','U','V') and name not in('sp_helpdiagrams','sp_creatediagram','sp_alterdiagram', 'sp_dropdiagram', 'sp_renamediagram', 'sp_upgraddiagrams','sp_helpdiagramdefinition') SET @rows = @@ROWCOUNT; SET @j = 1; WHILE @j<= @rows BEGIN SELECT @schemaName = schema_name, @name = name FROM @procTable WHERE pk = @j; SET @procName = @schemaName +'.'+@name EXECUTE sp_recompile @procName SET @j = @j + 1; END; La liste des procédures de la base est obtenue en interrogeant la vue système de SQL Server 2005 sys.objects. Pour les versions ultérieures, il faudra utiliser la vue sysobjects. Une colonne de type IDENTITY a été définie sur notre variable table afin de pouvoir effectuer le traitement défini sur chaque élément de notre résultat. Procédure en C# L’apport de la CLR dans SQL Server donne une très grande richesse pour certains traitements la manipulation de caractères ou des calculs mathématiques qui sont moins efficaces en T-SQL et surtout plus fastidieux à écrire. Regardons à travers l’exemple ci-dessous le fonctionnement d’une procédure en C#. La manière de coder une procédure en .NET est très proche de celle employée dans ADO.NET. Les différences notables sont surtout au niveau de l’objet « connection » et de l’objet « SqlPipe » permet de définir le « resultset » à renvoyer au client. 38 IT-expert n°64 - novembre/décembre 2006 L’instruction ("context connection=true")) précise que la connexion utilisée est celle de SQL Server. Dans cet exemple, l’objet SqlPipe renvoie une chaîne de caractères mais nous pouvons aussi renvoyer un enregistrement ou une table. Notons tout de même à propos de cette nouvelle fonctionnalité que les manipulations d’ensembles seront toujours plus performantes à l’aide des instructions T-SQL. using using using using System.Data; System.Data.SqlClient; System.Transactions; Microsoft.SqlServer.Server; public partial class StoredProcedures { [Microsoft.SqlServer.Server.SqlProcedure()] public static void SampleSP(int rating) { using (SqlConnection conn = new SqlConnection("context connection=true")) { conn.Open(); string rsResult; SqlCommand cmd = new SqlCommand( "SELECT VendorID, AccountNumber, Name FROM Purchasing.Vendor " + "WHERE CreditRating <= @rating", conn); cmd.Parameters.AddWithValue("@rating", rating); SqlDataReader r = cmd.ExecuteReader(); while (r.Read()) { // effectue des traitements dans la boucle } SqlContext.Pipe.Send(rsResult); } } } A propos des performances Connaissez-vous la règle des 80-20 ? Elle consiste à optimiser 20 pourcent des traitements les plus coûteux pour améliorer 80 pourcent des performances du serveur. Chaque base de données possède ses spécificités. Ainsi, même deux bases ayant la même structure et des volumétries identiques peuvent avoir des performances différentes. En conclusion, ne vous jetez pas sur la réécriture de tous vos curseurs et passez, au contraire, davantage de temps sur vos traitements coûteux en ressources, d’autant que, parfois, le curseur sera plus performant que d’autres techniques… SQL Server nous fournit plusieurs d’outils de monitoring tels que le profiler, le perfmon, les instructions SET STATISTICS IO, SET STATISTICS TIME… REFERENCES T-SQL Coding standards : http://msdn.microsoft.com/library/default.asp?url=/library/ en-us/dnsqlpro04/html/sp04l9.asp Best SQL Server Performance Tuning Tips : http://www.sql-serverperformance.com/best_sql_server_performance_tips.asp Cursor performance : http://www.sqlteam.com/item.asp?ItemID=5761 Managed Data Access Inside SQL Server with ADO.NET and SQLCLR http://msdn.microsoft.com/library/default.asp?url=/library/ en-us/dnsql90/html/mandataaccess.asp Laurent BANON Consultant expert SQL Server Chez Microsoft Consulting Services [email protected] IT-expert n°64 - novembre/décembre 2006 39 Fenêtre sur cour Interview de Madame Seigneur, Directeur Informatique du Conseil Général de Vendée Le Conseil Général de Vendée, avec un territoire de 6 720 km habité par plus de 540 000 Vendéens a souhaité en 2003, mettre en œuvre le plan « 100 % haut débit », qui devait permettre à l’ensemble de ses habitants et aux entreprises d’avoir accès à des services de haut-débit. Plusieurs technologies ont été utilisées : l’ADSL, le CPL et aussi WiMax. Dans le cadre de notre article consacré à WiMax, nous avons eu le plaisir d’interviewer Madame Seigneur, Directeur Informatique du Conseil Général de Vendée à ce sujet. 40 Pourriez-vous nous présenter le service informatique et l’environnement technique dans lequel vous travaillez ? Pourriez-vous nous présenter et nous expliquer les enjeux du plan 100 % haut débit du Conseil Général de Vendée ? Françoise Seigneur : Nous avons actuellement 26 agents et 3 recrutements sont prévus dans l’année. Notre environnement technique comprend un parc informatique de 1 400 postes de travail pour une trentaine de serveurs en environnement UNIX, LINUX et Windows 2000 et 2003 avec un premier pas vers la « virtualisation » en 2007. Nous avons 80 sites en tout dont une soixantaine en réseau, connectés soit par fibre optique, soit par ADSL ou SDSL soit en Wimax. L’essentiel de nos bases de données est sous ORACLE. Notre intranet est en environnement LINUX/JAVA. Cet intranet devient le portail d’entrée pour tous les outils de travail informatiques des utilisateurs (messagerie OWA, agenda, annuaire, organigramme, information interne, notes de service, applications métiers web, réservations de salles, de véhicules et de matériels, demande d’assistance…). Enfin nous avons un SIG en cours de construction sur la base de MAPINFO. Françoise Seigneur : Début 2003, la situation de la Vendée était similaire à celle de tous les territoires faiblement urbanisés, seulement neuf villes ayant accès à des services de haut-débit de type ADSL, de nombreux ménages et entreprises ne pouvant pas en bénéficier alors qu’ils en exprimaient le besoin. Les objectifs poursuivis par le plan haut débit voté par l’Assemblée départementale en juin 2003 étaient les suivants : IT-expert n°64 - novembre/décembre 2006 • disposer d’offres de services haut débit sur la totalité du territoire départemental ; • disposer d’offres de services adaptées aux besoins des ménages et du monde économique ; • introduire la concurrence, par la diversité des opérateurs et des technologies, pour faire baisser les coûts et enrichir la gamme des services proposés. Ces objectifs devaient être réalisés dans des délais rapides et au meilleur coût pour la collectivité. Les objectifs posés par la collectivité départementale, rejoignant ceux exprimés par les ménages et le monde économique, l’ont donc été en terme de services à offrir, et non pas d’infrastructures à créer. Les résultats obtenus sont les suivants : • équipement de l’ensemble des centraux téléphoniques en ADSL dès septembre 2005, et la résorption de 36 zones d’ombre, • installation de 20 stations WiMax en 2004 et 2005, • dégroupage en 2005 du chef-lieu du département, la Rochesur-Yon, et de 6 communes de la couronne yonnaise. Concernant votre projet Wimax, pourquoi le choix de cette technologie plutôt que de l’ADSL ou du CPL par exemple ? Françoise Seigneur : Ce choix a été fait à l’issue d’un appel d’offres qui a mis en concurrence ces différentes technologies. Le Wimax nous a été présenté comme étant la meilleure en termes de rapport qualité (performance) prix. Il est vrai que le prix a été un élément assez déterminant par rapport à l’élément technique car nous n’avions encore jamais expérimenté les liaisons de type « hertzien » pour du transport de données informatiques. Rappelons cependant que nous utilisons également l’ADSL et le CPL pour certains sites inéligibles au Wimax. Pourriez-vous nous expliquer la mise en œuvre de votre projet et son déploiement ? Françoise Seigneur : Après quelques coupures intempestives, nos inquiétudes initiales sont maintenant effacées puisque le réseau fonctionne bien et les coupures sont devenues rares et souvent indépendantes de l’opérateur (météorologie très mauvaise ou obstacle dû au relief). Nous apprécions en outre particulièrement la souplesse et la rapidité d’installation de nouvelles liaisons ainsi que la disponibilité de l’opérateur en cas de dysfonctionnement. Est-ce que la mise en place d’une communication entre le SI central et les sites distants n’implique pas un degré de sécurité supplémentaire ? Françoise Seigneur : D’une part nous sommes dans un Intranet (voire Extranet) « privé » donc dissocié de l’Internet, d’autre part nous disposons d’une sécurité interne de haut niveau qui fonctionne pour toutes les entrées/sorties de notre réseau. Mais il est vrai que nous devons en permanence maintenir un niveau de sécurisation de plus en plus « vigilant », donc ajuster constamment nos éléments actifs de contrôle. l’ouverture vers le citoyen des procédures de demandes de prestations départementales telles que les transports scolaires ou l’aide sociale… Un autre projet concerne l’ouverture de notre système d’information géographique à usage interne pour les services de la collectivité puis progressivement sur le Web pour nos partenaires extérieurs et l’usager. Un autre concerne l’évolution d’une informatique de « gestion » vers une informatique de « pilotage » grâce à la mise en place d’un système décisionnel et d’une solution de suivi des projets internes. Enfin nous souhaitons une montée en puissance du mouvement de migration de nos applications métiers en environnement Web pour les rendre accessibles depuis notre Intranet et notre site Internet et par l’ensemble de nos sites extérieurs. Vous constaterez que la majorité de ces projets est « tournée » vers les NTIC et l’ouverture vers l’extérieur grâce aux moyens de transport informatiques que nous avons mis en place, dont le Wimax. Le débit de ce mode de transport étant limité, nous nous devons d’adapter nos outils de travail internes aux limites de cette technologie. Quels sont les pré-requis pour la mise en œuvre de cette technologie ? Françoise Seigneur : Il faut vérifier que les usages qui en seront faits seront bien compatibles avec cette technologie, en particulier en raison des limites et de l’irrégularité de son débit ; vérifier que les sites à raccorder sont bien « joignables » en « aérien ». Quels sont, d’après vous, les principaux avantages et inconvénients de Wimax ? Françoise Seigneur : L’avantage essentiel de WiMax réside dans sa souplesse et sa rapidité d’installation. De plus, il nous permet de créer un contact avec nos sites distants les plus éloignés et isolés du Département. Les services concernés qui sont essentiellement des services sociaux et culturels ont beaucoup apprécié de se trouver ainsi intégrés au réseau de communication interne. Ils bénéficient de l’Intranet et des applications métiers qui les concernent. Le seul petit souci est lié au mode de communication lui-même : par définition « aérien », il reste très sensible aux obstacles physiques : relief, construction ou végétation faisant écran. I Quels sont vos projets à moyen et long terme ? Françoise Seigneur : Nous avons 4 grands projets en cours. Un projet sur la dématérialisation de nos échanges internes et externes d’informations et de documents. Nous souhaitons par exemple informatiser notre circuit de validation des rapports et délibérations du Département ; la transmission électronique de nos actes administratifs vers la Paierie départementale et la CRC ; Madame SEIGNEUR Directeur informatique du Conseil Général de Vendée IT-expert n°64 - novembre/décembre 2006 41 Livres Clear Blogging: How People Blogging Are Changing the World and How You Can Join Them Clear Blogging Par Bob Walsh 300 pages 25,90 euros ISBN: 1-59059-691-9 Editions Apress Après quelques années de vie et d’expansion ininterrompue, la blogosphère est aujourd’hui devenue un phénomène à part entière dont le caractère éphémère n’est plus à craindre puisqu’une trentaine de millions de bloggers sont aujourd’hui actifs à travers le monde. Cet ouvrage qui s’adresse précisément à ces écrivains réguliers et à ceux qui envisagent de le devenir devrait donc connaître un franc succès. L’auteur, ancien journaliste, reconverti dans l’informatique et blogger averti y détaille le phénomène, les bénéfices que l’on peut en attendre, les pièges à éviter et les moyens à se donner pour faire de son blog le prochain média influent. Basé sur de nombreux entretiens avec des bloggers influents, cet excellent ouvrage brille en outre par l’absence de tout jargon technique. Design Patterns en Ajax L’utilisation des techniques Ajax pour le développement d’une application Web n’en est encore qu’à ses débuts et il est difficile de savoir s’il s’agit d’un effet de mode ou d’une démarche qui perdurera. Toujours est-il que la souplesse promise ne saurait être obtenue sans appliquer des recettes éprouvées. Cet ouvrage tente précisément d’en proposer quand bien même il n’y parvient pas toujours de manière convaincante. En revanche on lui reconnaîtra le mérite de ne pas se contenter d’énoncer des fonctionnalités et de préférer mettre en perspective la réutilisation de certaines techniques de programmation et l’ergonomie de l’interface. Design Patterns en Ajax Par Michael Mahemoff 682 pages 48 euros ISBN : 2-84177-397-3 Editions O’Reilly IT-expert n°64 - novembre/décembre 2006 43 CONFÉRENCE ORGANISÉE PAR Mardi 13 mars 2007 de 9 à 17 h 30 Espace Charles Louis Havas, Neuilly-sur-Seine avec le soutien de 4e édition Outsourcing 2007 ( THÈMES ABORDÉS Partenaires Presse Externalisation et qualité de service, les conditions du succès Externalisation : les conditions de la réussite SLA, conduite du changement, aspects juridiques. Externalisation et certification : Engagement des partenaires dans un modèle d'amélioration continue. L'évolution des modèles d'externalisation Gestion documentaire et solutions d'impression : gisement de qualité, productivité ? Gestion des Ressources Humaines demain. Externalisation des Télécoms : tendances et perspectives. La réponse de l'offshore Modèles d'externalisation réussie et retours d'expérience POUR PLUS D'INFORMATIONS Plate-forme d'information et d'échange entre utilisateurs, experts du marché, analystes et journalistes au travers de : http://www.idc.com/france/events/outsourcing07.jsp L’analyse IDC Témoignages utilisateurs et études de cas concrets Vision des grands acteurs du marché Débats et rencontres autour de tables rondes Exposition spécialisée Contact : IDC France Valérie Rolland Tél. : 01 55 39 61 24 [email protected] COUPON D’INSCRIPTION OUTSOURCING 2007 - 13 mars 2007 - A retourner par fax au 01 55 39 61 20 ou par courrier avant le 6 février 2007, dans la limite des places disponibles Mme Mlle M Participera Nom : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Prénom : . . . . . . . . . . . . . . . . . . . . . . . . . . . . Secteur d’activité Banque, Assurance, Finance Industrie Transports, Energie, Immobilier Fonction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Adresse : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . CP : . . . . . . . . . . . . . . . . . . . . . . . Ville : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Tél. : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fax : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Email : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Secteur Public NTIC Autres Commerce, Distribution Services 10-99 5 000-10 000 100-499 Plus de 10 000 Nombre d’employés Moins de 10 500-4 999 124 Bureaux de la Colline • 92213 Saint-Cloud Cedex Tél. : 01 55 39 61 00 • Fax : 01 55 39 61 20 • w w w.idc.com/france Archipels Société : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Rubrique à brac Wimax Que faire lorsque le xDSL n’est pas disponible pour le raccordement à Internet ? En effet, ces technologies, tant pratiques soient-elles, sont basées sur le raccordement téléphonique existant. Le problème réside dans la distance de raccordement : 5400 mètres au maximum en utilisant le LDSL (aussi appelé Re-ADSL). Bien que cette offre présente des débits faibles et sans garantie, il est donc difficilement exploitable en entreprise, bien que certains ne soient pas éligibles du fait de l’éloignement des centraux téléphoniques. Il ne reste alors qu’à se tourner vers des offres satellites onéreuses, peu généreuses en bande passante ou lentes telles que le RNIS, ou encore par modem analogique dans le pire des cas. Wimax se faufile dans ce cas de figure et permet un accès haut débit dans des zones reculées et ce, sans fil. Le Wimax serait donc la réponse tant attendue depuis des années ? Zoom sur cette technologie prometteuse… Wimax signifie « Worldwide Interoperability for Microwave Access ». Il s’agit d’une technologie sans fil utilisant en France ce qu’on appelle la Boucle Locale Radio (BLR). Cette dernière, fait référence à la « boucle locale » que l’on retrouve avec le xDSL, qui désigne le dernier tronçon entre les équipements de raccordement (NRA et DSLAMS) et l’utilisateur final par le biais des installations téléphoniques existantes. Historiquement, cette Boucle Locale Radio était utilisée pour donner accès à haut débit à l’utilisateur final qui ne peut y avoir accès par d’autres moyens et ce, sans fil. Il s’agit tout particulièrement des zones qui sont géographiquement difficiles à câbler. Si plusieurs essais concluants ont été faits, notamment avec le WADSL (Wireless Asymetric Digital Subscriber Line) en Ardèche, c’est lors de l’annonce de Wimax que l’intérêt de la BLR redore tout son intérêt. En effet, Wimax utilise nativement (entre autre) la bande de fréquence de 3,5GHz que l’ARCEP (l’ex ART) a autorisé à utiliser en France ainsi que celle des 26GHz concédée par l’armée. Mais celui-ci possède de nombreux autres avantages pour se distinguer des autres technologies, filaire ou non. Wimax permet notamment une reprise des équipements BLR existants et une adaptation aisée (le Wimax utilise une très large bande de fréquence de fonctionnement). Il permet également des débits plus importants et garantis, des portées plus conséquentes, des possibilités de mobilité, triple et quadruple play… Nous y reviendrons un peu plus tard pour nous pencher d’abord sur les acteurs du Wimax. IT-expert n°64 - novembre/décembre 2006 45 Les licences Wimax La réglementation sur l’exploitation du Wimax est plutôt stricte : il est indispensable de posséder des licences. En France, il n’y a pas de plages de fréquences libres. Les plages de fréquences de 3,5 et 26 Ghz sont ainsi soumises à licences. Celles-ci sont distribuées à un nombre limité par régions ou au niveau national. Historiquement, ce sont les licences abandonnées de la BLR qui sont partagées aujourd’hui et d’autres qui seront distribués au compte-gouttes. Seules deux licences sont autorisées au niveau régional et on note de deux à dix fois supérieures le nombre de demandes. L’Île de France a ainsi recueilli dix-sept demandes, seize pour l’Aquitaine, et quinze pour le Rhône-Alpes. A contrario, le Limousin ou la Champagne Ardenne compte moins de dix demandes. Notons que l’engouement est pourtant très présent. Enfin, huit sociétés vont se partager les licences au niveau national : France Télécom, SFR- Neuf Telecom (SHD), Bolloré, Free (par le biais des licences d’altitude telecom)… Le verdict des candidatures devrait tomber avant le premier février de cette année. A noter que la répartition des licences se fera en fonction de trois critères : la contribution au développement territorial des services à haut-débit, l’aptitude du projet à favoriser la concurrence sur le haut-débit, et le montant de la redevance que le candidat est prêt à payer dès l’attribution. S’ajoute à cela une taxe de dix mille ou quatre-vingt mille euros par an en fonction du capital de l’opérateur. Ligne T1 pour entreprises Accès DSL Autres types díaccès Ligne T1 pour PME SECTEURS 3 2 Hotspots 4 5 Accès 802.16 (Wimax) 1 Réseau de transport (backbone) Réseau de collecte réseau privé par fibre Ligne de retour (backhaul) Exemple de mélange de technologies Wimax : Le forum Le Wimax Forum est en effet l’auteur du Wimax et les normes IEEE 802.16 le normalisent. Ces normes, nombreuses, permettent d’assurer d’abord un standard mais également de dicter l’évolution du Wimax. Attention, car originellement 802.16 définissait la famille des « Wireless MAN » et a été repris pour être appelé Wimax, notamment par ses créateurs, ceux du Wimax forum. Par abus de langage et de facilité, le 802.16 a été renommé communément Wimax, tel le Wi-Fi avec 802.11. Le forum est constitué d’industriels soucieux de vouloir harmoniser les technologies MAN sans fil. Voici un extrait du forum : « Le Wimax Forum est la seule organisation apportant conformité et interopérabilité à l’industrie du haut-débit sans fil. Le Wimax Forum intègre également des tests de matériels et des programmes de certification [ndlr : que n’apporte pas IEEE] : le label Wimax Forum Certified ». 46 IT-expert n°64 - novembre/décembre 2006 Standard Description IEEE 802.16-2001 Définit des réseaux metropolitains (MAN) utilisant Publié Statut 08/04/2002 obsolète 15/01/2003 obsolète 01/04/2003 obsolète 01/10/2004 actif 17/03/2004 actif des fréquences supérieures à 10 GHz (et jusquíà 66GHZ) IEEE 802.16c-2002 Définit les options possibles pour les réseaux utilisant les fréquences entre 10 et 66 GHz IEEE 802.16a-2003 Amendement au standard 802.16 pour les fréquences entre 2 et 11 GHz IEEE 802.16-2004 Actualisation des standards de base 802.16, 802.16a et 802.16c IEEE 802.16.2 Interopérabilité entre toutes les solutions 802.16 IEEE P802.16e Mobilité (jusqu’à 60 km/h). - En cours IEEE P802.16f Meshed Network - En cours Ce label permet d’identifier les matériels qui sont (seront) compatibles 100 % Wimax. Intel et Motorola se sont d’ailleurs mis conjointement d’accord pour développer leurs puces. Celles-ci seront disponibles dès le début 2007. Mais ce ne sont pas les seules entreprises derrières le forum : Nokia, Nortel, Cisco, Alcatel, AT&T, Broadcom, France Telecom, Singtel…, près de 400 professionnels animent le Wimax forum, à plus ou moins grandes échelles et permettent de rendre ce projet viable. Ce projet de haut-débit sans fil vous paraît peutêtre trop théorique, inconcevable ou peut-être même mort-né (qui se souvient du WADSL après tout ?). Et pourtant Wimax existe bel et bien, en témoignent les déploiements qui ont commencé en Ile-de-France : l’Essonne, les Yvelines, la Seine-et-Marne et le Val d’Oise se voient desservies par la société SHD (Société du Haut Débit – groupe SFR/Neuf-Cegetel) en Wimax. Comme quoi les zones mal desservies ne sont pas forcément celles que l’on croie, puisque l’accès au haut-débit n’est pas identique pour tous, même en région parisienne – proche couronne. Un bel espoir pour les zones isolées car le Wimax répond à un besoin réel où les offres ne sont pas vraiment légions. Les tests effectués dans le pays des Vals de Saintonge ont démontré que la technologie Wimax est viable : 160 postes raccordés pendant dix mois et jusqu’à vingt kilomètres de distance entre station de base et récepteurs CPE (Customer Premise Equipment – ce sont les « modems » Wimax). Les résultats ont été très satisfaisants, même s’il en ressort qu’il est essentiel d’étudier la nature du terrain et de déployer le matériel le plus adapté à celui-ci. Wimax : pour quelques kilomètres de plus Comme nous l’avons vu, le très gros avantage du Wimax est la possibilité de déploiement sans fil de l’internet à haut-débit, dans des conditions inadaptées aux technologies classiques et sur de longues distances. Les coûts de déploiement sont aussi réduits : la mise en place d’antenne coûte moins cher et prend beaucoup moins de temps à mettre en place qu’une liaison par fibre optique. On parle de moins de dix milles euros pour une station de base et d’environ quatre cents euros pour les récepteurs CPE. Nous arrivons au cœur du sujet : quelles sont les performances offertes par le Wimax ? Tout d’abord, il est possible d’utiliser des débits de 70 Mbit/s sur une distance de 50 kilomètres (diamétralement opposés). Il est important de préciser que ce sont des données dans des conditions idéales et qu’il faut donc relativiser. Sachez tout d’abord que le Wimax est capable de traverser de petits obstacles comme les maisons et les voitures et qu’il n’est donc pas essentiel d’avoir une ligne de vue directe entre CPE et station de base (ou entre stations de bases). Deux modes opératoires sont donc possibles au sein des bandes de bases : IT-expert n°64 - novembre/décembre 2006 47 • LOS : Line Of Sight - Ligne de vue directe – utilisation des plages de fréquences 2 à 11 Ghz (3,5 Ghz en France) • NLOS : Non-Line Of Sight – Ligne de vue indirecte – utilisation des plages de fréquences de 11 à 66 Ghz (26 Ghz en France) Environnement Taille de la cellule Débit par secteur díantenne Urbain intérieur (NLOS) 1 km 21 Mbit/s (canaux de 10 MHz) Rurbain intérieur (NLOS) 2,5 km 22 Mbit/s (canaux de 10 MHz) Rurbain extérieur (LOS) 7 km 22 Mbit/s (canaux de 10 MHz) Rural intérieur (NLOS) 5,1 km 4,5 Mbit/s (canaux de 3,5 MHz) Rural extérieur (LOS) 15 km 4,5 Mbit/s (canaux de 3,5 MHz) Ce sont les équipements eux-mêmes qui sont configurés pour être utilisé en LOS ou NLOS. Le but est de l’adapter au mieux en fonction de l’environnement. LOS pour un milieu urbain par exemple et NLOS entre stations de bases (backhaul) en rase campagne. Ligne de retour (backhaul) Internet Station de base (BTS) Exemple d’utilisation pour un particulier Dans la pratique, on peut espérer environ 12 Mbits/s sur une distance de 20 kilomètres (diamétralement opposés). C’est notamment grâce à la technique de multiplexage par répartition de fréquences orthogonales (OFDM) que ce tour de force et possible : il devient alors envisageable possible de communiquer à travers des obstacles et ainsi d’implémenter une architecture urbaine, plus adaptée. Le deuxième gros intérêt est de pouvoir installer soi-même son CPE (les équipements d’intérieurs sont donc envisageables) sans avoir à faire appel à une société pour l’installation d’une antenne sur le toit. A propos de l’utilisateur final, celui-ci est en droit de se demander quelle sera la bande passante mise à disposition. Il faut d’abord préciser que chaque antenne Wimax est divisée en sous parties appelées secteur. Chaque secteur met à disposition un débit maximum, qui est défini par l’environnement (LOS, NLOS, nature des obstacles, etc.). Ensuite, la bande passante de chaque secteur est partagée entre utilisateurs. Il faut donc garder à l’esprit que plus le nombre d’utilisateurs relié sur une antenne est important, plus le débit sera faible pour chacun. Une solution serait d’utiliser des réseaux maillés… 48 IT-expert n°64 - novembre/décembre 2006 Mais Wimax ne s’arrête pas là. D’autres spécifications sont en effet en cours de validation dont notamment les réseaux maillés (meshed network), comme on peut en trouver avec le Wi-Fi, mais surtout la mobilité. Ces deux points ne sont pas anodins, puisqu’ils définissent d’une part l’internet haut débit mobile mais, d’autre part, le remplacement du GSM et des technologies connexes que sont le GPRS – UMTS/EDGE pour la partie données. Son nom est Wimax Mobile. Non seulement Wimax intègre des mécanismes de QOS (Quality Of Services) nativement, mais propose des débits plus rapides. Voici le quadruple play proposé par le Wimax forum : données, voix, vidéo et téléphonie mobile. Peut-être que cette nouvelle technologie permettrait-elle de décanter les prix d’un marché stagnant. En tous cas, c’est un nouvel exemple très encourageant de la convergence données/voix-vidéo qui s’amorce. Wimax : le putsch de l’internet ? Wimax a été défini pour être ouvert aux autres technologies sans fil. Notons d’abord qu’il n’est pas le remplaçant ni le concurrent de l’xDSL bien que des offres SDSL à débits plus importants soient proposées. Il n’est pas non plus le concurrent du Wi-Fi, au contraire. Originellement, le Wimax occupait la plage des 10-66 Ghz et permettait l’utilisation en champs libre (LOS). Par la suite, le Wimax forum s’est intéressé à la plage des 2-11 Ghz, notamment pour l’interopérabilité avec les équipements fonctionnant dans cet espace de fréquence… dont le Wi-Fi ! L’inter-opérabilité est ainsi possible avec le Wi-Fi. Prenons pour exemple les Etats-Unis qui utilisent la plage des 2,4 Ghz : elle très proche de celle du Wimax utilisé là-bas. Le Wimax pourrait devenir ainsi l’extension du Wi-Fi. Celui-ci décrit l’utilisation d’un LAN alors que Wimax est celui d’un MAN. On ne peut pas comparer quelques dizaines ou centaines de mètres à quelques kilomètres, bien sûr. Un autre exemple de l’ouverture de Wimax : Wibro (« WIreless BROadband ») qui, bien que bénéficiant également de la norme IEEE 802.16 « E », se place en concurrent direct. Cet effort de la part du Wimax forum permet d’envisager une compatibilité avec cette technologie d’origine Coréenne et de celles à venir. Il est amusant de constater que le Wimax soit en même temps celui qui a su redonner de l’intérêt à la BLR et qu’il soit le plus ouvert aux concurrents. Wimax : quid de la sécurité ? Voilà un point très sensible. Quid de la sécurité ? Wimax s’appuie sur les protocoles triples DES ou AES pour l’encryption. L’authentification s’appuie sur PKM-EAP et TLS. Si ces protocoles sont connus comme « sûr », il ne faut pas perdre de vue que la communication radio est interceptable. C’est notamment sur les aspects sécurité que le Wi-Fi s’est fait épingler (WEP, pour ne pas le citer). La donne est différente, puisque le « point d’accès » est mis à disposition par l’opérateur et non par un particulier. Une étude sérieuse de Josh Wright (Aruba) a mis en avant des trous de sécurités du Wimax. Il indique que le Wimax est sensible aux attaques suivantes : • Insertion de stations intruse • Attaques en déni de service • Attaques par « l’homme du milieu » • Modification réseau par le biais de trames spoofées (802.16e ne prend pas en compte le chiffrement des trames de gestion) L’attaque par « l’homme du milieu » est une technique visant à intercepter, modifier, et ré-expédier les données sans qu’on ne doute de la présence d’un tiers. Cette technique nécessite néanmoins, en Wimax, d’être exactement dans la ligne de mire entre le CPE et la station de base. Ce qui laisse suggérer des séances d’acrobaties hasardeuses aux hackers… L’hypothèse la plus probable concerne plutôt l’insertion de stations intruses. En général, les professionnels dont l’utilisation du Wimax est soumise à licence sont assez peu bavards sur les mécanismes de protection de leur réseau ce qui [en théorie] limite les tentatives. IT-expert n°64 - novembre/décembre 2006 49 Conclusion Le Wimax comble un trou qui existe depuis des années. L’accès au haut-débit n’est pas homogène et ce, même en région parisienne. L’intérêt est multiple : le haut-débit sans fil est le premier avantage remarquable mais le Wimax apporte également son lot d’innovations. Le quadruple play et ses mécanismes associés permettent d’envisager un début très prometteur. Son engouement de la part des régions et son support de la part des industriels du Wimax forum laisse présager une solution pérenne et non un effet de mode. Si le Wimax est victime de certaines faiblesses de sécurité, misons que tout sera fait pour combler ces brèches comme il a été fait avec le Wi-Fi. De gros efforts de la part du Forum démontrent un souci de vouloir bien faire et d’aller dans le bon sens. On peut citer notamment l’interopérabilité. De gros espoirs sont posés sur le Wimax. Si celui-ci tient toutes ses promesses, une vraie solution, pour les professionnels ou non, est enfin arrivée. Peut-être assisterons-nous également à un décantement des régions saturées au profit de celles qui sont désertées par ce manque de moyens. I Quelques liens utiles Le Wimax http://www.wimax-fr.com/ http://www.le-blog-wimax.com/la_technologie_wimax/ http://www.futura-sciences.com/comprendre/d/dossier524-4.php http://fr.wikipedia.org/wiki/Wimax http://en.wikipedia.org/wiki/IEEE_802.16 http://www.francetelecom.com/sirius/rd/fr/ddm/fr/technologies/ddm200406/techfiche1.php http://www.itrnews.com/article.php?oid=33587&usermail= %3Cuser_name %3E http://www.01net.com/editorial/273692/boucle-locale-radio/en-attendant-wimax…/ http://www.vnunet.fr/fr/vnunet/news/2005/12/12/wimax-mobile-norme-ieee-80216e http://www.zdnet.fr/entreprise/service-informatique/poste-client/0,50007192,39202212,00.htm http://www.journaldunet.com/0602/060228-paysvalsaintonge.shtml A propos des licences Wimax http://www.journaldunet.com/0601/060116wimax.shtml Sécurité Wimax http://www.tech-faq.com/lang/fr/wimax-security.shtml http://www.reseaux-telecoms.net/actualites/lire-securite-wimax-devrait-mieux-faire-15040.html http://www.fing.org/jsp/fiche_actualite.jsp?STNAV=&RUBNAV=&CODE=1122045397706&LANGUE=0&RH=TECRES La BLR http://solutions.journaldunet.com/0111/011102_faqblr.shtml WADSL http://tic.aquitaine.fr/Presentation-des-technologies,148.html#sommaire_10 http://www.art-telecom.fr/index.php?id=36 http://www.inforoutes-ardeche.fr/portail/iportail/249/index.html Alcatel parle du Wimax http://video.google.com/videoplay?docid=-7396662295690084683&q=Charbax Le quadruple play http://solutions.journaldunet.com/0505/050511_faq_quadruple_play.shtml Vincent TESSIER Administrateur réseaux & systèmes 50 IT-expert n°64 - novembre/décembre 2006 Comment faire face à l’explosion de vos flux d’informations ? Pour concevoir et réaliser vos projets : Exposition et Conférences 7 et 8 mars 2007 Cnit - Paris, La Défense Votre rendez-vous avec 100 exposants, 70 ateliers exposants et 3 évènements associés autour de Microsoft, Bea Systems et W4. > Vous avez un projet de dématérialisation ? > Vous souhaitez déve lopper un intranet ? > Comment choisir la so lution d’archivage adaptée à votre activité professionnell e? > Comment optimiser la relation client grâce à la gestion de contenu ? Documation est une occ asion unique de rencontrer en deux jou rs les acteurs clés du marché de la gestion de contenu et du document et de participer à des conférences et dé monstrations gratuites à forte valeur ajoutée ! Demandez votre badge sur www.documation.fr CODE : ITE EXCHANGE… ET « QUELQUES-UNS » DEVIENT « TOUS ». L’accès à distance n’est plus le privilège de quelques-uns, c’est une nécessité pour tous. Microsoft Exchange Server 2007 unifie les e-mails, messages vocaux et agenda en un seul système de messagerie sécurisé. Ainsi, tout le monde peut se connecter à l’information dont il a besoin, où qu’il soit. Découvrez les entreprises qui donnent un accès à distance à leurs équipes sur microsoft.com/france/exchange Pour l’accès à Internet, au WiFi et au téléphone, un abonnement à un service de téléphonie mobile, auprès de votre opérateur de télécommunications, est requis.