NOTE DE SYNTHÈSE
Transcription
NOTE DE SYNTHÈSE
NOTE DE SYNTHÈSE ______ Rédacteur informaticien 2009 La virtualisation séduit et s’impose en entreprise. Face à l’explosion des informations et des applications détenues par les entreprises, la virtualisation permet de faire fonctionner plusieurs systèmes d’exploitation et/ou plusieurs applications sur une même machine comme s’ils fonctionnaient sur des machines physiques distinctes. Les intérêts de la virtualisation sont nombreux et bien réels, comme par exemple, une utilisation optimale des ressources, un déploiement du parc et une maintenance simplifiée, une sécurité accrue… À l’aide des documents suivants, vous exposerez de façon structurée les stratégies de mise en œuvre, les enjeux et les perspectives de la virtualisation. LISTE DES DOCUMENTS JOINTS 1 La virtualisation irrigue toute l’informatique Bertrand BRAUX – www.01net.com – 26/12/08 – 1 page 2 Computer virtualization is easy James HUW EVANS – http://business-software.suite101.com – 24/01/08 – 1 page 3 La virtualisation Brett CALLOW – www.acronis.fr – 6 pages 4 Virtualization 101 Kevin LO – www.techsoup.org – 31/10/07 – 3 pages 5 La virtualisation du service de migration de serveurs Yann SERRA – www.01informatique.fr – 01 informatique n° 1962 – 18/09/08 – 4 pages 6 La virtualisation à la conquête du centre de données Renaud BONNET et Yann SERRA – www.01informatique.fr – 01 informatique n° 1966 – 16/10/08 – 7 pages 7 Les risques de sécurité accrus par la virtualisation Antoine CROCHET-DAMAIS – www.journaldunet.com – 14/09/07 – 1 page 1 La virtualisation irrigue toute l'informatique En 2008, la virtualisation a connu une actualité des plus riches. Poussée par les éditeurs, celle-ci s'implante dans tous les domaines informatiques, du serveur au poste client en passant par les mobiles. Foisonnante : il n'y a pas d'autres termes pour qualifier l'actualité autour de la virtualisation tout au long de l'année 2008. Cette technologie interstitielle entre matériel et logiciel, qui permet de faire fonctionner plusieurs systèmes d'exploitation sur une même machine, est en passe de s'imposer dans tous les secteurs de l'informatique professionnelle. Ce succès s'appuie sur les gains qu'elle promet tant en termes de productivité que de souplesse de déploiement. L'année 2007 avait été l'année de la consécration de la virtualisation essentiellement au niveau du data center, avec comme application principale la consolidation de serveurs. L'éditeur VMware, filiale d'EMC régnait alors en maître incontesté avec son hyperviseur ESX. Une vague de rachats et de nouveaux produits Cette année, la plupart des grands éditeurs ayant pris conscience de l'importance stratégique de cette technologie, nous avons assisté à une vague de rachats et de lancement de produits, chacun d'entre eux cherchant à compléter son offre tant du côté serveur que du côté poste client. Le mouvement avait déjà commencé à la fin de 2007 avec le rachat de XenSource par Citrix, acteur historique de la virtualisation d'applications pour le poste client qui mettait ainsi la main sur un hyperviseur open source. Il s'est poursuivi dans le premier semestre par le rachat de VirtualBox par Sun, ce dernier faisant son entrée de plain pied sur le marché, avec un outil de virtualisation du poste client permettant de faire fonctionner un grand nombre d'environnements différents sur le même PC. Le californien complétait son portefeuille en septembre avec le lancement d'xVMServer, un hyperviseur pour serveur. Septembre, un mois très chargé en annonces autour de l'événement VMworld, où nous avons pu voir Red Hat sortir du bois et racheter l'éditeur open source Qumranet. Enfin et surtout, 2008 a été marquée par l'avènement d'Hyper-V de Microsoft, qui s'est fait attendre mais qui est désormais gratuit, livré avec Windows Server 2008 ou disponible en téléchargement de manière autonome. Signalons enfin les premiers positionnements des éditeurs phares, comme VMware, sur le marché embryonnaire de la virtualisation des téléphones mobiles. Ce qui vous attend en 2009 2009 sera une année de test décisive à la fois pour le déploiement de la virtualisation sur le poste client, la mise en œuvre des bureaux virtuels et le développement des clients légers dans les entreprises. Les cabinets d'analystes prédisent une adoption croissante de la virtualisation côté PC, encouragée par la promesse d'une administration de parc centralisée et considérablement simplifiée, donc moins coûteuse pour l'entreprise. Éditeurs et constructeurs vont continuer à fourbir leurs armes pour se positionner au mieux sur ce marché estimé à plusieurs milliards de dollars en 2011 par les différents instituts. Des pilotes sont en cours chez les grands comptes et à la fin de 2009, on devrait commencer à savoir ce qui fonctionne et ce qui ne fonctionne pas en termes de virtualisation de notre bon vieux PC de bureau... Bertrand BRAUX RI – 2009 2/24 www.01net.com 26/12/2008 2 Computer Virtualization Is Easy How To Benefit from Virtualization at Home Virtualization can be used by home users to bring many technical and support benefits, as well as helping to save energy too. Virtualization software such as that from VMware or XenSource from Citrix lets a single desktop computer simultaneously run several copies of operating systems like Microsoft's XP as processes on the desktop machine. This turns a single physical machine into a number of different computers, increasing hardware utilization and system flexibility. Virtualization is changing the way corporations and home users use their computers. Virtualization Is Flexible And Easy Virtualization is a good idea because it helps manage computer complexity. Rather than try to juggle multiple installations of subtly different software, a computer user can now experiment with beta software within the safe confines of a virtual machine. When the user is finished with their test, the virtual machine can be stopped or even deleted. There is no way for the beta software (which may be buggy) to interfere with the physical machine's operating system or its software. The effects of the beta software are kept within the virtual machine. Rather than install everyone onto a single machine, users can now take advantage of the completely separate environment offered by their own unique VM. Home Users and Virtualization Home users can take advantage of virtualization as both Citrix and VMware make available a number of their products for free. A home user can install a basic operating system. This would be just XP or Vista with no Office installation, no web browser, or any other applications. The home machine would then be run as a virtual machine which is where all the applications like Office are installed. Advantages are that any problems with the home machine can be easily fixed by rolling back to a previous snapshot of the virtual machine (snapshots are support by the virtualization system and are an easy way to protect against errors). As there is only a minimal operating system installed on the physical machine the chance of it failing is significantly reduced and, if it does, it's easier to fix. The user is then free to define different virtual machines for different tasks: one for trying out new software, another for guests and others for the user's children. Virtualizing a Desktop into a Server Modern computers are so powerful they are idle (doing nothing) at least 90% of the time. A home user can take advantage of virtualization to turn a desktop machine into a server. A VM can be created for everyone that wants to use the computer (or a single server VM can be created) and users can access these server-side facilities by connecting to the desktop machine, wirelessly from their laptop for added freedom. A single VM can be created from scratch very quickly and given default settings. This VM can then be cloned when a new VM is required and its standard configuration changed to meet the new requirements. VMs can be brought up, tried out and shutdown very quickly, helping a user try out new ideas rapidly. A VM does not have to be running all the time. A VM for a guest user only needs to be running when the guest wants to use it. However, its configuration is already defined and the main user of the computer doesn't have to change their configuration to support their guest. The guest's VM just needs to be started. Helping To Save Money and the Environment Virtualization helps to save money. Rather than buy a new machine, a new VM can be started. Virtualization helps to save energy as well because all the computing requirements can be satisfied from a single machine. Such an environment will require main memory to be increased and access to more hard disk will be useful as snapshots take some space. Virtualization makes the computing experience more flexible, safer James HUW EVANS and more capable of simultaneously satisfying all users. RI – 2009 3/24 http://business-software.suite101.com 24/01/08 3 La virtualisation Planifier une infrastructure virtuelle Introduction Encore récemment, la virtualisation était principalement utilisée dans les projets de consolidation de serveurs au niveau des entreprises. Mais les temps changent, et la virtualisation est de plus en plus reconnue comme une technologie pouvant offrir des avantages non négligeables à des organisations de toutes tailles. La virtualisation reçoit la large adhésion de l’industrie des technologies de l’information, et des organisations de petite taille s’intéressent à présent à utiliser cette technologie. Ceci a pour conséquence un nombre accru d’offres de produits abordables, les vendeurs se faisant concurrence pour prendre une part du marché émergeant des petites et moyennes entreprises (PME). Ceci réduit considérablement un obstacle majeur au déploiement de la virtualisation au niveau des PME : le coût. Les PME sont maintenant parfaitement positionnées pour retirer le maximum de bénéfices de la virtualisation. Dans les grandes entreprises, une infrastructure complexe peut représenter un véritable défi, y compris pour le plus astucieux des responsables informatiques intéressé par la mise en pratique de la virtualisation. Une mise en œuvre réussie, qui migre des serveurs de l’état physique à l’état virtuel, peut faire de la gestion de data centers une tâche moins onéreuse. Les PME, avec des infrastructures plus petites et plus simples, sont beaucoup moins susceptibles de rencontrer des obstacles à la migration d’une plus grande proportion – ou même de l’ensemble – de leur infrastructure physique vers un environnement virtuel. Mais qu’est-ce que la virtualisation et quels sont les bénéfices de la migration vers une infrastructure virtuelle ? La technologie de virtualisation donne à un simple ordinateur physique l’apparence de fonctionner comme de multiples ordinateurs virtuels. Avec la virtualisation, vous pouvez faire fonctionner de multiples systèmes d’exploitation concurrents sur un serveur physique unique ; chacun des systèmes d’exploitation fonctionne comme un ordinateur indépendant. Vous pouvez aisément créer une machine virtuelle et la mettre en place dans l’objectif d’un éventuel besoin de restauration en cas d’indisponibilité imprévue. Physique RI – 2009 4/24 www.acronis.fr 3 Séparer le matériel du logiciel qui l’utilise apporte de nombreux avantages. Par exemple : Comme illustré dans le graphique ci-dessus, de nombreux serveurs physiques peuvent être regroupés en un plus petit nombre de serveurs physiques. Chaque boîte physique exécute VMware en tant que système d’exploitation hôte, tandis que chaque serveur virtuel peut avoir un système d’exploitation invité différent, comme Windows Server®, Vista® ou Linux®. Un plus petit nombre de serveurs physiques se traduit par une réduction des coûts matériels et de l’extension du nombre des serveurs et, par conséquent, une réduction de la surface achetée ou louée, requise pour loger les serveurs. Un plus petit nombre de serveurs se traduit par une gestion simplifiée – les plans de sauvegarde et de reprise d’activité après sinistre sont plus faciles à créer, gérer et maintenir. La consolidation se traduit par une consommation électrique réduite et, par voie de conséquence, à une baisse des charges menant à une réduction du coût total de possession (CTP) de chaque serveur. Chaque environnement de machine virtuelle – le système d’exploitation invité et tout ce qui s’exécute sur cette machine virtuelle – est stocké en tant que fichier simple sur la machine virtuelle. Cette machine virtuelle peut être déplacée facilement et rapidement sur un serveur physique différent, permettant une indisponibilité 0 lors des mises à jour et de la maintenance. Les machines virtuelles fonctionnent de manière totalement isolée par rapport à la machine hôte et à d’autres machines virtuelles, ce qui se traduit par une limitation des erreurs et des pannes. L’environnement de production peut être dupliqué aisément et rapidement afin de créer un environnement de test sur lequel les correctifs et mises à jour peuvent être validés avant le déploiement sur les serveurs de production. Cette liste est loin d’être exhaustive, et de nombreuses organisations constateront que la virtualisation offre beaucoup d’autres avantages qui permettront de gagner en souplesse et de réduire les coûts ainsi que la complexité de la gestion des données contenues au sein de leurs systèmes informatiques. Cependant, elle démontre combien un environnement virtuel peut être rentable et efficace pour une PME. La Planification de la Virtualisation Pour que tout projet de virtualisation soit réussi et apporte le meilleur retour sur investissement possible, une planification détaillée préalable à la migration est essentielle. Une compréhension des concepts de virtualisation et des éventuels écueils est également primordiale pour la réussite. Une recherche approfondie doit être entreprise avant le démarrage du projet. Établir les buts et les intentions La création d’un ensemble de buts et d’intentions clairement définis permet d’assurer que les solutions correspondent totalement aux besoins de l’organisation et apportent le meilleur retour sur investissement possible. La mise en place de buts et d’intentions doit donc être la première étape dans tout projet de virtualisation. Les buts et intentions doivent décrire le plus clairement possible les résultats à attendre de la virtualisation, et doivent proposer une réponse à des questions telles que : Quelles sont les raisons de la démarche de virtualisation et/ou de consolidation de serveurs ? Combien de serveurs physiques peuvent-ils être potentiellement consolidés ? De quelles solutions peut-on tirer profit et quelle est la solution à privilégier ? Quel impact la virtualisation aura-t-elle sur les utilisateurs ? Migration vers une infrastructure virtuelle ou ne rien changer : quelles conséquences sur la sécurité ? Combien de temps d’indisponibilité impliquerait une migration ? Quels seraient les risques et comment pallier ces risques ? À combien s’élève le coût estimé du projet ? À combien s’élève le retour sur investissement estimé ? Les buts et intentions ne sont pas gravés dans le marbre et, invariablement, ils seront modifiés et affinés durant les dernières étapes du processus de planification au moment de l’exécution du plan. Les intentions associées à chaque but doivent être étayées par un système de mesures précis qui clarifiera la raison d’un but et les résultats que l’on en attend. Par exemple : RI – 2009 5/24 www.acronis.fr 3 Une erreur fréquente commise par de nombreuses organisations lorsqu’elles planifient la virtualisation est de se focaliser presqu’exclusivement sur la consolidation matérielle et, ce faisant, de laisser passer une occasion de rationnaliser et de consolider d’autres aspects de l’activité. Par exemple, associer un certain nombre de systèmes dans une infrastructure virtuelle unique procure non seulement une occasion de consolider le matériel mais également de consolider et rationnaliser le travail du personnel de support. De façon similaire, les processus inhérents à l’activité, tels que les décisions d’achat et de déploiement, doivent être reconsidérés. Afin de tirer un bénéfice maximum de la virtualisation et d’obtenir le meilleur retour sur investissement, une organisation doit considérer non seulement quels matériels peuvent être associés, mais également quelles personnes et quels processus peuvent être associés. La définition claire d’un ensemble de buts et d’intentions conduira le projet de virtualisation dans la bonne direction et aidera à assurer le déploiement d’une solution flexible, sûre, rentable et s’adaptant totalement aux besoins présents et futurs de l’organisation. Analyse de l’infrastructure présente et identification des candidats à la consolidation Dans une grande entreprise, le processus d’identification de tous les serveurs de l’infrastructure peut s’avérer un vrai défi. Dans les PME, un travail d’inventaire n’est pas trop laborieux. Cependant, une fois l’infrastructure schématisée, il est nécessaire de déterminer quels serveurs sont des candidats à la virtualisation, et cela n’est pas chose facile. Tout ce qui peut être virtualisé ne doit pas forcément être virtualisé. Faire tourner des applications à haut volume ou haute performance dans un environnement virtuel peut avoir pour conséquence un conflit d’entrées-sorties entre les machines virtuelles, provoquant des goulots d’étranglement et engendrant de médiocres performances. De la même manière, un serveur exécutant une application aux performances hautement variables peut difficilement faire un bon candidat à la consolidation. Dans certains cas, de médiocres performances peuvent être considérées comme une excellente raison de consolidation mais, dans d’autres cas, toute déperdition de performance serait inacceptable. Les effets de la consolidation de chaque serveur doivent être considérés individuellement. Et rappelez-vous que les serveurs que vous consolidez aujourd’hui doivent être réévalués de manière régulière, afin de vous assurer que votre infrastructure soit la plus performante possible. Gardez en mémoire le fait que la consolidation n’est pas une tâche à sens unique. Les serveurs que vous consolidez aujourd’hui peuvent ultérieurement faire l’objet d’une migration de retour à l’état physique, si les exigences des machines virtuelles venaient à changer. Se préparer pour l’avenir et reconnaître que les migrations « virtual-to-physical » sont possibles, voire même nécessaires, est un aspect important de la planification des capacités. Heureusement, il existe un certain nombre de produits qui peuvent aider à simplifier énormément le processus d’identification des candidats à la virtualisation. VMware Capacity Planner, association d’une application locale et d’un service hébergé, est probablement la solution la plus complète pour l’identification des candidats à la virtualisation. En fait, elle fournit beaucoup plus d’informations qu’il n’est nécessaire pour la plupart des organisations, et son prix pourrait la rendre inaccessible à de nombreuses PME. Les produits d’autres vendeurs, bien que moins complets que VMware Capacity Planner, sont toutefois capables de fournir à une organisation toutes les informations dont elle a besoin pour planifier une infrastructure virtuelle et, étant donné leurs tarifs moins élevés, peuvent être l’option à privilégier pour de nombreuses PME. Ces produits peuvent être utilisés pour rassembler des informations détaillées, notamment les statistiques d’utilisation, au sujet de tous les serveurs du réseau – que ceux-ci soient situés sur un emplacement RI – 2009 6/24 www.acronis.fr 3 unique ou qu’ils soient géographiquement dispersés. Ces informations peuvent ensuite être utilisées pour faire des choix motivés sur les serveurs potentiels à consolider. Certains produits franchissent une étape supplémentaire et offrent la possibilité de générer automatiquement des plans de consolidation basés sur l’association optimale des charges de travail. D’autres produits proposent des possibilités de modélisation sur la base de scénarios, qui permettent de comparer et de contraster des scénarios de consolidation différents sur la base de taux de consolidation, besoins en puissance et en espace, coût total de possession. Tirer profit de l’une de ces applications peut accélérer énormément le processus d’inventaire et d’identification des candidats à la consolidation. Mais cette classe de produits n’est utile que si vous souhaitez identifier les applications et ensuite migrer vers un environnement virtuel. Les produits d’Acronis® Inc. vous permettent de migrer votre système d’exploitation, vos applications, fichiers de configuration, paramètres réseau et toutes les données de votre système vers et à partir de machines virtuelles. Alors que certains outils, particulièrement ceux des vendeurs de systèmes d’exploitation de virtualisation, vous aident à passer du monde physique à une machine virtuelle, quelques outils tels que Acronis True Image™, vous donnent la possibilité de passer d’une plateforme matérielle virtuelle à une autre, ou d’un serveur virtuel à un serveur physique. Analyse des applications Parce que la virtualisation est une tendance récente, de nombreux vendeurs n’ont pas encore étendu leur support aux applications qui fonctionnent en environnement virtuel. Avant de décider de migrer une application vers un environnement virtuel, une organisation a besoin de s’assurer de ce que l’application sera toujours prise en charge par son constructeur en environnement virtuel. Si ce n’est pas le cas, ceci doit aussi faire partie de votre analyse du passage ou non à la virtualisation. Ceci dit, les produits adéquats pour une organisation sont ceux qui permettent les migrations de type « physical-to-virtual » (P2V) et « virtual-to-physical » (V2P) comme alternative à ce problème, tels que Acronis True Image. De telles applications peuvent déplacer un serveur problématique rapidement et facilement de et vers un serveur physique. Ceci a pour conséquence de reproduire le problème dans un environnement physique et de donner la possibilité au responsable informatique d’obtenir un support pour l’application problématique de la part de son vendeur. Rappelez-vous que la consolidation n’est pas une tâche à sens unique. Les serveurs que vous consolidez aujourd’hui peuvent ultérieurement faire l’objet d’une migration de retour à l’état physique, si les exigences des machines virtuelles venaient à changer. Il faut aussi déterminer si une application : Duplique la fonctionnalité déjà présente dans d’autres applications Est obsolète N’a qu’un nombre réduit d’utilisateurs Est instable Est proche de la fin de sa période de prise en charge Les organisations doivent aussi se demander s’il est ou non nécessaire de consacrer des ressources pour migrer et consolider une application qui entre dans l’une de ces catégories. Dans la plupart des cas, on considérera probablement que l’option la plus économique est de désactiver et de remplacer l’application en question. Dans le cas où de nouveaux matériels haut de gamme seraient mis en place sur le serveur hôte pour les machines virtuelles, vous pouvez décider de consacrer un ou plusieurs des anciens systèmes à l’exécution de ces applications orphelines ou bientôt obsolètes. Planification de l’infrastructure virtuelle Une fois l’infrastructure physique et les applications inventoriées et analysées, une organisation peut commencer à planifier l’infrastructure virtuelle de manière plus détaillée. Il faut prendre en compte les points suivants : Hôtes de virtualisation : l’approche à privilégier est-elle scale-up ou scale-out, ou les serveurs existants peuvent-ils être utilisés en tant qu’hôtes ? RI – 2009 7/24 www.acronis.fr 3 Réseau : quels changements doivent être réalisés afin d’assurer que les besoins de connectivité de toutes les machines virtuelles soient pris en compte ? Performance : quelles améliorations doivent-elles être apportées aux sous-systèmes de stockage et de réseau ? Sauvegarde et restauration : quels effets la virtualisation aura-t-elle sur les processus de sauvegarde et de reprise d’activité après sinistre ? Quels changements doivent être réalisés ? Stockage SAN et NAS : quels seront les besoins de reconfiguration ? Évaluation des solutions potentielles Il existe un nombre croissant de solutions de virtualisation de serveurs sur le marché, émanant de sociétés comme VMware, Microsoft et Parallels. En évaluant les solutions potentielles, une organisation doit faire des recherches approfondies et baser sa décision sur des facteurs tels que le coût et les possibilités de gestion et de migration. Les organisations peuvent prendre en considération l’historique propre au vendeur. Étant donné que le déploiement de la virtualisation représente une modification à grande échelle, de nombreuses organisations souhaiteront sans doute confier leurs infrastructures à une société qui possède un passé professionnel reconnu dans le domaine de la virtualisation de serveurs. Calcul du retour sur investissement Bien que les technologies de virtualisation soient devenues nettement plus abordables, migrer vers une infrastructure virtualisée est néanmoins toujours un processus coûteux. Afin d’établir si la virtualisation apporte une solution réaliste et rentable, les organisations doivent calculer le retour sur investissement. Dans les grandes entreprises, le calcul du retour sur investissement sera probablement confié à une société de conseil spécialisée. Mais une telle solution est inabordable pour la plupart des PME qui se chargeront donc elles-mêmes de cette opération. Retour sur investissement = [(Bénéfice - Investissement)/Investissement)]*100 Pour le calcul du bénéfice, une organisation doit établir le coût de maintenance de l’infrastructure existante et déduire de cela le coût estimé de maintenance de l’infrastructure virtuelle. Définir le coût de maintenance de l’infrastructure actuelle est une chose évidente - estimer le coût de maintenance d’une infrastructure virtuelle n’est pas si simple. Il faut prendre en considération les économies potentielles résultant des points suivants : Un rythme d’achat de nouveaux serveurs réduit Une consommation électrique réduite (comprenant les coûts de refroidissement) Des coûts de maintenance et de gestion réduits La résiliation des contrats de location de matériel Des temps d’indisponibilité (planifiés et non planifiés) réduits Une réduction du nombre des licences de systèmes d’exploitation requises La revente d’équipement en fin de vie Une réduction de l’espace (acheté ou loué) nécessaire pour loger les serveurs Une fois le bénéfice défini, le calcul du retour sur investissement est un processus simple. Conclusion Même si le processus de planification et de déploiement de la virtualisation peut s’apparenter à un vrai défi, les avantages de la migration peuvent être conséquents. Les organisations commencent à utiliser les technologies de virtualisation afin de mieux protéger leur capital le plus précieux : les données contenues dans leurs serveurs. Parmi les autres avantages, on peut citer un abaissement des coûts de licences matérielles et logicielles, une baisse des charges, des processus de gestion simplifiés et rationnalisés, les temps d’indisponibilité coûteux minimisés et une sécurité des systèmes informatiques améliorée. Avec la croissance de votre entreprise, vos besoins vont changer. Souvenez-vous, l’application que vous virtualisez aujourd’hui – comme une base de données SQL – pourrait ultérieurement devoir revenir à l’environnement physique, du fait de la croissance de la base de données et de la nécessité d’une puissance processeur ou d’une priorité plus élevée. Lorsque vous sélectionnez les meilleurs outils de RI – 2009 8/24 www.acronis.fr 3 migration vers un environnement virtuel, assurez-vous de sélectionner des outils permettant de revenir à un serveur physique ou de migrer vers des matériels différents sur une machine virtuelle différente. Acronis Inc., l’un des principaux fabricants d’outils de gestion du stockage, propose des produits qui s’intègrent parfaitement avec les solutions de virtualisation. Acronis True Image permet des migrations faciles dans les modes physical-to-virtual (P2V), virtual-to-virtual (V2V), virtual-to-physical (V2P) et physical-to-physical (P2P), et prend en charge de nombreux systèmes d’exploitation parmi lesquels Windows Vista, Windows Server et Linux ainsi que des logiciels de virtualisation de Microsoft, VMware, XenSource et Parallels. Acronis True Image permet à une organisation de déplacer rapidement les données d’un serveur physique vers un serveur virtuel, par un processus transparent pour l’utilisateur final. Brett CALLOW∗ ∗ Brett Callow est un Microsoft MVP (Most Valuable Professional) qui se spécialise dans les serveurs. Il vit en Colombie Britannique, Canada. RI – 2009 9/24 www.acronis.fr 4 Virtualization 101 How virtualization software can turn one computer into several This article was modified from a previous TechSoup article, "Virtualization Software: A Computer Inside Your Computer," by Joseph D. Foran. Imagine only being able to run one software program at a time on your computer. What if, in order to check your email, you had to turn off your office application? What if you had to close your PDF reader in order to surf the Internet? While we take for granted that we can use more than one software application at a time, we seldom consider running more than one operating system at once. Yet the burgeoning field of virtualization software –programs that allow you to run multiple operating systems simultaneously on a single computer– is allowing organizations to turn one computer into many, saving time, money, and space. Below, we'll show you how virtualization software works, what it can be used for, and a few virtual software packages your nonprofit may wish to consider. The Virtual Experience Although virtualization is not the only method of running multiple operating systems (another way is to partition your hard drive and create computer that can run two or more operating systems) it has the distinct advantage of being fairly easy to use. Under the hood, virtualization software runs like any other application. To get started, you power up your computer, load the virtualization program, and install a "guest" operating system from its install CD or DVD (When you install operating systems in an emulated hardware environment, they're called guest operating systems or "virtual machines", while the main operating system is called the "host"). Once the virtualization software is running, each subsequent operating system you install on your PC will act like a new computer. For instance, one computer might run a Linux server, two Windows servers, and three other Linux servers – for a total of six servers (five guests and one host) you could access at once. On the network, each server would appear as a unique system. You could run programs, share files, and do anything on these guest systems that you could do with a real computer. The Benefits of Virtualization Depending on your IT architecture, the nature of your work, and your IT budget, virtualization software can offer a variety of advantages to your nonprofit. Server consolidation. One of the primary benefits of virtualization software is that it allows you to increase the scale of your server infrastructure without purchasing additional pieces of hardware. (Keep in mind, however, that you may still need to purchase software licenses for the virtualization software, depending on the package you choose.) Energy conservation. In addition to savings in hardware costs, virtualization software may also save you money on your energy bill. According to Energy Star, the energy costs for running a server for a year will soon exceed the price of acquiring it. Improving ease of management. Managing virtual machines is a lot easier than managing “real” machines, since hardware upgrades, for example, can be done with the click of several buttons, rather than having to power down the machine, install the hardware, verify the change, then power up again. Moreover, managing virtual machines can often be done via a console server, thereby reducing the time needed to deploy them. Reducing backup and recovery time. Since virtual machines are essentially files, backing up and restoring them is a lot less time-consuming. And while the files can be huge, a directory of many 2GB files is still easier to restore than a real machine of the same specifications. Moreover, hardware failures – such as a failed hard drive – will not affect virtual machines in the same way they would a physical machine. (Of course, the real hard drive on which the virtual machine reside needs to be backed up as usual.) RI – 2009 10/24 www.techsoup.org 31/10/07 4 Testing software configurations. Another way you can use virtualization software is for testing software configurations before deploying them on a live system. If you needed to verify whether a program is incompatible with your existing setup, for example, you may try testing in on a virtual machine first. This can be immensely useful for organizations that have legacy systems or applications and must test out systems before deploying them. Virtual machines can also interact with one another in virtual networks, allowing you to test server-client applications virtually. Maintaining legacy applications. If you do have old applications that have compatibility issues with newer software or that must run on a certain version of an operating system, you can dedicate a virtual machine just for those tasks. That way, your IT architecture and planning won't be constrained because of a few applications. Maintaining a cross-platform office. It is not uncommon for offices that run mostly Macs to need to run one or two Windows-only programs; in this case, virtual software can be an affordable, easy way to do this. Note, however, that the reverse is not applicable; many virtualization applications for PCs allow you to run Linux, but not Mac operating systems. Space-savers. Not only is acquiring maintaining multiple computers costly, it can also take up a great deal of office space. Virtualizing your machines can free up space and reduce electronics clutter. Despite its many benefits, keep in mind that virtualization software is not for everyone. There is a learning curve in both conceptualizing how virtual machines will function in your network and organization, as well as managing them reliably and cost-effectively. If your staff has trouble with “real” computers, you may need to consider making which machine is the guest and which is the host extremely transparent to your users, or explaining to them in simple terms how this will affect their day-to-day work, if at all. Virtualization Software Options Virtualization software is available for a variety of needs, ranging from free or no-cost software for desktop users to six-figure packages for data-center operators. The package you choose will depend on what you need to accomplish with the technology. Other factors to consider include how many computers you currently have, your level of technical expertise, and the kind of tech support available at your nonprofit. If your organization is considering virtualization technology, here are three popular options you may wish to consider. For a broader comparison of the features of these and other packages, Wikipedia's Comparison of Virtual Machines may provide a general reference as well. Commercial Virtualization Software VMware. VMware – by far the most popular virtualization-software vendor in terms of range of offerings, market share, and expertise – offers everything from enterprise-level product suites to help manage and virtualize data centers to a free VMware Player that allows you to use but not modify virtual machines. VMware also offers virtual appliances, virtual machines you can download for free. VMware additionally provides technical resources for setting up and using its various products. VMware products run on both Windows and Unix/Linux variants, as well as on Mac. Microsoft Virtual Server and Virtual PC. A relatively new player in the virtualization field, Microsoft's free, downloadable Microsoft Virtual Server and Microsoft Virtual PC offer a growing user base, freely available online documentation, and allow you to run as many guests as your hardware can support. If you are running only Windows desktops and servers, these products can be an affordable way to test whether virtualization should be part of your organization's IT strategy. Keep in mind, however, that Virtual Software and Virtual PC can only work with Windows guests and hosts, meaning they are not viable options for those who want to run Linux or Mac operating systems. Parallels. Best known for its Desktop for Mac – the first commercial virtualization product that could run on Mac OS hosts – Parallels also offers products that run on Windows and Linux hosts. Although VMware also recently released an application that runs on Mac OS, Parallels' offerings are generally more affordable than VMware's and have been a popular option in Mac environments. RI – 2009 11/24 www.techsoup.org 31/10/07 4 Free and Open-Source Virtualization Software As with many other software technologies, there are free and open-source alternatives to commercial virtualization software. Options in this arena include Qemu and FreeVPS. Keep in mind, however, that open-source alternatives may not be as easy to install or configured as commercial virtualization products, and may lack official support or documentation, instead relying on community-based support forums and mailing lists. This may be change, however, with the virtualization landscape; Xen, for example, is an open-source solution, but is supported (for a fee) by a for-profit company Xensource that was recently acquired by a large enterprise-computing company to challenge VMware's dominance in the virtualization market. Virtualizing Forward Even if your nonprofit doesn't currently have a need for virtualization software, knowing that the technology exists can help you plan for the future and may weigh in on future buying decisions. Virtualization has the potential to greatly streamline your organization's IT infrastructure and operational workflow, but it must be planned out with a clear understanding of its compatibility with your organization's present and future IT needs. Kevin LO∗ ∗ Kevin LO is a technology analyst for Techsoup. He has been involved with technology in the nonprofit sector for over 10 years, and is now working on TechSoup’s Tech Beginner’s Guide and Security Corner initiatives. He has an MPA and an MA in International Relations from the Maxwell School in Syracuse University. RI – 2009 12/24 www.techsoup.org 31/10/07 5 La virtualisation du service de migration de serveurs Utiliser la virtualisation de serveurs pour pérenniser ou optimiser l'existant est prometteur mais peu éprouvé. Pour ces quatre entreprises obligées de franchir le pas, la démarche a pris l'allure d'une aventure en solitaire. Parce qu'elle fait fonctionner plusieurs ordinateurs en un, la virtualisation garantit que les prochains serveurs de l'entreprise coûteront moins cher à l'achat, consommeront moins d'énergie et occuperont moins de surface au sol. Mais cette technique peut aussi servir à maintenir en production des configurations logicielles vieillissantes. En simulant la présence d'un matériel générique, elle élimine notamment les incompatibilités entre anciens pilotes et nouveaux matériels. Reste à accepter de migrer des installations physiques qui, somme toute, fonctionnent encore. Les besoins : maintenir l'existant et rationaliser le SI En 2003, la Société d'exploitation des transports de l'agglomération orléanaise (Setao) est dans une impasse. L'application qui régule le trafic de son tramway fonctionne sur des serveurs qui menacent de rendre l'âme du jour au lendemain. Problème, cette application ne fonctionne qu'avec Windows NT4. « Il fallait racheter du matériel compatible avec ce système. Dommage, plus personne n'en vendait ! » se souvient Olivier Parcollet, DSI adjoint chez Setao. La voix tremblante, il se remémore le désastre auquel il a échappé de justesse : « Nous avions le choix entre faire tourner cette application critique sur une machine récupérée à la casse ou signer un chèque de 240 000 euros à Alstom pour qu'ils écrivent une version compatible avec un Windows plus récent. » Il s'en tirera en définitive pour 350 euros, le prix d'une licence de VMware Workstation, seule solution capable de faire fonctionner à ce moment-là une image de Windows NT sur du matériel moderne, et ce au travers d'une machine virtuelle. Même s'il n'a pas eu de problèmes de compatibilité, Jean-Philippe Glab, responsable de la cellule informatique du Crous de Créteil, se désole de la même manière de l'obsolescence des matériels : « Ils vieillissent. Il faut les changer régulièrement. Et, à chaque fois, tout réinstaller. Pour rendre l'opération plus simple, nous avions limité chaque serveur à une seule fonction applicative. Mais c'est un cercle vicieux car cela multiplie d'autant le nombre de serveurs… qu'il faudra remplacer à terme. » Il emploiera, en 2007, la virtualisation pour installer définitivement ses applications dans une image système qu'il n'a plus qu'à déplacer lorsqu'il change de serveurs. Le centre hospitalier de Dax avait besoin de consolider sa flotte de serveurs : « Dans notre établissement, 150 métiers sont servis par des applications dédiées. Notre SI est parfaitement hétéroclite, sous différentes versions de Windows ou Unix, avec des contraintes différentes d'une machine à l'autre. Le coût d'exploitation devenait trop élevé », explique Gilbert Martin, responsable du système d'information. Le revendeur de noms de domaines Netissime cherchait, quant à lui, plus de souplesse afin de mieux gérer ses montées en charge. « Nous avions acquis en 2007 jusqu'à 20 serveurs, tous faisant fonctionner la même base de données et la même application de facturation, raconte Dave Elbaz, directeur de l'entreprise. Mais en période creuse, ces serveurs consommaient de l'énergie et chauffaient pour rien. Pourtant, en prévision d'un prochain pic d'activité, nous devions encore augmenter le nombre de machines. » Aujourd'hui, la virtualisation lui permet de déployer des serveurs d'un simple clic. La mise en œuvre : procéder pas à pas tout en étant pionnier Point commun de ces quatre entreprises : elles n'ont pas bénéficié de retours d'expérience pour inspirer leur choix. Le centre hospitalier de Dax et Netissime s'en sont remis à leurs fournisseurs, avec une conviction mitigée : « En 2003, quasiment personne ne connaissait la virtualisation, se souvient Gilbert Martin. IBM et CIS nous ont présenté VMware. Ils ne nous ont pas caché que nous étions des pionniers. Mais nous n'avions pas d'alternative plus raisonnable. » Quatre ans plus tard, Netissime se heurte toujours au problème de la méconnaissance de la virtualisation. Il opte donc pour Virtuozzo, de Parallels, un hyperviseur qui est maintenu par les mêmes équipes que la solution de sauvegarde Acronis – que Netissime utilise déjà. « Nous ne connaissions pas Virtuozzo. Mais l'important était que nous connaissions la qualité de leur service après vente », admet Dave Elbaz. La Setao et le Crous de Créteil ont respectivement découvert VMware et Xen sur internet, puis ont élaboré leurs maquettes avec les versions gratuites de ces logiciels. Jean-Philippe Glab n'a pas eu peur : « Il est galvanisant de parvenir à résoudre soi-même un gros problème de la manière la plus simple qui soit. » RI – 2009 13/24 www.01informatique.fr 01 Informatique n° 1962 – 18/09/08 5 Par prudence, les serveurs ont été virtualisés les uns après les autres, en commençant par les services d'infrastructures, tels les contrôleurs de domaine, pour terminer par les bases de données les plus critiques. « Au pire, nous avons connu une interruption d'activité pendant trois heures, lorsque nous avons réutilisé du matériel déjà en production », confie Gilbert Martin. À l'exception de Netissime, qui s'est servi de la conversion automatique de physique à virtuel d'Acronis, tous ont commencé par réinstaller proprement systèmes et applications dans des machines virtuelles. « Cela a été l'occasion de procéder à des optimisations telles que l'installation d'une version plus moderne de Windows ou le regroupement de deux applications peu sollicitées sur un seul serveur », se souvient Gilbert Martin. Les machines virtuelles tournaient pour la première fois sur du matériel de marque : « La consolidation de plusieurs serveurs virtuels dans une seule machine physique demande des configurations matérielles musclées qui ne valent pas moins cher, voire n'existent pas, chez les assembleurs », explique Dave Elbaz. Selon Olivier Parcollet, il faut compter entre 700 Mo et 1 Go de mémoire par machine virtuelle, la RAM totale étant plus importante que le nombre de cœurs disponibles. Tous utilisent une baie externe pour pouvoir migrer à chaud les serveurs virtuels d'une machine physique à l'autre. Le Crous de Créteil a bénéficié, dans cette tâche, de l'appui de son prestataire, Alyseo, lequel a développé un pilote spécifique pour que Xen puisse travailler avec une baie Coraid en ATA over Ethernet, moins cher que le Fibre Channel. La Setao utilise pour sa part l'iSCSI : « Attention à bien multiplier les cartes réseaux et les contrôleurs de bus hôte dans la machine physique afin de ne pas étrangler la bande passante des serveurs virtuels », prévient Olivier Parcollet. Les écueils : dompter les logiciels et défier les éditeurs Après coup, Gilbert Martin reconnaît que profiter de la virtualisation pour déployer des logiciels plus modernes sur ses serveurs était une erreur : « La migration a été rendue hasardeuse non pas à cause de la virtualisation, mais parce que nous remplacions en même temps notre contrôleur NT par Active Directory, qui est moins simple à configurer que VMware. » De son côté, Jean-Philippe Glab confirme que la virtualisation demeure une opération facile, qui se complique rapidement à cause des logiciels périphériques : « Nous avons voulu convertir automatiquement les serveurs physiques en virtuels. Mais nous avons passé plus de temps à comprendre comment manipuler l'outil Powerconvert, de Platespin, qu'à migrer manuellement. » Autre point noir, tous critiquent le mythe de l'indépendance matérielle. Avec VMware et Virtuozzo, le déplacement à chaud des serveurs virtuels d'une machine physique à l'autre n'est possible que si elles ont exactement les mêmes caractéristiques. Avec Xen, il faut une architecture Intel VT pour exécuter des machines virtuelles Windows. Olivier Parcollet s'est également demandé où il devait insérer les dongles de protection anticopie de ses logiciels. Il a résolu ce problème à l'aide d'un boîtier réseau comprenant plusieurs ports USB et parallèles, rarissime selon lui. L'écueil majeur reste le frein des fournisseurs à la virtualisation : « Oracle et Thales continuaient à nous facturer le support mais se sont dédouanés de toute responsabilité en cas de défaillance », révèle Olivier Parcollet. Gilbert Martin a dû opter pour une solution plus radicale : « Les éditeurs menaçaient de nous interdire le fonctionnement de leurs logiciels en machines virtuelles. Alors nous avons décidé de ne pas le leur dire. » Les gains : plus de productivité et déploiements facilités Pour Jean-Philippe Glab, la virtualisation a d'abord permis une meilleure utilisation des ressources disponibles : « Alors que ma capacité de traitement totale est égale, voire inférieure, à ce que j'avais avant la virtualisation, mes scripts SQL s'exécutent deux fois plus vite. » Olivier Percollet a été jusqu'à virtualiser tout un cluster : « Avec un nombre égal de serveurs, notre cluster résout en une heure des calculs qui prenaient auparavant quarante-huit heures. Ce qui correspond à un gain de un million d'euros sur le coût de la production. » Le centre hospitalier de Dax et Netissime évoquent, pour leur part, une plus grande facilité de maintenance : « Avec la virtualisation, on peut générer des modèles de machines virtuelles dans lesquels on installe une bonne fois pour toutes les logiciels. Le déploiement de serveurs supplémentaires se résume alors à la simple édition des fichiers de configuration », se félicite Dave Elbaz. RI – 2009 14/24 www.01informatique.fr 01 Informatique n° 1962 – 18/09/08 5 Les 4 entreprises étudiées Centre hospitalier de Dax Activité : établissement public de santé. Siège : Dax (40). Effectif : 2 000 agents. CA 2007 : 117 M d'euros. Problème à résoudre : consolider des serveurs hétéroclites pour stopper la croissance des coûts d'exploitation. Solution déployée : Virtual Center Infrastructure 3 de VMware pour virtualiser 14 serveurs sur 4 machines xSeries d'IBM double ou quadricœurs et SANsymphony de Datacore pour assurer leur haute disponibilité. Crous de Créteil Activité : gestion des conditions de vie des étudiants. Siège : Créteil (94). Effectif : 500 personnes. CA 2007 : non communiqué. Problème à résoudre : simplifier la réinstallation des logiciels à chaque mise à jour du matériel. Solution déployée : Xen Server pour virtualiser 7 serveurs sur 2 machines racks 1U Supermicro quadricœurs, plus baie Coraid en ATAoE pour la haute disponibilité. Netissime Activité : vendeur de noms de domaine internet. Siège : Villeurbanne (69). Effectif : 20 personnes. CA 2007 : 1,6 M d'euros. Problème à résoudre : avoir suffisamment de serveurs pour répondre aux pics d'activité tout en ayant un minimum de machines à exploiter en période creuse. Solution déployée : Virtuozzo de Parallels pour virtualiser de 18 à 50 systèmes Red Hat Linux sur 6 machines HP dotées de huit cœurs et Acronis True Image pour sauvegarder les images virtuelles. Setao Activité : transports urbains de l'agglomération orléanaise. Siège : Saint-Jean-de-Braye (45). Effectif : 700 personnes. CA 2007 : 15 M d'euros. Problème à résoudre : maintenir en production l'application de gestion de trafic du tramway, uniquement compatible avec Windows NT 4, lequel n'est plus supporté par les matériels récents. Solution déployée : Virtual Infrastructure 3 de VMware pour virtualiser 60 serveurs sur 30 machines Dell quadricœurs. Une salle optimisée mais avec de nouvelles contraintes Point faible : acheter du matériel de marque Parce qu'ils ne peuvent plus toucher leurs serveurs, les administrateurs ont le sentiment que le SI échappe à leur contrôle. La virtualisation apporte d'autres contraintes matérielles. Citons l'acquisition de machines de marque car les configurations très robustes que nécessite la virtualisation n'existent pas chez les assembleurs. Pour effectuer une migration à chaud de serveurs virtuels entre plusieurs machines physiques, ces dernières doivent être identiques. Point fort : des serveurs pérennes VMware fait fonctionner des systèmes (Windows NT ou OS/2) que plus aucun matériel ne prend en charge. Par ailleurs, un serveur virtuel prenant la forme d'un fichier, plus besoin de réinstaller toute sa pile logicielle à chaque remplacement du matériel : il suffit de déplacer son fichier. Point fort : un équipement plus performant Une machine physique récente peut faire fonctionner d'autant plus de serveurs virtuels qu'elle dispose de ressources. Cela permet d'éviter l'achat de machines, ce qui produit des économies d'énergie et de loyer. En répartissant leurs charges de travail respectives entre plusieurs cœurs, les serveurs virtualisés vont également plus vite. Point faible : une maintenance en devenir Les outils d'administration sont perfectibles, les intégrateurs n'ont pas beaucoup d'expérience en ce qui concerne la migration de serveurs physiques à serveurs virtuels et, par-dessus tout, les éditeurs menacent de ne pas assurer la maintenance de leurs logiciels lorsqu'ils s'exécutent sur des machines virtuelles. RI – 2009 15/24 www.01informatique.fr 01 Informatique n° 1962 – 18/09/08 5 Gilbert Martin (Centre Hospitalier de Dax) : « c'est un changement culturel pour l'administrateur » « Nous avons connu une véritable résistance au changement à la DSI. Dès qu'une défaillance survenait, nos 11 ingénieurs tenaient systématiquement pour responsable la virtualisation plutôt que d'envisager un problème dans le système du serveur virtualisé. Le fait de ne plus pouvoir palper les serveurs donnait l'impression d'avoir affaibli le contrôle des administrateurs sur le système d'information. Les mœurs ont mis trois ans à changer. Nous ne sommes plus nostalgiques de cette époque où il fallait réparer des matériels, car la virtualisation nous a donné du temps pour nous concentrer sur la qualité du fonctionnement des logiciels. Notre mission est de servir nos utilisateurs, pas nos machines. » Jean-Philippe Glab (Crous de Créteil) : « une grande liberté de test » « Avec la virtualisation, le responsable informatique retrouve l'intérêt d'être technicien. Il a la liberté de tout tester grâce aux versions open source de l'hyperviseur et de découvrir de nouvelles astuces. Toutes les fonctions sont déjà présentes pour celui qui sait utiliser la ligne de commandes. Et le peu de mal que l'on se donne est récompensé par un résultat au-delà de toutes les espérances. Cela rappelle l'arrivée de Linux. La virtualisation a encore des progrès à faire, que ce soit en termes de haute disponibilité ou d'administration. Mais on nage dans l'expertise, ne serait-ce parce que Xen s'accompagne d'une batterie de machines virtuelles prêtes à l'emploi sous Linux Debian, plus conçu pour l'administrateur que Red Hat ou Windows. » Dave Elbaz (Netissime) : « il est trop tôt pour adopter une solution open source » « Nous avions pensé à Xen comme solution de virtualisation parce que l'open source correspond à notre culture Linux. Mais nous ne l'avons pas fait car il n'offrait pas encore de garantie de pérennité. L'écosystème de la virtualisation est naissant et nous ne pouvions pas nous permettre d'attendre un éventuel dépannage de la seule communauté pour une migration aussi critique de nos serveurs. En passant par un éditeur, nous avons bénéficié d'une maintenance à distance, même le dimanche, notamment pour superviser la migration de physique à virtuel et éviter qu'elle nuise à notre continuité de service. Et puis nous avons pu déployer une solution cohérente par rapport à notre système de stockage. Les projets open source en sont encore au stade de la mise au point du moteur. » Olivier Parcollet (Setao) : « avec la virtualisation, on tient ses délais » « La virtualisation est un outil formidable. On découvre tous les jours une nouvelle façon de s'en servir pour gagner en productivité. J'ai par exemple créé une image virtuelle de base, avec Windows et Oracle, que je décline très facilement pour répondre à quantité de nouveaux besoins applicatifs sans avoir à élaborer une maquette à chaque fois. La virtualisation facilite même la maintenance de nos fournisseurs puisque nous pouvons reproduire chez eux les bogues que nous rencontrons à l'aide d'une copie exacte de notre plate-forme de production. Demain, je n'aurai plus à installer VMware et Windows puisque le premier sera directement inclus dans les ordinateurs par les constructeurs et que le second sera vendu préconfiguré avec l'application dans des machines virtuelles dédiées. » L'avis de l'intégrateur Kwame Yamgnane, directeur de projet chez ITS Group La société développe des méthodes de suivi strict des projets. « Il faut prendre en compte les aspects accessoires de la virtualisation » « Si l'un des buts de la migration vers un système d'information virtualisé est de créer un nouveau serveur en une heure plutôt qu'en quinze jours, les questions à se poser ne concernent pas la technique mais les processus : les équipes vont-elles suivre, comment empêcher que les utilisateurs demandent la création d'un nouveau serveur toutes les deux heures, le mode de facturation des serveurs sera-t-il toujours valable ?» « Il faut scénariser son projet en amont » « Si l'on parvient en général à bien définir des objectifs de coûts et à prévoir des configurations cibles, il est tout aussi important de vérifier que les conventions de nommage, les règles d'exploitation et les plans respecteront toujours les besoins métier. De même, il faut déterminer au plus tôt si les contraintes fortes d'un serveur obsolète, auquel on veut redonner vie, sont compatibles avec le fonctionnement de l'infrastructure virtuelle. » Yann SERRA RI – 2009 16/24 www.01informatique.fr 01 Informatique n° 1962 – 18/09/08 6 La virtualisation à la conquête du centre de données D'abord cantonnée aux serveurs, la virtualisation en environnement x86 aspire à se transformer en une couche d'abstraction transversale. Une promesse encore très partiellement réalisée. La virtualisation se diffuse à travers toute l'épaisseur de l'informatique d'entreprise, jusque sur le « nuage » du cloud computing. Ou, du moins, elle promet de le faire à en croire la pléthore d'annonces qui a accompagné mi-septembre l'édition 2008 du salon VMworld. Prophétisant la « déconstruction des systèmes d'exploitation », Paul Maritz, le PDG de VMware, a mis en avant, durant la session plénière de cet événement, le concept de Virtual Data Center Operating System (VDC-OS), alors que son concurrent Citrix – quelques pour cent de parts de marché contre plus de 80 % pour VMware – révélait une version « cloud » de sa propre solution Xenserver. Qu'attendre donc de toute cette agitation ? Revue de détail de ce que l'année 2009 nous promet en termes de virtualisation et des problèmes en suspens. En cet automne 2008, il apparaît clairement que l'hyperviseur ne suffit plus à définir la virtualisation. Alors qu'ESX, de VMware, Hyper-V, de Microsoft, Xen et autres KVM constituaient le point pivot autour duquel s'organisait l'abstraction des couches matérielles, ce n'est plus le cas. L'hyperviseur disparaît, ou plutôt devrait disparaître, dans une pile de services de virtualisation qui l'excèdent de beaucoup. « Il fait encore totalement partie de la virtualisation, mais ses bénéfices, s'il est utilisé seul, se réduisent à consolider des serveurs. Pour aller plus loin, il faut d'autres composants », explique Rezah Malekzadeh, directeur marketing produits de VMware. Nathalie Rotceig, chef produits serveurs chez Dell, confirme : « Nos serveurs embarquent désormais un hyperviseur autonome, Xen ou VMware ESXi, pour démarrer directement en mode virtualisation. Mais il s'agit clairement d'un produit d'appel, surtout destiné à tester la faisabilité de la virtualisation. Pour la mettre en production, nous conseillons à nos clients l'achat d'une solution complète, seule capable d'installer et d'administrer les machines virtuelles. » L'incursion dans le stockage et les réseaux Lorsqu'il s'agit de créer une machine virtuelle, celle-ci doit disposer de cycles processeur et de zones mémoire, mais également de stockage et d'accès au réseau. Ces deux dernières capacités relevaient, jusqu'à présent, de la responsabilité de l'hyperviseur. Elles acquièrent désormais leur autonomie, de telle façon qu'il n'en est plus le seul responsable. Ainsi, Cisco met-il au point – avec une livraison prévue en 2009 – son premier commutateur virtuel pour environnements VMware. La démarche n'est pas exclusive. « Rien n'empêche que la même chose existe demain pour l'hyperviseur Xen », assure Simon Crosby, directeur technique virtualisation chez Citrix. « Il s'agit de revoir la répartition des responsabilités entre les réseaux et les serveurs, explique Dante Malagrino, directeur marketing Data Center Solutions chez Cisco. Ce commutateur virtuel Nexus 100v nous donne la possibilité de prolonger le réseau jusqu'aux machines virtuelles, donc au-delà de la seule interface matérielle du serveur. » Le pouvoir de l'administrateur réseau s'étend. Le même mouvement s'annonce côté stockage, en deux dynamiques complémentaires. D'une part les constructeurs rendent leurs matériels de plus en plus informés de la virtualisation. Chez Netapp, par exemple, il devient possible de déclencher de nombreuses opérations, comme la création de copies instantanées ou de clones, directement depuis les machines virtuelles, là encore en traversant l'hyperviseur qui restait jusqu'ici en charge de la gestion des fonctions de stockage avancées. D'autre part les fournisseurs de solutions de virtualisation se voient obligés de mieux prendre en compte la composante stockage. VMware élabore une série d'interfaces de programmation orientées stockage et améliore progressivement son système de fichiers distribué VMFS. RI – 2009 17/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 Citrix (Xenserver) ou Symantec (Veritas Virtual Infrastructure) utilisent les vénérables outils VxFS issus de Veritas. Red Hat propose d'utiliser GFS (Global File System, un système de fichiers en cluster) comme une couche intermédiaire de virtualisation du stockage. Mais ce rapprochement ne fait pas que des émules. Sun et HP restent farouchement opposés à l'idée de trop mélanger virtualisation du stockage et des serveurs. « Même si notre système de fichiers ZFS abstrait les ressources de stockage, il est tout autant adapté aux serveurs traditionnels, et nous devons éviter le mélange des genres », s'emporte Jean-Yves Pronier, directeur marketing produits chez Sun. Même son de cloche chez HP : « À vouloir décliner les caractéristiques de la virtualisation de serveurs à celle du stockage, on court le risque de rendre possible des configurations qui ne sont pas souhaitables, comme le fait d'avoir des volumes logiques à cheval entre deux baies », témoigne Alain Clément, chef produit stockage chez le constructeur. Joël Fizycki, directeur général de l'intégrateur Arumtec, souligne qu'il faudra aussi faire évoluer les mentalités : « Nous allons droit vers des problèmes organisationnels. Les équipes système, réseaux mais également stockage vont devoir travailler ensemble. La technologie est prête, pas les hommes. » Si la virtualisation se démultiplie, se propage au-delà de l'hyperviseur, c'est afin de mieux automatiser l'administration et, par là, de fournir plus de souplesse dans l'exploitation des ressources au quotidien. Un exemple basique : vMotion, la technologie de déplacement à chaud de machines virtuelles entre serveurs physiques de VMware, remporte un franc succès dans les entreprises. Mais déplacer une machine virtuelle peut vite devenir un casse-tête s'il n'est pas possible de faire suivre simplement le contexte – réseau, stockage, sécurité – qui s'y attache. Si tirer pleinement partie de la virtualisation demande d'automatiser, virtualiser impose en retour d'automatiser pour ne pas se retrouver avec une infrastructure impossible à piloter car justement devenue hypermobile. « Dans tout centre de données, on poursuit deux buts : devenir plus agile pour réagir plus vite aux changements, mais aussi obtenir plus de contrôle, mieux gérer les interactions. Une des découvertes de nombreux pionniers de la virtualisation est que vous pouvez avoir de l'agilité ou du contrôle, mais rarement les deux », assure Tom Bishop, directeur technique de BMC qui se renforce dans ce domaine avec Blade Logic Virtualization Module. Hyperviseur ou OS, qui aura le dessus ? Rendu moins visible, l'hyperviseur x86 devient, dans le même temps, gratuit. ESXi et Hyper-V y sont passés cet été. De leur côté, Citrix, Red Hat ou Suse ne vendent pas Xen, mais l'environnement d'exploitation qui l'accompagne. Il y a là un enjeu qui oppose marchands de systèmes d'exploitation d'une part, et indépendants de la virtualisation – surtout VMware – de l'autre. Les premiers feraient bien de la virtualisation une simple fonction de l'OS. « Développer Xen, c'est presque comme réécrire un noyau ! KVM, ce sont 25 000 lignes de code qui transforment le noyau en hyperviseur. Nous pensons que c'est une meilleure préservation de l'investissement fait dans le noyau », explique Brian Stevens, le CTO de Red Hat. Position plus nuancée de Guillaume le Tyrant chez Citrix : « L'hyperviseur va s'enfouir dans la pile informatique et devenir une commodité. Son évolution sera pilotée par deux grandes forces : le matériel, les processeurs en particulier, qui vont prendre en charge une partie croissante de ses fonctions et de fait les standardiser ; mais aussi les OS, qui poseront leurs exigences et qui ajouteront de la valeur aux hyperviseurs. » Bien sûr, VMware ne partage pas exactement ce point de vue. Paul Maritz évoque même la situation inverse : une réduction, ou du moins une modification du rôle des OS, qui ne constitueraient qu'une des composantes de l'environnement d'exécution d'une application. Dans cette optique, VMware promeut la mise à disposition, en lieu et place d'applications, de serveurs logiciels virtuels contenant l'ensemble de la pile d'exécution nécessaire à la mise en service d'une application. « Ce serait la panacée ! Je n'aurais plus à installer ni à apprendre à configurer le système et ses applications », s'enthousiasme Olivier Parcollet, directeur informatique adjoint de la société de transport Setao. Pour lui, les machines virtuelles préconfigurées soustraient les OS du champ de compétences des SI. « Et c'est RI – 2009 18/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 exactement ce que nous attendons », affirme-t-il. Question : les environnements virtuels présentent-ils le même périmètre fonctionnel que les OS traditionnels lorsqu'il s'agit d'administration ? Non, il manque encore bien des briques dans les domaines de la tolérance aux pannes, de la protection des données, de l'administration de la sécurité, etc. La vision VDC-OS de VMware reste aujourd'hui une vision. Serveurs, applications et postes de travail Autant Microsoft, VMware et Citrix s'emploient à virtualiser les serveurs, les applications et les postes de travail, autant Red Hat, lui, résiste à la virtualisation d'applications : « C'est une réponse aux problèmes posés par Windows et aux incompatibilités entre différentes générations d'applications », considère Paul Cormier. Thierry Marseille, ingénieur senior chez Intel, voit les choses différemment : « Faire fonctionner chaque application dans une machine virtuelle dédiée est très attendu sur le plan de la sécurité. Car on se retrouve avec des conteneurs autonomes qui éliminent les risques de propagation d'un problème à tout l'environnement hôte. » Novell se penchera très vite sur la question avec Zenworks Application Virtualization (ZAV), un système qui permet d'empaqueter une version de l'application prête à l'emploi dans une machine virtuelle allégée, qui ne comprend qu'une partie du système hôte qu'elle duplique. « Pour l'heure, ZAV ne sait faire tourner que des machines virtuelles Windows au sein d'un hôte Windows. Mais nous n'excluons pas de parvenir à lancer des machines virtuelles Windows pardessus Linux en ajoutant une couche intermédiaire d'émulation tel Wine », assure Sébastien Marchadier, responsable des ingénieurs chez l'éditeur. Le sujet le plus en vogue concerne la virtualisation des postes de travail, une des raisons du rachat de Qumranet par Red Hat puisque cet éditeur lui apporte sa technologie VDI (Virtual Desktop Infrastructure) SolidIce et la promesse d'un futur protocole de déport d'affichage (Spice, un ICA de nouvelle génération). Il ne faut cependant pas exagérer l'ampleur du phénomène : le poste de travail virtuel attire d'abord les structures ayant un fort besoin de contrôle. Simon Spence, le DSI du groupe de conseil en immobilier d'entreprise CB Richard Ellis pour l'Europe de l'Ouest, explique ainsi que ce qui a pour lui réellement changé la donne et l'a incité à déployer des postes de travail virtuels (avec une solution VMware), « c'est d'abord l'obligation de contrôle et de régulation, qui a beaucoup augmenté ces dernières années. Ensuite le fait que nous voulions fournir à tout le monde un même environnement et, enfin, la réduction du temps de déploiement des postes ». Même son de cloche chez Sun où l'on révèle que la solution de déport d'affichage xVM VDI résulte principalement d'une demande formulée par les banques. Thierry Marseille objecte que le déport d'affichage, qui permet de remplacer le PC de l'utilisateur par un client léger, répond plus à une problématique de sécurité que de rationalisation : « Les utilisateurs classiques n'accepteront pas qu'on les dépossède de leur environnement de travail. » Ces restrictions n'en vont pas moins dans un sens congruent avec les projets de centre de données virtuel : virtualiser les postes de travail ou virtualiser les applications revient sensiblement à rapatrier vers le centre de données des traitements qui se faisaient auparavant hors de lui. La vision qui en découle ne fait pas de doute pour Paul Cormier : « Selon nous, la virtualisation du poste de travail et celle du serveur vont fusionner. Il y aura un pôle de ressources, un cloud, à partir duquel on fera indifféremment du traitement serveur ou du poste de travail. » Voilà qui accrédite de nouveau que la proposition clé de la virtualisation est de parvenir à un nouveau modèle d'administration, à un nouveau degré d'unification des ressources. Pour le moment, la virtualisation reste un jeu de clans, le poids énorme de VMware ayant jusqu'ici dissimulé l'absence de standards. Mais cela ne sera pas toujours le cas. L'idée de piles d'exécution virtuelles (virtual appliances) est bien belle, mais qui assurera la certification de l'ensemble en situation de mobilité ? Qui arbitrera les éventuels conflits entre diverses couches ? RI – 2009 19/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 Prendre en compte les autres environnements Comme le rappelle Yves Pellemans, directeur technique chez l'intégrateur APX : « En ne retenant, in fine, que la simplicité et la souplesse apportée par la virtualisation, on a oublié qu'un système d'information est une architecture complexe et imbriquée qui demande de la méthode et de l'organisation – Itil, par exemple. Imaginer un système qui s'administre seul est aujourd'hui encore une ineptie. » Et même ce simple fait : la virtualisation dont on parle tellement en ce moment concerne les environnements x86, mais quid des serveurs Risc-ItaniumUnix sur lesquels les entreprises se reposent encore pour leurs charges les plus critiques ? Le consortium OW2 travaille à une solution d'émulation capable d'héberger des machines virtuelles Risc-Unix sur des hôtes x86. Mais quand bien même. Le service rendu ne concernerait que les développeurs avides de plus de souplesse pour effectuer leurs tests. En production, le concept se heurterait aux problèmes de performance inhérents à l'émulation. Les serveurs Risc-Unix possèdent eux aussi de solides techniques de virtualisation, éprouvées par le temps, mais ceci en totale incompatibilité avec le monde des VMware, Xen et autres Hyper-V. Or, comme le rappelle Tom Bishop : « Nos clients ne veulent pas de processus de gestion de la virtualisation isolés du reste de leur infrastructure IT. Ils ne veulent pas de silos virtualisation. » La marche à la virtualisation se poursuit, va se poursuivre en 2009, mais il reste bien des points à négocier pour que les belles visions de cet automne prennent forme. Attendu en 2009 VMware ESX 4.0 et VI 4.0 seront sur le marché dans le courant de l'année avec au moins une partie des briques de VDC-OS : commutateurs virtuels distribués et jeu étendu d'API pour la manipulation du stockage (vStorage). Red Hat Une nouvelle version majeure de RHEL devrait faire toute sa place à l'hyperviseur KVM sur lequel l'éditeur compte construire sa future offre de virtualisation, et renforcer l'intégration avec le système de fichiers en cluster GFS. Citrix Une des avancées de la prochaine version de Xen sera l'introduction d'un mécanisme de synchronisation de machines virtuelles à des fins de tolérance aux pannes, une évolution qui découle du projet Kemari. Microsoft Livrée avec Windows Server 2008 R2 au dernier trimestre, la seconde version d'Hyper-V bénéficiera d'un module Livemigration pour déplacer des machines virtuelles entre serveurs avec une latence de quelques millisecondes, contre quelques secondes aujourd'hui. Également au programme, la conversion à chaud d'un serveur physique en virtuel. L'hyperviseur dans le processeur Intel et AMD intègrent dans leurs processeurs certains traitements assurés par les hyperviseurs. Intel (famille des technologies VT-x) commence à diffuser des puces équipées de la technologie Flexmigration qui autorise les déplacements de machines virtuelles à chaud entre processeurs de générations différentes. AMD (technologies AMD-v) dispose d'une fonction concurrente avec Extended Migration. Intel propose aussi Virtual Machine Device Queues pour une meilleure gestion des entrées-sorties en environnement virtualisé. Un domaine dans lequel les deux constructeurs vont encore évoluer durant l'année. RI – 2009 20/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 Trois virtualisations pour l'utilisateur 1- L'application virtualisée L'application et ses composants sont assemblés avec des bibliothèques génériques dans un seul fichier exécutable. Bénéfices : aucune étape d'installation n'est nécessaire ; l'application peut s'exécuter depuis un support externe ou le réseau et sur n'importe quel poste, indépendamment de la version du Windows qui tourne sur l'hôte. 2- L'environnement virtuel invité Un système complet démarre et fonctionne de manière autonome au sein de l'environnement hôte. Bénéfice : on étend le champ des applications utilisables aux anciens programmes sous Windows NT ou OS/2 et aux programmes non compatibles tel Photoshop sur un hôte Linux. 3- L'environnement virtuel déporté La machine virtuelle est exécutée à distance sur un serveur, et seul son affichage est déporté sur le poste utilisateur. Bénéfices : l'administration des environnements virtuels est centralisée ; les environnements sont accessibles de tous les postes, et ces derniers peuvent être des clients légers. Trois promesses pour l'administrateur 1- Abstraction du réseau Les machines virtuelles sont éventuellement regroupées en sous-réseaux, indépendamment de leur emplacement physique. Le commutateur physique se divise en plusieurs commutateurs virtuels, un par sous-réseau. Défi : répartir au mieux la bande passante entre les liaisons physiques. 2- Machines déplaçables Pour mieux répartir les charges de travail, l'administrateur peut déplacer les machines virtuelles d'un serveur physique à l'autre. Les serveurs physiques doivent être reliés à la même ressource de stockage afin de toujours accéder à toutes les images des machines virtuelles, et il est actuellement nécessaire que les serveurs source et destination aient exactement le même modèle de processeur. 3- Stockage agnostique La baie de disques fournit aux serveurs une représentation de l'espace de stockage en masquant les protocoles qu'elle utilise et en proposant des capacités plus importantes qu'elles ne le sont vraiment. RI – 2009 21/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 Trois enjeux pour les éditeurs 1- Mieux convertir Plusieurs problèmes persistent lors du passage d'une machine physique à une machine virtuelle et vice versa, parmi lesquels l'adaptation non automatique d'anciennes configurations comme Windows NT. L'usage veut que l'on effectue une réinstallation du système et de ses applications à chaque reprise. 2- Rationaliser les licences Le nombre de machines virtuelles en cours de fonctionnement ne dépend pas du nombre de cœurs présents dans l'hôte physique. Il est fonction de la charge de travail supportable par le serveur physique et de sa quantité de mémoire. Cependant, les licences logicielles sont la plupart du temps calculées selon le nombre de cœurs. 3- Offrir l'interopérabilité Différentes solutions de virtualisation ne travaillent pas bien ensemble. Toutes parviennent à importer et exporter les images VMDK de VMware, mais il s'agit juste d'un format d'échange à froid. Vrai/Faux La virtualisation réduit les coûts d'acquisition Faux. La virtualisation suppose l'acquisition de nouveaux matériels prêts à la recevoir (mémoire étendue, processeurs multicœurs de dernière génération…). S'ajoutent à la facture les outils d'administration. Et le nombre de licences logicielles dépend, lui, de la quantité – en expansion – des serveurs virtuels et non du nombre de serveurs physiques. La virtualisation sert à réaliser des économies dans le centre de données Faux. Le but de la virtualisation est de gagner en souplesse en se libérant des contraintes du matériel en termes de répartition des charges. Sur la durée, un retour sur investissement positif n'est que la preuve d'un centre de données correctement réorganisé et virtualisé. Tout est virtualisable Faux. Tout ce qui a vocation à être figé, comme le référentiel, l'annuaire, la base de données ou le middleware ne gagne pas forcément à être virtualisé. Par ailleurs, même s'il est techniquement possible de faire fonctionner des applications au sein de machines virtuelles, cette éventualité pourra être interdite par le contrat de support de certains éditeurs. 2 questions à… Lionel Cavallière, directeur marketing de VMware VMware entend-il se substituer aux OS traditionnels ? « On ne remet pas en cause la pertinence de Windows ou de Linux. Mais, pour optimiser l'utilisation de ressources matérielles récentes comme les processeurs multicœurs, les systèmes d'exploitation traditionnels ne représentent pas la bonne approche dans les machines virtuelles, au-dessus des hyperviseurs. » Et que faites-vous pour les serveurs non x86 ? « Les x86 représentent 95 % du volume des ventes de serveurs. Nous savons qu'une partie des applications critiques des grandes entreprises reste sur des architectures Risc, Itanium et grands systèmes, dans des configurations conçues pour la haute disponibilité. Tous les comptes du CAC 40 utilisent pourtant nos technologies. Nous ne nous substituons pas aux fonctionnalités offertes par les serveurs d'entreprise, nous prouvons qu'avec des serveurs standardisés la même fiabilité et la même robustesse sont à la portée de toutes les entreprises, même des PME. » RI – 2009 22/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 6 L'avis du consultant Cédric Bravo (SSII Neos-SDI) : « anticiper les effets de la virtualisation » « L'entreprise ne découvrira le gain le plus significatif de la virtualisation que lorsqu'elle se posera la question de la gestion du changement. À ce moment, on s'apercevra que la virtualisation rendra les déménagements et les plans de reprise d'activité beaucoup plus simples. On estime qu'elle permettra de diviser par quatre ou cinq la facture de la prochaine migration. À l'inverse, la virtualisation concentre les risques liés à la consolidation, notamment le fait de voir non plus une machine physique mais 20 machines virtuelles tomber en panne d'un coup. Par conséquent, un simple centre de données pourrait devenir aussi critique qu'un cluster haute disponibilité. Que ce soit pour les bénéfices ou les risques, on manque encore de retours d'expériences, mais il semble que nous devrons apprendre à déléguer autrement l'administration des systèmes. » L'avis de l'intégrateur Christian Marty (ICT) : « il faut virtualiser partout où c'est possible » « En appliquant la virtualisation chez nos clients, nous avons pu prendre vis-à-vis d'eux des engagements de résultats, et non plus seulement de moyens, sur leur continuité d'activité. En tant qu'hébergeur, nous avons mis en œuvre ces mêmes principes sur nos propres équipements, partout où on pouvait, pour les rendre plus disponibles et plus souples. Cela procure une remarquable simplification de la gestion du datacenter et de ses ressources. Par exemple, un de nos clients, éditeur, voulait publier son application en ASP pour cinq utilisateurs. Mais un serveur physique loué n'est rentable qu'à partir de 15 utilisateurs, et cet éditeur ne savait pas créer plusieurs instances isolées de son application sur la même machine. En virtualisant, on a pu créer une machine adaptée à sa demande ainsi qu'un modèle de serveur virtuel à partir duquel il configure des plates-formes ASP selon ses besoins. La virtualisation donne de la réalitéau modèle Saas. » Renaud BONNET Yann SERRA RI – 2009 23/24 www.01informatique.fr 01 Informatique n° 1966 – 16/10/08 7 Les risques de sécurité accrus par la virtualisation Le portage de plusieurs instances virtuelles sur un même serveur physique augmente le degré de vulnérabilité de la machine. Une pression supplémentaire pour les DSI et les RSSI. La virtualisation entraîne une augmentation des risques de sécurité informatique. C'est le magazine américain Network World qui tire la sonnette d'alarme en publiant une étude sur le sujet. La raison du phénomène : une machine supportant plusieurs serveurs virtuels est mathématiquement plus vulnérable qu'un serveur physique doté d'une seule instance de système. Les directeurs des systèmes d'information (DSI) et les responsables sécurité informatique (RSSI) commencent à prendre conscience de cette difficulté. Selon une étude menée sur le sujet par Network World auprès de 250 lecteurs, 36 % des entreprises ont déjà réalisé que la virtualisation présente un facteur de risque plus important qu'un environnement traditionnel. La moitié de ces sociétés se sont déjà engagées dans des déploiements visant à renforcer leur infrastructure virtuelle – telle la mise en place de pare feu spécifiques ou la définition de politiques de segmentation réseau au sein de leurs LAN virtuel. Quant à l'autre moitié, elle intègre aux agents de détection d'intrusion des alarmes sur le trafic virtuel. Un tiers des répondants ne pensent pas que la virtualisation soit un facteur augmentant la vulnérabilité des systèmes. Les 30 % restant reconnaissent le risque, mais estiment que les vendeurs de solutions virtuelles n'ont pas besoin d'intégrer de fonctions de sécurité à leurs produits... Une vision qui n'est pas partagée par les experts en sécurité qui estiment que la virtualisation doit faire l'objet de mesures de sécurité particulière, avec à la clé l'usage de dispositifs de filtrage de flux réseau. Avec la multiplication des machines faisant tourner plusieurs OS et configurations systèmes, il est clair que les DSI et les RSSI n'ont plus droit à l'erreur en matière de sécurité informatique. Sur un serveur physique virtualisé, un problème sur l'un des moteurs d'émulation, dû à l'exploitation d'une faille par exemple, peut en effet entraîner des perturbations au sein des autres instances voire la mise hors service de l'ensemble de la machine – notamment si la mémoire est saturée. Parmi les règles à suivre, il est recommandé de s'assurer de la mise à niveau permanente de ses machines virtuelles et des systèmes qu'elles supportent en matière de correctifs. Un lieu commun qu'il est toujours bon de rappeler. Comme tout autre application, l'environnement ainsi que l'historique de ses configurations doivent être pris en compte dans la base de gestion parc. Autre élément fondamental, la gestion des droits d'accès ne pourra pas faire défaut, avec idéalement une centralisation de celle-ci par le biais d'une plate-forme d'annuaire d'entreprise. Dans certains cas, la mise en place de zone démilitarisée (ici virtuelle) est conseillée, en vue notamment de protéger une base de données dont la valeur est plus sensible que l'application "front office". Et pourquoi pas activer également dans certains cas des mécanismes de sauvegarde et de duplication de données sur des serveurs tiers (virtuels ou physiques). Ainsi, on retrouvera dans le monde virtuel l'ensemble des processus de sécurité traditionnels... en fonction des besoins. Antoine CROCHET-DAMAIS JDN Solutions RI – 2009 24/24 www.journaldunet.com