NOTE DE SYNTHÈSE

Transcription

NOTE DE SYNTHÈSE
NOTE DE SYNTHÈSE
______
Rédacteur informaticien 2009
La virtualisation séduit et s’impose en entreprise. Face à l’explosion des informations et des
applications détenues par les entreprises, la virtualisation permet de faire fonctionner plusieurs
systèmes d’exploitation et/ou plusieurs applications sur une même machine comme s’ils
fonctionnaient sur des machines physiques distinctes. Les intérêts de la virtualisation sont
nombreux et bien réels, comme par exemple, une utilisation optimale des ressources, un
déploiement du parc et une maintenance simplifiée, une sécurité accrue…
À l’aide des documents suivants, vous exposerez de façon structurée les stratégies de
mise en œuvre, les enjeux et les perspectives de la virtualisation.
LISTE DES DOCUMENTS JOINTS
1
La virtualisation irrigue toute l’informatique
Bertrand BRAUX – www.01net.com – 26/12/08 – 1 page
2
Computer virtualization is easy
James HUW EVANS – http://business-software.suite101.com – 24/01/08 – 1 page
3
La virtualisation
Brett CALLOW – www.acronis.fr – 6 pages
4
Virtualization 101
Kevin LO – www.techsoup.org – 31/10/07 – 3 pages
5
La virtualisation du service de migration de serveurs
Yann SERRA – www.01informatique.fr – 01 informatique n° 1962 – 18/09/08 – 4 pages
6
La virtualisation à la conquête du centre de données
Renaud BONNET et Yann SERRA – www.01informatique.fr – 01 informatique n° 1966 –
16/10/08 – 7 pages
7
Les risques de sécurité accrus par la virtualisation
Antoine CROCHET-DAMAIS – www.journaldunet.com – 14/09/07 – 1 page
1
La virtualisation irrigue toute l'informatique
En 2008, la virtualisation a connu une actualité des plus riches. Poussée par les éditeurs,
celle-ci s'implante dans tous les domaines informatiques, du serveur au poste client en
passant par les mobiles.
Foisonnante : il n'y a pas d'autres termes pour qualifier l'actualité autour de la virtualisation tout
au long de l'année 2008. Cette technologie interstitielle entre matériel et logiciel, qui permet de
faire fonctionner plusieurs systèmes d'exploitation sur une même machine, est en passe de
s'imposer dans tous les secteurs de l'informatique professionnelle. Ce succès s'appuie sur les
gains qu'elle promet tant en termes de productivité que de souplesse de déploiement.
L'année 2007 avait été l'année de la consécration de la virtualisation essentiellement au niveau du
data center, avec comme application principale la consolidation de serveurs. L'éditeur VMware,
filiale d'EMC régnait alors en maître incontesté avec son hyperviseur ESX.
Une vague de rachats et de nouveaux produits
Cette année, la plupart des grands éditeurs ayant pris conscience de l'importance stratégique de
cette technologie, nous avons assisté à une vague de rachats et de lancement de produits, chacun
d'entre eux cherchant à compléter son offre tant du côté serveur que du côté poste client.
Le mouvement avait déjà commencé à la fin de 2007 avec le rachat de XenSource par Citrix,
acteur historique de la virtualisation d'applications pour le poste client qui mettait ainsi la main
sur un hyperviseur open source. Il s'est poursuivi dans le premier semestre par le rachat de
VirtualBox par Sun, ce dernier faisant son entrée de plain pied sur le marché, avec un outil de
virtualisation du poste client permettant de faire fonctionner un grand nombre d'environnements
différents sur le même PC. Le californien complétait son portefeuille en septembre avec le
lancement d'xVMServer, un hyperviseur pour serveur.
Septembre, un mois très chargé en annonces autour de l'événement VMworld, où nous avons pu
voir Red Hat sortir du bois et racheter l'éditeur open source Qumranet. Enfin et surtout, 2008 a
été marquée par l'avènement d'Hyper-V de Microsoft, qui s'est fait attendre mais qui est
désormais gratuit, livré avec Windows Server 2008 ou disponible en téléchargement de manière
autonome. Signalons enfin les premiers positionnements des éditeurs phares, comme VMware,
sur le marché embryonnaire de la virtualisation des téléphones mobiles.
Ce qui vous attend en 2009
2009 sera une année de test décisive à la fois pour le déploiement de la
virtualisation sur le poste client, la mise en œuvre des bureaux virtuels et le
développement des clients légers dans les entreprises. Les cabinets d'analystes
prédisent une adoption croissante de la virtualisation côté PC, encouragée par
la promesse d'une administration de parc centralisée et considérablement
simplifiée, donc moins coûteuse pour l'entreprise.
Éditeurs et constructeurs vont continuer à fourbir leurs armes pour se
positionner au mieux sur ce marché estimé à plusieurs milliards de dollars en
2011 par les différents instituts. Des pilotes sont en cours chez les grands
comptes et à la fin de 2009, on devrait commencer à savoir ce qui fonctionne et
ce qui ne fonctionne pas en termes de virtualisation de notre bon vieux PC de
bureau...
Bertrand BRAUX
RI – 2009
2/24
www.01net.com
26/12/2008
2
Computer Virtualization Is Easy
How To Benefit from Virtualization at Home
Virtualization can be used by home users to bring many technical and support benefits, as well as helping
to save energy too.
Virtualization software such as that from VMware or XenSource from Citrix lets a single desktop
computer simultaneously run several copies of operating systems like Microsoft's XP as processes on the
desktop machine. This turns a single physical machine into a number of different computers, increasing
hardware utilization and system flexibility. Virtualization is changing the way corporations and home
users use their computers.
Virtualization Is Flexible And Easy
Virtualization is a good idea because it helps manage computer complexity. Rather than try to juggle
multiple installations of subtly different software, a computer user can now experiment with beta software
within the safe confines of a virtual machine. When the user is finished with their test, the virtual machine
can be stopped or even deleted.
There is no way for the beta software (which may be buggy) to interfere with the physical machine's
operating system or its software. The effects of the beta software are kept within the virtual machine.
Rather than install everyone onto a single machine, users can now take advantage of the completely
separate environment offered by their own unique VM.
Home Users and Virtualization
Home users can take advantage of virtualization as both Citrix and VMware make available a number of
their products for free. A home user can install a basic operating system. This would be just XP or Vista
with no Office installation, no web browser, or any other applications. The home machine would then be
run as a virtual machine which is where all the applications like Office are installed.
Advantages are that any problems with the home machine can be easily fixed by rolling back to a
previous snapshot of the virtual machine (snapshots are support by the virtualization system and are an
easy way to protect against errors). As there is only a minimal operating system installed on the physical
machine the chance of it failing is significantly reduced and, if it does, it's easier to fix.
The user is then free to define different virtual machines for different tasks: one for trying out new
software, another for guests and others for the user's children.
Virtualizing a Desktop into a Server
Modern computers are so powerful they are idle (doing nothing) at least 90% of the time. A home user
can take advantage of virtualization to turn a desktop machine into a server. A VM can be created for
everyone that wants to use the computer (or a single server VM can be created) and users can access these
server-side facilities by connecting to the desktop machine, wirelessly from their laptop for added
freedom.
A single VM can be created from scratch very quickly and given default settings. This VM can then be
cloned when a new VM is required and its standard configuration changed to meet the new requirements.
VMs can be brought up, tried out and shutdown very quickly, helping a user try out new ideas rapidly. A
VM does not have to be running all the time. A VM for a guest user only needs to be running when the
guest wants to use it.
However, its configuration is already defined and the main user of the computer doesn't have to change
their configuration to support their guest. The guest's VM just needs to be started.
Helping To Save Money and the Environment
Virtualization helps to save money. Rather than buy a new machine, a new VM can be started.
Virtualization helps to save energy as well because all the computing requirements can be satisfied from a
single machine.
Such an environment will require main memory to be increased and access to more hard disk will be
useful as snapshots take some space. Virtualization makes the computing experience more flexible, safer
James HUW EVANS
and more capable of simultaneously satisfying all users.
RI – 2009
3/24
http://business-software.suite101.com
24/01/08
3
La virtualisation
Planifier une infrastructure virtuelle
Introduction
Encore récemment, la virtualisation était principalement utilisée dans les projets de consolidation de
serveurs au niveau des entreprises. Mais les temps changent, et la virtualisation est de plus en plus
reconnue comme une technologie pouvant offrir des avantages non négligeables à des organisations de
toutes tailles.
La virtualisation reçoit la large adhésion de l’industrie des technologies de l’information, et des
organisations de petite taille s’intéressent à présent à utiliser cette technologie. Ceci a pour conséquence
un nombre accru d’offres de produits abordables, les vendeurs se faisant concurrence pour prendre une
part du marché émergeant des petites et moyennes entreprises (PME). Ceci réduit considérablement un
obstacle majeur au déploiement de la virtualisation au niveau des PME : le coût.
Les PME sont maintenant parfaitement positionnées pour retirer le maximum de bénéfices de la
virtualisation. Dans les grandes entreprises, une infrastructure complexe peut représenter un véritable
défi, y compris pour le plus astucieux des responsables informatiques intéressé par la mise en pratique de
la virtualisation. Une mise en œuvre réussie, qui migre des serveurs de l’état physique à l’état virtuel, peut
faire de la gestion de data centers une tâche moins onéreuse. Les PME, avec des infrastructures plus
petites et plus simples, sont beaucoup moins susceptibles de rencontrer des obstacles à la migration d’une
plus grande proportion – ou même de l’ensemble – de leur infrastructure physique vers un environnement
virtuel.
Mais qu’est-ce que la virtualisation et quels sont les bénéfices de la migration vers une infrastructure
virtuelle ?
La technologie de virtualisation donne à un simple ordinateur physique l’apparence de fonctionner
comme de multiples ordinateurs virtuels. Avec la virtualisation, vous pouvez faire fonctionner de
multiples systèmes d’exploitation concurrents sur un serveur physique unique ; chacun des systèmes
d’exploitation fonctionne comme un ordinateur indépendant. Vous pouvez aisément créer une machine
virtuelle et la mettre en place dans l’objectif d’un éventuel besoin de restauration en cas d’indisponibilité
imprévue.
Physique
RI – 2009
4/24
www.acronis.fr
3
Séparer le matériel du logiciel qui l’utilise apporte de nombreux avantages. Par exemple :
Comme illustré dans le graphique ci-dessus, de nombreux serveurs physiques peuvent être regroupés en
un plus petit nombre de serveurs physiques. Chaque boîte physique exécute VMware en tant que système
d’exploitation hôte, tandis que chaque serveur virtuel peut avoir un système d’exploitation invité
différent, comme Windows Server®, Vista® ou Linux®. Un plus petit nombre de serveurs physiques se
traduit par une réduction des coûts matériels et de l’extension du nombre des serveurs et, par conséquent,
une réduction de la surface achetée ou louée, requise pour loger les serveurs.
Un plus petit nombre de serveurs se traduit par une gestion simplifiée – les plans de sauvegarde et de
reprise d’activité après sinistre sont plus faciles à créer, gérer et maintenir.
La consolidation se traduit par une consommation électrique réduite et, par voie de conséquence, à
une baisse des charges menant à une réduction du coût total de possession (CTP) de chaque serveur.
Chaque environnement de machine virtuelle – le système d’exploitation invité et tout ce qui s’exécute
sur cette machine virtuelle – est stocké en tant que fichier simple sur la machine virtuelle. Cette
machine virtuelle peut être déplacée facilement et rapidement sur un serveur physique différent,
permettant une indisponibilité 0 lors des mises à jour et de la maintenance.
Les machines virtuelles fonctionnent de manière totalement isolée par rapport à la machine hôte et à
d’autres machines virtuelles, ce qui se traduit par une limitation des erreurs et des pannes.
L’environnement de production peut être dupliqué aisément et rapidement afin de créer un
environnement de test sur lequel les correctifs et mises à jour peuvent être validés avant le
déploiement sur les serveurs de production.
Cette liste est loin d’être exhaustive, et de nombreuses organisations constateront que la virtualisation
offre beaucoup d’autres avantages qui permettront de gagner en souplesse et de réduire les coûts ainsi que
la complexité de la gestion des données contenues au sein de leurs systèmes informatiques. Cependant,
elle démontre combien un environnement virtuel peut être rentable et efficace pour une PME.
La Planification de la Virtualisation
Pour que tout projet de virtualisation soit réussi et apporte le meilleur retour sur investissement possible,
une planification détaillée préalable à la migration est essentielle. Une compréhension des concepts de
virtualisation et des éventuels écueils est également primordiale pour la réussite. Une recherche
approfondie doit être entreprise avant le démarrage du projet.
Établir les buts et les intentions
La création d’un ensemble de buts et d’intentions clairement définis permet d’assurer que les solutions
correspondent totalement aux besoins de l’organisation et apportent le meilleur retour sur investissement
possible. La mise en place de buts et d’intentions doit donc être la première étape dans tout projet de
virtualisation. Les buts et intentions doivent décrire le plus clairement possible les résultats à attendre de
la virtualisation, et doivent proposer une réponse à des questions telles que :
Quelles sont les raisons de la démarche de virtualisation et/ou de consolidation de serveurs ?
Combien de serveurs physiques peuvent-ils être potentiellement consolidés ?
De quelles solutions peut-on tirer profit et quelle est la solution à privilégier ?
Quel impact la virtualisation aura-t-elle sur les utilisateurs ?
Migration vers une infrastructure virtuelle ou ne rien changer : quelles conséquences sur la sécurité ?
Combien de temps d’indisponibilité impliquerait une migration ?
Quels seraient les risques et comment pallier ces risques ?
À combien s’élève le coût estimé du projet ?
À combien s’élève le retour sur investissement estimé ?
Les buts et intentions ne sont pas gravés dans le marbre et, invariablement, ils seront modifiés et affinés
durant les dernières étapes du processus de planification au moment de l’exécution du plan.
Les intentions associées à chaque but doivent être étayées par un système de mesures précis qui clarifiera
la raison d’un but et les résultats que l’on en attend. Par exemple :
RI – 2009
5/24
www.acronis.fr
3
Une erreur fréquente commise par de nombreuses organisations lorsqu’elles planifient la virtualisation est
de se focaliser presqu’exclusivement sur la consolidation matérielle et, ce faisant, de laisser passer une
occasion de rationnaliser et de consolider d’autres aspects de l’activité. Par exemple, associer un certain
nombre de systèmes dans une infrastructure virtuelle unique procure non seulement une occasion de
consolider le matériel mais également de consolider et rationnaliser le travail du personnel de support. De
façon similaire, les processus inhérents à l’activité, tels que les décisions d’achat et de déploiement,
doivent être reconsidérés. Afin de tirer un bénéfice maximum de la virtualisation et d’obtenir le meilleur
retour sur investissement, une organisation doit considérer non seulement quels matériels peuvent être
associés, mais également quelles personnes et quels processus peuvent être associés.
La définition claire d’un ensemble de buts et d’intentions conduira le projet de virtualisation dans la
bonne direction et aidera à assurer le déploiement d’une solution flexible, sûre, rentable et s’adaptant
totalement aux besoins présents et futurs de l’organisation.
Analyse de l’infrastructure présente et identification des candidats à la consolidation
Dans une grande entreprise, le processus d’identification de tous les serveurs de l’infrastructure peut
s’avérer un vrai défi. Dans les PME, un travail d’inventaire n’est pas trop laborieux. Cependant, une fois
l’infrastructure schématisée, il est nécessaire de déterminer quels serveurs sont des candidats à la
virtualisation, et cela n’est pas chose facile.
Tout ce qui peut être virtualisé ne doit pas forcément être virtualisé. Faire tourner des applications à haut
volume ou haute performance dans un environnement virtuel peut avoir pour conséquence un conflit
d’entrées-sorties entre les machines virtuelles, provoquant des goulots d’étranglement et engendrant de
médiocres performances. De la même manière, un serveur exécutant une application aux performances
hautement variables peut difficilement faire un bon candidat à la consolidation. Dans certains cas, de
médiocres performances peuvent être considérées comme une excellente raison de consolidation mais,
dans d’autres cas, toute déperdition de performance serait inacceptable. Les effets de la consolidation de
chaque serveur doivent être considérés individuellement. Et rappelez-vous que les serveurs que vous
consolidez aujourd’hui doivent être réévalués de manière régulière, afin de vous assurer que votre
infrastructure soit la plus performante possible.
Gardez en mémoire le fait que la consolidation n’est pas une tâche à sens unique. Les serveurs que vous
consolidez aujourd’hui peuvent ultérieurement faire l’objet d’une migration de retour à l’état physique, si
les exigences des machines virtuelles venaient à changer. Se préparer pour l’avenir et reconnaître que les
migrations « virtual-to-physical » sont possibles, voire même nécessaires, est un aspect important de la
planification des capacités.
Heureusement, il existe un certain nombre de produits qui peuvent aider à simplifier énormément le
processus d’identification des candidats à la virtualisation. VMware Capacity Planner, association d’une
application locale et d’un service hébergé, est probablement la solution la plus complète pour
l’identification des candidats à la virtualisation. En fait, elle fournit beaucoup plus d’informations qu’il
n’est nécessaire pour la plupart des organisations, et son prix pourrait la rendre inaccessible à de
nombreuses PME.
Les produits d’autres vendeurs, bien que moins complets que VMware Capacity Planner, sont toutefois
capables de fournir à une organisation toutes les informations dont elle a besoin pour planifier une
infrastructure virtuelle et, étant donné leurs tarifs moins élevés, peuvent être l’option à privilégier pour de
nombreuses PME.
Ces produits peuvent être utilisés pour rassembler des informations détaillées, notamment les statistiques
d’utilisation, au sujet de tous les serveurs du réseau – que ceux-ci soient situés sur un emplacement
RI – 2009
6/24
www.acronis.fr
3
unique ou qu’ils soient géographiquement dispersés. Ces informations peuvent ensuite être utilisées pour
faire des choix motivés sur les serveurs potentiels à consolider. Certains produits franchissent une étape
supplémentaire et offrent la possibilité de générer automatiquement des plans de consolidation basés sur
l’association optimale des charges de travail. D’autres produits proposent des possibilités de modélisation
sur la base de scénarios, qui permettent de comparer et de contraster des scénarios de consolidation
différents sur la base de taux de consolidation, besoins en puissance et en espace, coût total de possession.
Tirer profit de l’une de ces applications peut accélérer énormément le processus d’inventaire et
d’identification des candidats à la consolidation. Mais cette classe de produits n’est utile que si vous
souhaitez identifier les applications et ensuite migrer vers un environnement virtuel.
Les produits d’Acronis® Inc. vous permettent de migrer votre système d’exploitation, vos applications,
fichiers de configuration, paramètres réseau et toutes les données de votre système vers et à partir de
machines virtuelles. Alors que certains outils, particulièrement ceux des vendeurs de systèmes
d’exploitation de virtualisation, vous aident à passer du monde physique à une machine virtuelle,
quelques outils tels que Acronis True Image™, vous donnent la possibilité de passer d’une plateforme
matérielle virtuelle à une autre, ou d’un serveur virtuel à un serveur physique.
Analyse des applications
Parce que la virtualisation est une tendance récente, de nombreux vendeurs n’ont pas encore étendu leur
support aux applications qui fonctionnent en environnement virtuel. Avant de décider de migrer une
application vers un environnement virtuel, une organisation a besoin de s’assurer de ce que l’application
sera toujours prise en charge par son constructeur en environnement virtuel. Si ce n’est pas le cas, ceci
doit aussi faire partie de votre analyse du passage ou non à la virtualisation.
Ceci dit, les produits adéquats pour une organisation sont ceux qui permettent les migrations de type
« physical-to-virtual » (P2V) et « virtual-to-physical » (V2P) comme alternative à ce problème, tels que
Acronis True Image. De telles applications peuvent déplacer un serveur problématique rapidement et
facilement de et vers un serveur physique. Ceci a pour conséquence de reproduire le problème dans un
environnement physique et de donner la possibilité au responsable informatique d’obtenir un support pour
l’application problématique de la part de son vendeur.
Rappelez-vous que la consolidation n’est pas une tâche à sens unique. Les serveurs que vous consolidez
aujourd’hui peuvent ultérieurement faire l’objet d’une migration de retour à l’état physique, si les
exigences des machines virtuelles venaient à changer.
Il faut aussi déterminer si une application :
Duplique la fonctionnalité déjà présente dans d’autres applications
Est obsolète
N’a qu’un nombre réduit d’utilisateurs
Est instable
Est proche de la fin de sa période de prise en charge
Les organisations doivent aussi se demander s’il est ou non nécessaire de consacrer des ressources pour
migrer et consolider une application qui entre dans l’une de ces catégories. Dans la plupart des cas, on
considérera probablement que l’option la plus économique est de désactiver et de remplacer l’application
en question.
Dans le cas où de nouveaux matériels haut de gamme seraient mis en place sur le serveur hôte pour les
machines virtuelles, vous pouvez décider de consacrer un ou plusieurs des anciens systèmes à l’exécution
de ces applications orphelines ou bientôt obsolètes.
Planification de l’infrastructure virtuelle
Une fois l’infrastructure physique et les applications inventoriées et analysées, une organisation peut
commencer à planifier l’infrastructure virtuelle de manière plus détaillée. Il faut prendre en compte les
points suivants :
Hôtes de virtualisation : l’approche à privilégier est-elle scale-up ou scale-out, ou les serveurs
existants peuvent-ils être utilisés en tant qu’hôtes ?
RI – 2009
7/24
www.acronis.fr
3
Réseau : quels changements doivent être réalisés afin d’assurer que les besoins de connectivité de
toutes les machines virtuelles soient pris en compte ?
Performance : quelles améliorations doivent-elles être apportées aux sous-systèmes de stockage et de
réseau ?
Sauvegarde et restauration : quels effets la virtualisation aura-t-elle sur les processus de sauvegarde et
de reprise d’activité après sinistre ? Quels changements doivent être réalisés ?
Stockage SAN et NAS : quels seront les besoins de reconfiguration ?
Évaluation des solutions potentielles
Il existe un nombre croissant de solutions de virtualisation de serveurs sur le marché, émanant de sociétés
comme VMware, Microsoft et Parallels. En évaluant les solutions potentielles, une organisation doit faire
des recherches approfondies et baser sa décision sur des facteurs tels que le coût et les possibilités de
gestion et de migration. Les organisations peuvent prendre en considération l’historique propre au
vendeur. Étant donné que le déploiement de la virtualisation représente une modification à grande échelle,
de nombreuses organisations souhaiteront sans doute confier leurs infrastructures à une société qui
possède un passé professionnel reconnu dans le domaine de la virtualisation de serveurs.
Calcul du retour sur investissement
Bien que les technologies de virtualisation soient devenues nettement plus abordables, migrer vers une
infrastructure virtualisée est néanmoins toujours un processus coûteux. Afin d’établir si la virtualisation
apporte une solution réaliste et rentable, les organisations doivent calculer le retour sur investissement.
Dans les grandes entreprises, le calcul du retour sur investissement sera probablement confié à une société
de conseil spécialisée. Mais une telle solution est inabordable pour la plupart des PME qui se chargeront
donc elles-mêmes de cette opération.
Retour sur investissement = [(Bénéfice - Investissement)/Investissement)]*100
Pour le calcul du bénéfice, une organisation doit établir le coût de maintenance de l’infrastructure
existante et déduire de cela le coût estimé de maintenance de l’infrastructure virtuelle. Définir le coût de
maintenance de l’infrastructure actuelle est une chose évidente - estimer le coût de maintenance d’une
infrastructure virtuelle n’est pas si simple. Il faut prendre en considération les économies potentielles
résultant des points suivants :
Un rythme d’achat de nouveaux serveurs réduit
Une consommation électrique réduite (comprenant les coûts de refroidissement)
Des coûts de maintenance et de gestion réduits
La résiliation des contrats de location de matériel
Des temps d’indisponibilité (planifiés et non planifiés) réduits
Une réduction du nombre des licences de systèmes d’exploitation requises
La revente d’équipement en fin de vie
Une réduction de l’espace (acheté ou loué) nécessaire pour loger les serveurs
Une fois le bénéfice défini, le calcul du retour sur investissement est un processus simple.
Conclusion
Même si le processus de planification et de déploiement de la virtualisation peut s’apparenter à un vrai
défi, les avantages de la migration peuvent être conséquents. Les organisations commencent à utiliser les
technologies de virtualisation afin de mieux protéger leur capital le plus précieux : les données contenues
dans leurs serveurs. Parmi les autres avantages, on peut citer un abaissement des coûts de licences
matérielles et logicielles, une baisse des charges, des processus de gestion simplifiés et rationnalisés, les
temps d’indisponibilité coûteux minimisés et une sécurité des systèmes informatiques améliorée.
Avec la croissance de votre entreprise, vos besoins vont changer. Souvenez-vous, l’application que vous
virtualisez aujourd’hui – comme une base de données SQL – pourrait ultérieurement devoir revenir à
l’environnement physique, du fait de la croissance de la base de données et de la nécessité d’une
puissance processeur ou d’une priorité plus élevée. Lorsque vous sélectionnez les meilleurs outils de
RI – 2009
8/24
www.acronis.fr
3
migration vers un environnement virtuel, assurez-vous de sélectionner des outils permettant de revenir à
un serveur physique ou de migrer vers des matériels différents sur une machine virtuelle différente.
Acronis Inc., l’un des principaux fabricants d’outils de gestion du stockage, propose des produits qui
s’intègrent parfaitement avec les solutions de virtualisation. Acronis True Image permet des migrations
faciles dans les modes physical-to-virtual (P2V), virtual-to-virtual (V2V), virtual-to-physical (V2P) et
physical-to-physical (P2P), et prend en charge de nombreux systèmes d’exploitation parmi lesquels
Windows Vista, Windows Server et Linux ainsi que des logiciels de virtualisation de Microsoft, VMware,
XenSource et Parallels. Acronis True Image permet à une organisation de déplacer rapidement les
données d’un serveur physique vers un serveur virtuel, par un processus transparent pour l’utilisateur
final.
Brett CALLOW∗
∗ Brett Callow est un Microsoft MVP (Most Valuable Professional) qui se spécialise dans les serveurs. Il vit en Colombie
Britannique, Canada.
RI – 2009
9/24
www.acronis.fr
4
Virtualization 101
How virtualization software can turn one computer into several
This article was modified from a previous TechSoup article, "Virtualization Software: A Computer Inside
Your Computer," by Joseph D. Foran.
Imagine only being able to run one software program at a time on your computer. What if, in order to
check your email, you had to turn off your office application? What if you had to close your PDF reader
in order to surf the Internet?
While we take for granted that we can use more than one software application at a time, we seldom
consider running more than one operating system at once. Yet the burgeoning field of virtualization
software
–programs that allow you to run multiple operating systems simultaneously on a single computer– is
allowing organizations to turn one computer into many, saving time, money, and space.
Below, we'll show you how virtualization software works, what it can be used for, and a few virtual
software packages your nonprofit may wish to consider.
The Virtual Experience
Although virtualization is not the only method of running multiple operating systems (another way is to
partition your hard drive and create computer that can run two or more operating systems) it has the
distinct advantage of being fairly easy to use.
Under the hood, virtualization software runs like any other application. To get started, you power up your
computer, load the virtualization program, and install a "guest" operating system from its install CD or
DVD (When you install operating systems in an emulated hardware environment, they're called guest
operating systems or "virtual machines", while the main operating system is called the "host").
Once the virtualization software is running, each subsequent operating system you install on your PC will
act like a new computer. For instance, one computer might run a Linux server, two Windows servers, and
three other Linux servers – for a total of six servers (five guests and one host) you could access at once.
On the network, each server would appear as a unique system. You could run programs, share files, and
do anything on these guest systems that you could do with a real computer.
The Benefits of Virtualization
Depending on your IT architecture, the nature of your work, and your IT budget, virtualization software
can offer a variety of advantages to your nonprofit.
Server consolidation. One of the primary benefits of virtualization software is that it allows you to
increase the scale of your server infrastructure without purchasing additional pieces of hardware.
(Keep in mind, however, that you may still need to purchase software licenses for the virtualization
software, depending on the package you choose.)
Energy conservation. In addition to savings in hardware costs, virtualization software may also save
you money on your energy bill. According to Energy Star, the energy costs for running a server for a
year will soon exceed the price of acquiring it.
Improving ease of management. Managing virtual machines is a lot easier than managing “real”
machines, since hardware upgrades, for example, can be done with the click of several buttons, rather
than having to power down the machine, install the hardware, verify the change, then power up again.
Moreover, managing virtual machines can often be done via a console server, thereby reducing the
time needed to deploy them.
Reducing backup and recovery time. Since virtual machines are essentially files, backing up and
restoring them is a lot less time-consuming. And while the files can be huge, a directory of many 2GB files is still easier to restore than a real machine of the same specifications. Moreover, hardware
failures – such as a failed hard drive – will not affect virtual machines in the same way they would a
physical machine. (Of course, the real hard drive on which the virtual machine reside needs to be
backed up as usual.)
RI – 2009
10/24
www.techsoup.org
31/10/07
4
Testing software configurations. Another way you can use virtualization software is for testing
software configurations before deploying them on a live system. If you needed to verify whether a
program is incompatible with your existing setup, for example, you may try testing in on a virtual
machine first. This can be immensely useful for organizations that have legacy systems or
applications and must test out systems before deploying them. Virtual machines can also interact with
one another in virtual networks, allowing you to test server-client applications virtually.
Maintaining legacy applications. If you do have old applications that have compatibility issues with
newer software or that must run on a certain version of an operating system, you can dedicate a
virtual machine just for those tasks. That way, your IT architecture and planning won't be constrained
because of a few applications.
Maintaining a cross-platform office. It is not uncommon for offices that run mostly Macs to need to
run one or two Windows-only programs; in this case, virtual software can be an affordable, easy way
to do this. Note, however, that the reverse is not applicable; many virtualization applications for PCs
allow you to run Linux, but not Mac operating systems.
Space-savers. Not only is acquiring maintaining multiple computers costly, it can also take up a great
deal of office space. Virtualizing your machines can free up space and reduce electronics clutter.
Despite its many benefits, keep in mind that virtualization software is not for everyone. There is a
learning curve in both conceptualizing how virtual machines will function in your network and
organization, as well as managing them reliably and cost-effectively. If your staff has trouble with “real”
computers, you may need to consider making which machine is the guest and which is the host extremely
transparent to your users, or explaining to them in simple terms how this will affect their day-to-day
work, if at all.
Virtualization Software Options
Virtualization software is available for a variety of needs, ranging from free or no-cost software for
desktop users to six-figure packages for data-center operators.
The package you choose will depend on what you need to accomplish with the technology. Other factors
to consider include how many computers you currently have, your level of technical expertise, and the
kind of tech support available at your nonprofit.
If your organization is considering virtualization technology, here are three popular options you may wish
to consider. For a broader comparison of the features of these and other packages, Wikipedia's
Comparison of Virtual Machines may provide a general reference as well.
Commercial Virtualization Software
VMware. VMware – by far the most popular virtualization-software vendor in terms of range of
offerings, market share, and expertise – offers everything from enterprise-level product suites to help
manage and virtualize data centers to a free VMware Player that allows you to use but not modify
virtual machines. VMware also offers virtual appliances, virtual machines you can download for free.
VMware additionally provides technical resources for setting up and using its various products.
VMware products run on both Windows and Unix/Linux variants, as well as on Mac.
Microsoft Virtual Server and Virtual PC. A relatively new player in the virtualization field,
Microsoft's free, downloadable Microsoft Virtual Server and Microsoft Virtual PC offer a growing
user base, freely available online documentation, and allow you to run as many guests as your
hardware can support. If you are running only Windows desktops and servers, these products can be
an affordable way to test whether virtualization should be part of your organization's IT strategy.
Keep in mind, however, that Virtual Software and Virtual PC can only work with Windows guests
and hosts, meaning they are not viable options for those who want to run Linux or Mac operating
systems.
Parallels. Best known for its Desktop for Mac – the first commercial virtualization product that could
run on Mac OS hosts – Parallels also offers products that run on Windows and Linux hosts. Although
VMware also recently released an application that runs on Mac OS, Parallels' offerings are generally
more affordable than VMware's and have been a popular option in Mac environments.
RI – 2009
11/24
www.techsoup.org
31/10/07
4
Free and Open-Source Virtualization Software
As with many other software technologies, there are free and open-source alternatives to commercial
virtualization software. Options in this arena include Qemu and FreeVPS.
Keep in mind, however, that open-source alternatives may not be as easy to install or configured as
commercial virtualization products, and may lack official support or documentation, instead relying on
community-based support forums and mailing lists.
This may be change, however, with the virtualization landscape; Xen, for example, is an open-source
solution, but is supported (for a fee) by a for-profit company Xensource that was recently acquired by a
large enterprise-computing company to challenge VMware's dominance in the virtualization market.
Virtualizing Forward
Even if your nonprofit doesn't currently have a need for virtualization software, knowing that the
technology exists can help you plan for the future and may weigh in on future buying decisions.
Virtualization has the potential to greatly streamline your organization's IT infrastructure and operational
workflow, but it must be planned out with a clear understanding of its compatibility with your
organization's present and future IT needs.
Kevin LO∗
∗
Kevin LO is a technology analyst for Techsoup. He has been involved with technology in the nonprofit sector for over 10 years,
and is now working on TechSoup’s Tech Beginner’s Guide and Security Corner initiatives. He has an MPA and an MA in
International Relations from the Maxwell School in Syracuse University.
RI – 2009
12/24
www.techsoup.org
31/10/07
5
La virtualisation du service de migration de serveurs
Utiliser la virtualisation de serveurs pour pérenniser ou optimiser l'existant est prometteur mais peu
éprouvé. Pour ces quatre entreprises obligées de franchir le pas, la démarche a pris l'allure d'une aventure
en solitaire.
Parce qu'elle fait fonctionner plusieurs ordinateurs en un, la virtualisation garantit que les prochains
serveurs de l'entreprise coûteront moins cher à l'achat, consommeront moins d'énergie et occuperont
moins de surface au sol. Mais cette technique peut aussi servir à maintenir en production des
configurations logicielles vieillissantes. En simulant la présence d'un matériel générique, elle élimine
notamment les incompatibilités entre anciens pilotes et nouveaux matériels. Reste à accepter de migrer
des installations physiques qui, somme toute, fonctionnent encore.
Les besoins : maintenir l'existant et rationaliser le SI
En 2003, la Société d'exploitation des transports de l'agglomération orléanaise (Setao) est dans une
impasse. L'application qui régule le trafic de son tramway fonctionne sur des serveurs qui menacent de
rendre l'âme du jour au lendemain. Problème, cette application ne fonctionne qu'avec Windows NT4. « Il
fallait racheter du matériel compatible avec ce système. Dommage, plus personne n'en vendait ! » se
souvient Olivier Parcollet, DSI adjoint chez Setao. La voix tremblante, il se remémore le désastre auquel
il a échappé de justesse : « Nous avions le choix entre faire tourner cette application critique sur une
machine récupérée à la casse ou signer un chèque de 240 000 euros à Alstom pour qu'ils écrivent une
version compatible avec un Windows plus récent. » Il s'en tirera en définitive pour 350 euros, le prix d'une
licence de VMware Workstation, seule solution capable de faire fonctionner à ce moment-là une image de
Windows NT sur du matériel moderne, et ce au travers d'une machine virtuelle. Même s'il n'a pas eu de
problèmes de compatibilité, Jean-Philippe Glab, responsable de la cellule informatique du Crous de
Créteil, se désole de la même manière de l'obsolescence des matériels : « Ils vieillissent. Il faut les
changer régulièrement. Et, à chaque fois, tout réinstaller. Pour rendre l'opération plus simple, nous
avions limité chaque serveur à une seule fonction applicative. Mais c'est un cercle vicieux car cela
multiplie d'autant le nombre de serveurs… qu'il faudra remplacer à terme. » Il emploiera, en 2007, la
virtualisation pour installer définitivement ses applications dans une image système qu'il n'a plus qu'à
déplacer lorsqu'il change de serveurs. Le centre hospitalier de Dax avait besoin de consolider sa flotte de
serveurs : « Dans notre établissement, 150 métiers sont servis par des applications dédiées. Notre SI est
parfaitement hétéroclite, sous différentes versions de Windows ou Unix, avec des contraintes différentes
d'une machine à l'autre. Le coût d'exploitation devenait trop élevé », explique Gilbert Martin, responsable
du système d'information.
Le revendeur de noms de domaines Netissime cherchait, quant à lui, plus de souplesse afin de mieux
gérer ses montées en charge. « Nous avions acquis en 2007 jusqu'à 20 serveurs, tous faisant fonctionner
la même base de données et la même application de facturation, raconte Dave Elbaz, directeur de
l'entreprise. Mais en période creuse, ces serveurs consommaient de l'énergie et chauffaient pour rien.
Pourtant, en prévision d'un prochain pic d'activité, nous devions encore augmenter le nombre de
machines. » Aujourd'hui, la virtualisation lui permet de déployer des serveurs d'un simple clic.
La mise en œuvre : procéder pas à pas tout en étant pionnier
Point commun de ces quatre entreprises : elles n'ont pas bénéficié de retours d'expérience pour inspirer
leur choix. Le centre hospitalier de Dax et Netissime s'en sont remis à leurs fournisseurs, avec une
conviction mitigée : « En 2003, quasiment personne ne connaissait la virtualisation, se souvient Gilbert
Martin. IBM et CIS nous ont présenté VMware. Ils ne nous ont pas caché que nous étions des pionniers.
Mais nous n'avions pas d'alternative plus raisonnable. » Quatre ans plus tard, Netissime se heurte
toujours au problème de la méconnaissance de la virtualisation. Il opte donc pour Virtuozzo, de Parallels,
un hyperviseur qui est maintenu par les mêmes équipes que la solution de sauvegarde Acronis – que
Netissime utilise déjà. « Nous ne connaissions pas Virtuozzo. Mais l'important était que nous
connaissions la qualité de leur service après vente », admet Dave Elbaz. La Setao et le Crous de Créteil
ont respectivement découvert VMware et Xen sur internet, puis ont élaboré leurs maquettes avec les
versions gratuites de ces logiciels. Jean-Philippe Glab n'a pas eu peur : « Il est galvanisant de parvenir à
résoudre soi-même un gros problème de la manière la plus simple qui soit. »
RI – 2009
13/24
www.01informatique.fr
01 Informatique n° 1962 – 18/09/08
5
Par prudence, les serveurs ont été virtualisés les uns après les autres, en commençant par les services
d'infrastructures, tels les contrôleurs de domaine, pour terminer par les bases de données les plus
critiques. « Au pire, nous avons connu une interruption d'activité pendant trois heures, lorsque nous
avons réutilisé du matériel déjà en production », confie Gilbert Martin. À l'exception de Netissime, qui
s'est servi de la conversion automatique de physique à virtuel d'Acronis, tous ont commencé par
réinstaller proprement systèmes et applications dans des machines virtuelles. « Cela a été l'occasion de
procéder à des optimisations telles que l'installation d'une version plus moderne de Windows ou le
regroupement de deux applications peu sollicitées sur un seul serveur », se souvient Gilbert Martin. Les
machines virtuelles tournaient pour la première fois sur du matériel de marque : « La consolidation de
plusieurs serveurs virtuels dans une seule machine physique demande des configurations matérielles
musclées qui ne valent pas moins cher, voire n'existent pas, chez les assembleurs », explique Dave Elbaz.
Selon Olivier Parcollet, il faut compter entre 700 Mo et 1 Go de mémoire par machine virtuelle, la RAM
totale étant plus importante que le nombre de cœurs disponibles.
Tous utilisent une baie externe pour pouvoir migrer à chaud les serveurs virtuels d'une machine physique
à l'autre. Le Crous de Créteil a bénéficié, dans cette tâche, de l'appui de son prestataire, Alyseo, lequel a
développé un pilote spécifique pour que Xen puisse travailler avec une baie Coraid en ATA over
Ethernet, moins cher que le Fibre Channel. La Setao utilise pour sa part l'iSCSI : « Attention à bien
multiplier les cartes réseaux et les contrôleurs de bus hôte dans la machine physique afin de ne pas
étrangler la bande passante des serveurs virtuels », prévient Olivier Parcollet.
Les écueils : dompter les logiciels et défier les éditeurs
Après coup, Gilbert Martin reconnaît que profiter de la virtualisation pour déployer des logiciels plus
modernes sur ses serveurs était une erreur : « La migration a été rendue hasardeuse non pas à cause de la
virtualisation, mais parce que nous remplacions en même temps notre contrôleur NT par Active
Directory, qui est moins simple à configurer que VMware. »
De son côté, Jean-Philippe Glab confirme que la virtualisation demeure une opération facile, qui se
complique rapidement à cause des logiciels périphériques : « Nous avons voulu convertir
automatiquement les serveurs physiques en virtuels. Mais nous avons passé plus de temps à comprendre
comment manipuler l'outil Powerconvert, de Platespin, qu'à migrer manuellement. »
Autre point noir, tous critiquent le mythe de l'indépendance matérielle. Avec VMware et Virtuozzo, le
déplacement à chaud des serveurs virtuels d'une machine physique à l'autre n'est possible que si elles ont
exactement les mêmes caractéristiques. Avec Xen, il faut une architecture Intel VT pour exécuter des
machines virtuelles Windows. Olivier Parcollet s'est également demandé où il devait insérer les dongles
de protection anticopie de ses logiciels. Il a résolu ce problème à l'aide d'un boîtier réseau comprenant
plusieurs ports USB et parallèles, rarissime selon lui.
L'écueil majeur reste le frein des fournisseurs à la virtualisation : « Oracle et Thales continuaient à nous
facturer le support mais se sont dédouanés de toute responsabilité en cas de défaillance », révèle
Olivier Parcollet. Gilbert Martin a dû opter pour une solution plus radicale : « Les éditeurs menaçaient de
nous interdire le fonctionnement de leurs logiciels en machines virtuelles. Alors nous avons décidé de ne
pas le leur dire. »
Les gains : plus de productivité et déploiements facilités
Pour Jean-Philippe Glab, la virtualisation a d'abord permis une meilleure utilisation des ressources
disponibles : « Alors que ma capacité de traitement totale est égale, voire inférieure, à ce que j'avais
avant la virtualisation, mes scripts SQL s'exécutent deux fois plus vite. » Olivier Percollet a été jusqu'à
virtualiser tout un cluster : « Avec un nombre égal de serveurs, notre cluster résout en une heure des
calculs qui prenaient auparavant quarante-huit heures. Ce qui correspond à un gain de un million
d'euros sur le coût de la production. » Le centre hospitalier de Dax et Netissime évoquent, pour leur part,
une plus grande facilité de maintenance : « Avec la virtualisation, on peut générer des modèles de
machines virtuelles dans lesquels on installe une bonne fois pour toutes les logiciels. Le déploiement de
serveurs supplémentaires se résume alors à la simple édition des fichiers de configuration », se félicite
Dave Elbaz.
RI – 2009
14/24
www.01informatique.fr
01 Informatique n° 1962 – 18/09/08
5
Les 4 entreprises étudiées
Centre hospitalier de Dax
Activité : établissement public de santé. Siège : Dax (40). Effectif : 2 000 agents. CA 2007 : 117 M
d'euros. Problème à résoudre : consolider des serveurs hétéroclites pour stopper la croissance des
coûts d'exploitation. Solution déployée : Virtual Center Infrastructure 3 de VMware pour virtualiser
14 serveurs sur 4 machines xSeries d'IBM double ou quadricœurs et SANsymphony de Datacore pour
assurer leur haute disponibilité.
Crous de Créteil
Activité : gestion des conditions de vie des étudiants. Siège : Créteil (94). Effectif : 500 personnes.
CA 2007 : non communiqué. Problème à résoudre : simplifier la réinstallation des logiciels à
chaque mise à jour du matériel. Solution déployée : Xen Server pour virtualiser 7 serveurs sur 2
machines racks 1U Supermicro quadricœurs, plus baie Coraid en ATAoE pour la haute disponibilité.
Netissime
Activité : vendeur de noms de domaine internet. Siège : Villeurbanne (69). Effectif : 20 personnes.
CA 2007 : 1,6 M d'euros. Problème à résoudre : avoir suffisamment de serveurs pour répondre aux
pics d'activité tout en ayant un minimum de machines à exploiter en période creuse. Solution
déployée : Virtuozzo de Parallels pour virtualiser de 18 à 50 systèmes Red Hat Linux sur 6 machines
HP dotées de huit cœurs et Acronis True Image pour sauvegarder les images virtuelles.
Setao
Activité : transports urbains de l'agglomération orléanaise. Siège : Saint-Jean-de-Braye (45).
Effectif : 700 personnes. CA 2007 : 15 M d'euros. Problème à résoudre : maintenir en production
l'application de gestion de trafic du tramway, uniquement compatible avec Windows NT 4, lequel
n'est plus supporté par les matériels récents. Solution déployée : Virtual Infrastructure 3 de VMware
pour virtualiser 60 serveurs sur 30 machines Dell quadricœurs.
Une salle optimisée mais avec de nouvelles contraintes
Point faible : acheter du matériel de marque
Parce qu'ils ne peuvent plus toucher leurs serveurs, les administrateurs ont le sentiment que le SI
échappe à leur contrôle. La virtualisation apporte d'autres contraintes matérielles. Citons l'acquisition
de machines de marque car les configurations très robustes que nécessite la virtualisation n'existent
pas chez les assembleurs. Pour effectuer une migration à chaud de serveurs virtuels entre plusieurs
machines physiques, ces dernières doivent être identiques.
Point fort : des serveurs pérennes
VMware fait fonctionner des systèmes (Windows NT ou OS/2) que plus aucun matériel ne prend en
charge. Par ailleurs, un serveur virtuel prenant la forme d'un fichier, plus besoin de réinstaller toute sa
pile logicielle à chaque remplacement du matériel : il suffit de déplacer son fichier.
Point fort : un équipement plus performant
Une machine physique récente peut faire fonctionner d'autant plus de serveurs virtuels qu'elle dispose
de ressources. Cela permet d'éviter l'achat de machines, ce qui produit des économies d'énergie et de
loyer. En répartissant leurs charges de travail respectives entre plusieurs cœurs, les serveurs
virtualisés vont également plus vite.
Point faible : une maintenance en devenir
Les outils d'administration sont perfectibles, les intégrateurs n'ont pas beaucoup d'expérience en ce
qui concerne la migration de serveurs physiques à serveurs virtuels et, par-dessus tout, les éditeurs
menacent de ne pas assurer la maintenance de leurs logiciels lorsqu'ils s'exécutent sur des machines
virtuelles.
RI – 2009
15/24
www.01informatique.fr
01 Informatique n° 1962 – 18/09/08
5
Gilbert Martin (Centre Hospitalier de Dax) : « c'est un changement culturel pour l'administrateur »
« Nous avons connu une véritable résistance au changement à la DSI. Dès qu'une défaillance
survenait, nos 11 ingénieurs tenaient systématiquement pour responsable la virtualisation plutôt que
d'envisager un problème dans le système du serveur virtualisé. Le fait de ne plus pouvoir palper les
serveurs donnait l'impression d'avoir affaibli le contrôle des administrateurs sur le système
d'information. Les mœurs ont mis trois ans à changer. Nous ne sommes plus nostalgiques de cette
époque où il fallait réparer des matériels, car la virtualisation nous a donné du temps pour nous
concentrer sur la qualité du fonctionnement des logiciels. Notre mission est de servir nos utilisateurs,
pas nos machines. »
Jean-Philippe Glab (Crous de Créteil) : « une grande liberté de test »
« Avec la virtualisation, le responsable informatique retrouve l'intérêt d'être technicien. Il a la liberté
de tout tester grâce aux versions open source de l'hyperviseur et de découvrir de nouvelles astuces.
Toutes les fonctions sont déjà présentes pour celui qui sait utiliser la ligne de commandes. Et le peu
de mal que l'on se donne est récompensé par un résultat au-delà de toutes les espérances. Cela
rappelle l'arrivée de Linux. La virtualisation a encore des progrès à faire, que ce soit en termes de
haute disponibilité ou d'administration. Mais on nage dans l'expertise, ne serait-ce parce que Xen
s'accompagne d'une batterie de machines virtuelles prêtes à l'emploi sous Linux Debian, plus conçu
pour l'administrateur que Red Hat ou Windows. »
Dave Elbaz (Netissime) : « il est trop tôt pour adopter une solution open source »
« Nous avions pensé à Xen comme solution de virtualisation parce que l'open source correspond à
notre culture Linux. Mais nous ne l'avons pas fait car il n'offrait pas encore de garantie de pérennité.
L'écosystème de la virtualisation est naissant et nous ne pouvions pas nous permettre d'attendre un
éventuel dépannage de la seule communauté pour une migration aussi critique de nos serveurs. En
passant par un éditeur, nous avons bénéficié d'une maintenance à distance, même le dimanche,
notamment pour superviser la migration de physique à virtuel et éviter qu'elle nuise à notre continuité
de service. Et puis nous avons pu déployer une solution cohérente par rapport à notre système de
stockage. Les projets open source en sont encore au stade de la mise au point du moteur. »
Olivier Parcollet (Setao) : « avec la virtualisation, on tient ses délais »
« La virtualisation est un outil formidable. On découvre tous les jours une nouvelle façon de s'en
servir pour gagner en productivité. J'ai par exemple créé une image virtuelle de base, avec Windows
et Oracle, que je décline très facilement pour répondre à quantité de nouveaux besoins applicatifs sans
avoir à élaborer une maquette à chaque fois. La virtualisation facilite même la maintenance de nos
fournisseurs puisque nous pouvons reproduire chez eux les bogues que nous rencontrons à l'aide
d'une copie exacte de notre plate-forme de production. Demain, je n'aurai plus à installer VMware et
Windows puisque le premier sera directement inclus dans les ordinateurs par les constructeurs et que
le second sera vendu préconfiguré avec l'application dans des machines virtuelles dédiées. »
L'avis de l'intégrateur
Kwame Yamgnane, directeur de projet chez ITS Group
La société développe des méthodes de suivi strict des projets.
« Il faut prendre en compte les aspects accessoires de la virtualisation »
« Si l'un des buts de la migration vers un système d'information virtualisé est de créer un nouveau serveur
en une heure plutôt qu'en quinze jours, les questions à se poser ne concernent pas la technique mais les
processus : les équipes vont-elles suivre, comment empêcher que les utilisateurs demandent la création
d'un nouveau serveur toutes les deux heures, le mode de facturation des serveurs sera-t-il toujours valable
?»
« Il faut scénariser son projet en amont »
« Si l'on parvient en général à bien définir des objectifs de coûts et à prévoir des configurations cibles, il
est tout aussi important de vérifier que les conventions de nommage, les règles d'exploitation et les plans
respecteront toujours les besoins métier. De même, il faut déterminer au plus tôt si les contraintes fortes
d'un serveur obsolète, auquel on veut redonner vie, sont compatibles avec le fonctionnement de
l'infrastructure virtuelle. »
Yann SERRA
RI – 2009
16/24
www.01informatique.fr
01 Informatique n° 1962 – 18/09/08
6
La virtualisation à la conquête du centre de données
D'abord cantonnée aux serveurs, la virtualisation en environnement x86 aspire à se transformer
en une couche d'abstraction transversale. Une promesse encore très partiellement réalisée.
La virtualisation se diffuse à travers toute l'épaisseur de l'informatique d'entreprise, jusque sur le
« nuage » du cloud computing. Ou, du moins, elle promet de le faire à en croire la pléthore
d'annonces qui a accompagné mi-septembre l'édition 2008 du salon VMworld. Prophétisant la
« déconstruction des systèmes d'exploitation », Paul Maritz, le PDG de VMware, a mis en avant,
durant la session plénière de cet événement, le concept de Virtual Data Center Operating System
(VDC-OS), alors que son concurrent Citrix – quelques pour cent de parts de marché contre plus
de 80 % pour VMware – révélait une version « cloud » de sa propre solution Xenserver.
Qu'attendre donc de toute cette agitation ? Revue de détail de ce que l'année 2009 nous promet
en termes de virtualisation et des problèmes en suspens.
En cet automne 2008, il apparaît clairement que l'hyperviseur ne suffit plus à définir la
virtualisation. Alors qu'ESX, de VMware, Hyper-V, de Microsoft, Xen et autres KVM
constituaient le point pivot autour duquel s'organisait l'abstraction des couches matérielles, ce
n'est plus le cas. L'hyperviseur disparaît, ou plutôt devrait disparaître, dans une pile de services
de virtualisation qui l'excèdent de beaucoup. « Il fait encore totalement partie de la
virtualisation, mais ses bénéfices, s'il est utilisé seul, se réduisent à consolider des serveurs.
Pour aller plus loin, il faut d'autres composants », explique Rezah Malekzadeh, directeur
marketing produits de VMware. Nathalie Rotceig, chef produits serveurs chez Dell, confirme :
« Nos serveurs embarquent désormais un hyperviseur autonome, Xen ou VMware ESXi, pour
démarrer directement en mode virtualisation. Mais il s'agit clairement d'un produit d'appel,
surtout destiné à tester la faisabilité de la virtualisation. Pour la mettre en production, nous
conseillons à nos clients l'achat d'une solution complète, seule capable d'installer et
d'administrer les machines virtuelles. »
L'incursion dans le stockage et les réseaux
Lorsqu'il s'agit de créer une machine virtuelle, celle-ci doit disposer de cycles processeur et de
zones mémoire, mais également de stockage et d'accès au réseau. Ces deux dernières capacités
relevaient, jusqu'à présent, de la responsabilité de l'hyperviseur. Elles acquièrent désormais leur
autonomie, de telle façon qu'il n'en est plus le seul responsable. Ainsi, Cisco met-il au point –
avec une livraison prévue en 2009 – son premier commutateur virtuel pour environnements
VMware. La démarche n'est pas exclusive. « Rien n'empêche que la même chose existe demain
pour l'hyperviseur Xen », assure Simon Crosby, directeur technique virtualisation chez Citrix.
« Il s'agit de revoir la répartition des responsabilités entre les réseaux et les serveurs, explique
Dante Malagrino, directeur marketing Data Center Solutions chez Cisco. Ce commutateur virtuel
Nexus 100v nous donne la possibilité de prolonger le réseau jusqu'aux machines virtuelles, donc
au-delà de la seule interface matérielle du serveur. » Le pouvoir de l'administrateur réseau
s'étend.
Le même mouvement s'annonce côté stockage, en deux dynamiques complémentaires. D'une
part les constructeurs rendent leurs matériels de plus en plus informés de la virtualisation. Chez
Netapp, par exemple, il devient possible de déclencher de nombreuses opérations, comme la
création de copies instantanées ou de clones, directement depuis les machines virtuelles, là
encore en traversant l'hyperviseur qui restait jusqu'ici en charge de la gestion des fonctions de
stockage avancées. D'autre part les fournisseurs de solutions de virtualisation se voient obligés
de mieux prendre en compte la composante stockage. VMware élabore une série d'interfaces de
programmation orientées stockage et améliore progressivement son système de fichiers distribué
VMFS.
RI – 2009
17/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
Citrix (Xenserver) ou Symantec (Veritas Virtual Infrastructure) utilisent les vénérables outils
VxFS issus de Veritas. Red Hat propose d'utiliser GFS (Global File System, un système de
fichiers en cluster) comme une couche intermédiaire de virtualisation du stockage. Mais ce
rapprochement ne fait pas que des émules. Sun et HP restent farouchement opposés à l'idée de
trop mélanger virtualisation du stockage et des serveurs. « Même si notre système de fichiers ZFS
abstrait les ressources de stockage, il est tout autant adapté aux serveurs traditionnels, et nous
devons éviter le mélange des genres », s'emporte Jean-Yves Pronier, directeur marketing
produits chez Sun. Même son de cloche chez HP : « À vouloir décliner les caractéristiques de la
virtualisation de serveurs à celle du stockage, on court le risque de rendre possible des
configurations qui ne sont pas souhaitables, comme le fait d'avoir des volumes logiques à cheval
entre deux baies », témoigne Alain Clément, chef produit stockage chez le constructeur. Joël
Fizycki, directeur général de l'intégrateur Arumtec, souligne qu'il faudra aussi faire évoluer les
mentalités : « Nous allons droit vers des problèmes organisationnels. Les équipes système,
réseaux mais également stockage vont devoir travailler ensemble. La technologie est prête, pas
les hommes. »
Si la virtualisation se démultiplie, se propage au-delà de l'hyperviseur, c'est afin de mieux
automatiser l'administration et, par là, de fournir plus de souplesse dans l'exploitation des
ressources au quotidien. Un exemple basique : vMotion, la technologie de déplacement à chaud
de machines virtuelles entre serveurs physiques de VMware, remporte un franc succès dans les
entreprises. Mais déplacer une machine virtuelle peut vite devenir un casse-tête s'il n'est pas
possible de faire suivre simplement le contexte – réseau, stockage, sécurité – qui s'y attache. Si
tirer pleinement partie de la virtualisation demande d'automatiser, virtualiser impose en retour
d'automatiser pour ne pas se retrouver avec une infrastructure impossible à piloter car justement
devenue hypermobile. « Dans tout centre de données, on poursuit deux buts : devenir plus agile
pour réagir plus vite aux changements, mais aussi obtenir plus de contrôle, mieux gérer les
interactions. Une des découvertes de nombreux pionniers de la virtualisation est que vous
pouvez avoir de l'agilité ou du contrôle, mais rarement les deux », assure Tom Bishop, directeur
technique de BMC qui se renforce dans ce domaine avec Blade Logic Virtualization Module.
Hyperviseur ou OS, qui aura le dessus ?
Rendu moins visible, l'hyperviseur x86 devient, dans le même temps, gratuit. ESXi et Hyper-V y
sont passés cet été. De leur côté, Citrix, Red Hat ou Suse ne vendent pas Xen, mais
l'environnement d'exploitation qui l'accompagne. Il y a là un enjeu qui oppose marchands de
systèmes d'exploitation d'une part, et indépendants de la virtualisation – surtout VMware – de
l'autre. Les premiers feraient bien de la virtualisation une simple fonction de l'OS. « Développer
Xen, c'est presque comme réécrire un noyau ! KVM, ce sont 25 000 lignes de code qui
transforment le noyau en hyperviseur. Nous pensons que c'est une meilleure préservation de
l'investissement fait dans le noyau », explique Brian Stevens, le CTO de Red Hat. Position plus
nuancée de Guillaume le Tyrant chez Citrix : « L'hyperviseur va s'enfouir dans la pile
informatique et devenir une commodité. Son évolution sera pilotée par deux grandes forces : le
matériel, les processeurs en particulier, qui vont prendre en charge une partie croissante de ses
fonctions et de fait les standardiser ; mais aussi les OS, qui poseront leurs exigences et qui
ajouteront de la valeur aux hyperviseurs. » Bien sûr, VMware ne partage pas exactement ce
point de vue. Paul Maritz évoque même la situation inverse : une réduction, ou du moins une
modification du rôle des OS, qui ne constitueraient qu'une des composantes de l'environnement
d'exécution d'une application. Dans cette optique, VMware promeut la mise à disposition, en lieu
et place d'applications, de serveurs logiciels virtuels contenant l'ensemble de la pile d'exécution
nécessaire à la mise en service d'une application. « Ce serait la panacée ! Je n'aurais plus à
installer ni à apprendre à configurer le système et ses applications », s'enthousiasme Olivier
Parcollet, directeur informatique adjoint de la société de transport Setao. Pour lui, les machines
virtuelles préconfigurées soustraient les OS du champ de compétences des SI. « Et c'est
RI – 2009
18/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
exactement ce que nous attendons », affirme-t-il. Question : les environnements virtuels
présentent-ils le même périmètre fonctionnel que les OS traditionnels lorsqu'il s'agit
d'administration ? Non, il manque encore bien des briques dans les domaines de la tolérance aux
pannes, de la protection des données, de l'administration de la sécurité, etc. La vision VDC-OS
de VMware reste aujourd'hui une vision.
Serveurs, applications et postes de travail
Autant Microsoft, VMware et Citrix s'emploient à virtualiser les serveurs, les applications et les
postes de travail, autant Red Hat, lui, résiste à la virtualisation d'applications : « C'est une
réponse aux problèmes posés par Windows et aux incompatibilités entre différentes générations
d'applications », considère Paul Cormier. Thierry Marseille, ingénieur senior chez Intel, voit les
choses différemment : « Faire fonctionner chaque application dans une machine virtuelle dédiée
est très attendu sur le plan de la sécurité. Car on se retrouve avec des conteneurs autonomes qui
éliminent les risques de propagation d'un problème à tout l'environnement hôte. » Novell se
penchera très vite sur la question avec Zenworks Application Virtualization (ZAV), un système
qui permet d'empaqueter une version de l'application prête à l'emploi dans une machine virtuelle
allégée, qui ne comprend qu'une partie du système hôte qu'elle duplique.
« Pour l'heure, ZAV ne sait faire tourner que des machines virtuelles Windows au sein d'un hôte
Windows. Mais nous n'excluons pas de parvenir à lancer des machines virtuelles Windows pardessus Linux en ajoutant une couche intermédiaire d'émulation tel Wine », assure Sébastien
Marchadier, responsable des ingénieurs chez l'éditeur.
Le sujet le plus en vogue concerne la virtualisation des postes de travail, une des raisons du
rachat de Qumranet par Red Hat puisque cet éditeur lui apporte sa technologie VDI (Virtual
Desktop Infrastructure) SolidIce et la promesse d'un futur protocole de déport d'affichage (Spice,
un ICA de nouvelle génération). Il ne faut cependant pas exagérer l'ampleur du phénomène : le
poste de travail virtuel attire d'abord les structures ayant un fort besoin de contrôle. Simon
Spence, le DSI du groupe de conseil en immobilier d'entreprise CB Richard Ellis pour l'Europe
de l'Ouest, explique ainsi que ce qui a pour lui réellement changé la donne et l'a incité à déployer
des postes de travail virtuels (avec une solution VMware), « c'est d'abord l'obligation de
contrôle et de régulation, qui a beaucoup augmenté ces dernières années. Ensuite le fait que
nous voulions fournir à tout le monde un même environnement et, enfin, la réduction du temps de
déploiement des postes ». Même son de cloche chez Sun où l'on révèle que la solution de déport
d'affichage xVM VDI résulte principalement d'une demande formulée par les banques. Thierry
Marseille objecte que le déport d'affichage, qui permet de remplacer le PC de l'utilisateur par un
client léger, répond plus à une problématique de sécurité que de rationalisation : « Les
utilisateurs classiques n'accepteront pas qu'on les dépossède de leur environnement de travail. »
Ces restrictions n'en vont pas moins dans un sens congruent avec les projets de centre de données
virtuel : virtualiser les postes de travail ou virtualiser les applications revient sensiblement à
rapatrier vers le centre de données des traitements qui se faisaient auparavant hors de lui. La
vision qui en découle ne fait pas de doute pour Paul Cormier : « Selon nous, la virtualisation du
poste de travail et celle du serveur vont fusionner. Il y aura un pôle de ressources, un cloud, à
partir duquel on fera indifféremment du traitement serveur ou du poste de travail. » Voilà qui
accrédite de nouveau que la proposition clé de la virtualisation est de parvenir à un nouveau
modèle d'administration, à un nouveau degré d'unification des ressources.
Pour le moment, la virtualisation reste un jeu de clans, le poids énorme de VMware ayant
jusqu'ici dissimulé l'absence de standards. Mais cela ne sera pas toujours le cas. L'idée de piles
d'exécution virtuelles (virtual appliances) est bien belle, mais qui assurera la certification de
l'ensemble en situation de mobilité ? Qui arbitrera les éventuels conflits entre diverses couches ?
RI – 2009
19/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
Prendre en compte les autres environnements
Comme le rappelle Yves Pellemans, directeur technique chez l'intégrateur APX : « En ne
retenant, in fine, que la simplicité et la souplesse apportée par la virtualisation, on a oublié
qu'un système d'information est une architecture complexe et imbriquée qui demande de la
méthode et de l'organisation – Itil, par exemple. Imaginer un système qui s'administre seul est
aujourd'hui encore une ineptie. » Et même ce simple fait : la virtualisation dont on parle
tellement en ce moment concerne les environnements x86, mais quid des serveurs Risc-ItaniumUnix sur lesquels les entreprises se reposent encore pour leurs charges les plus critiques ? Le
consortium OW2 travaille à une solution d'émulation capable d'héberger des machines virtuelles
Risc-Unix sur des hôtes x86. Mais quand bien même. Le service rendu ne concernerait que les
développeurs avides de plus de souplesse pour effectuer leurs tests. En production, le concept se
heurterait aux problèmes de performance inhérents à l'émulation. Les serveurs Risc-Unix
possèdent eux aussi de solides techniques de virtualisation, éprouvées par le temps, mais ceci en
totale incompatibilité avec le monde des VMware, Xen et autres Hyper-V. Or, comme le rappelle
Tom Bishop : « Nos clients ne veulent pas de processus de gestion de la virtualisation isolés du
reste de leur infrastructure IT. Ils ne veulent pas de silos virtualisation. » La marche à la
virtualisation se poursuit, va se poursuivre en 2009, mais il reste bien des points à négocier pour
que les belles visions de cet automne prennent forme.
Attendu en 2009
VMware
ESX 4.0 et VI 4.0 seront sur le marché dans le courant de l'année avec au moins une partie des
briques de VDC-OS : commutateurs virtuels distribués et jeu étendu d'API pour la manipulation
du stockage (vStorage).
Red Hat
Une nouvelle version majeure de RHEL devrait faire toute sa place à l'hyperviseur KVM sur
lequel l'éditeur compte construire sa future offre de virtualisation, et renforcer l'intégration avec
le système de fichiers en cluster GFS.
Citrix
Une des avancées de la prochaine version de Xen sera l'introduction d'un mécanisme de
synchronisation de machines virtuelles à des fins de tolérance aux pannes, une évolution qui
découle du projet Kemari.
Microsoft
Livrée avec Windows Server 2008 R2 au dernier trimestre, la seconde version d'Hyper-V
bénéficiera d'un module Livemigration pour déplacer des machines virtuelles entre serveurs avec
une latence de quelques millisecondes, contre quelques secondes aujourd'hui. Également au
programme, la conversion à chaud d'un serveur physique en virtuel.
L'hyperviseur dans le processeur
Intel et AMD intègrent dans leurs processeurs certains traitements assurés par les hyperviseurs.
Intel (famille des technologies VT-x) commence à diffuser des puces équipées de la technologie
Flexmigration qui autorise les déplacements de machines virtuelles à chaud entre processeurs de
générations différentes. AMD (technologies AMD-v) dispose d'une fonction concurrente avec
Extended Migration. Intel propose aussi Virtual Machine Device Queues pour une meilleure
gestion des entrées-sorties en environnement virtualisé. Un domaine dans lequel les deux
constructeurs vont encore évoluer durant l'année.
RI – 2009
20/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
Trois virtualisations pour l'utilisateur
1- L'application virtualisée
L'application et ses composants sont assemblés avec des bibliothèques génériques dans un seul
fichier exécutable. Bénéfices : aucune étape d'installation n'est nécessaire ; l'application peut
s'exécuter depuis un support externe ou le réseau et sur n'importe quel poste, indépendamment de
la version du Windows qui tourne sur l'hôte.
2- L'environnement virtuel invité
Un système complet démarre et fonctionne de manière autonome au sein de l'environnement
hôte.
Bénéfice : on étend le champ des applications utilisables aux anciens programmes sous Windows
NT ou OS/2 et aux programmes non compatibles tel Photoshop sur un hôte Linux.
3- L'environnement virtuel déporté
La machine virtuelle est exécutée à distance sur un serveur, et seul son affichage est déporté sur
le poste utilisateur. Bénéfices : l'administration des environnements virtuels est centralisée ; les
environnements sont accessibles de tous les postes, et ces derniers peuvent être des clients légers.
Trois promesses pour l'administrateur
1- Abstraction du réseau
Les machines virtuelles sont éventuellement regroupées en sous-réseaux, indépendamment de
leur emplacement physique. Le commutateur physique se divise en plusieurs commutateurs
virtuels, un par sous-réseau. Défi : répartir au mieux la bande passante entre les liaisons
physiques.
2- Machines déplaçables
Pour mieux répartir les charges de travail, l'administrateur peut déplacer les machines virtuelles
d'un serveur physique à l'autre. Les serveurs physiques doivent être reliés à la même ressource de
stockage afin de toujours accéder à toutes les images des machines virtuelles, et il est
actuellement nécessaire que les serveurs source et destination aient exactement le même modèle
de processeur.
3- Stockage agnostique
La baie de disques fournit aux serveurs une représentation de l'espace de stockage en masquant
les protocoles qu'elle utilise et en proposant des capacités plus importantes qu'elles ne le sont
vraiment.
RI – 2009
21/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
Trois enjeux pour les éditeurs
1- Mieux convertir
Plusieurs problèmes persistent lors du passage d'une machine physique à une machine virtuelle
et vice versa, parmi lesquels l'adaptation non automatique d'anciennes configurations comme
Windows NT. L'usage veut que l'on effectue une réinstallation du système et de ses applications
à chaque reprise.
2- Rationaliser les licences
Le nombre de machines virtuelles en cours de fonctionnement ne dépend pas du nombre de
cœurs présents dans l'hôte physique. Il est fonction de la charge de travail supportable par le
serveur physique et de sa quantité de mémoire. Cependant, les licences logicielles sont la plupart
du temps calculées selon le nombre de cœurs.
3- Offrir l'interopérabilité
Différentes solutions de virtualisation ne travaillent pas bien ensemble. Toutes parviennent à
importer et exporter les images VMDK de VMware, mais il s'agit juste d'un format d'échange à
froid.
Vrai/Faux
La virtualisation réduit les coûts d'acquisition
Faux. La virtualisation suppose l'acquisition de nouveaux matériels prêts à la recevoir (mémoire
étendue, processeurs multicœurs de dernière génération…). S'ajoutent à la facture les outils
d'administration. Et le nombre de licences logicielles dépend, lui, de la quantité – en expansion –
des serveurs virtuels et non du nombre de serveurs physiques.
La virtualisation sert à réaliser des économies dans le centre de données
Faux. Le but de la virtualisation est de gagner en souplesse en se libérant des contraintes du
matériel en termes de répartition des charges. Sur la durée, un retour sur investissement positif
n'est que la preuve d'un centre de données correctement réorganisé et virtualisé.
Tout est virtualisable
Faux. Tout ce qui a vocation à être figé, comme le référentiel, l'annuaire, la base de données ou
le middleware ne gagne pas forcément à être virtualisé. Par ailleurs, même s'il est techniquement
possible de faire fonctionner des applications au sein de machines virtuelles, cette éventualité
pourra être interdite par le contrat de support de certains éditeurs.
2 questions à…
Lionel Cavallière, directeur marketing de VMware
VMware entend-il se substituer aux OS traditionnels ?
« On ne remet pas en cause la pertinence de Windows ou de Linux. Mais, pour optimiser
l'utilisation de ressources matérielles récentes comme les processeurs multicœurs, les systèmes
d'exploitation traditionnels ne représentent pas la bonne approche dans les machines virtuelles,
au-dessus des hyperviseurs. »
Et que faites-vous pour les serveurs non x86 ?
« Les x86 représentent 95 % du volume des ventes de serveurs. Nous savons qu'une partie des
applications critiques des grandes entreprises reste sur des architectures Risc, Itanium et grands
systèmes, dans des configurations conçues pour la haute disponibilité. Tous les comptes du CAC
40 utilisent pourtant nos technologies. Nous ne nous substituons pas aux fonctionnalités offertes
par les serveurs d'entreprise, nous prouvons qu'avec des serveurs standardisés la même fiabilité
et la même robustesse sont à la portée de toutes les entreprises, même des PME. »
RI – 2009
22/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
6
L'avis du consultant
Cédric Bravo (SSII Neos-SDI) : « anticiper les effets de la virtualisation »
« L'entreprise ne découvrira le gain le plus significatif de la virtualisation que lorsqu'elle se
posera la question de la gestion du changement. À ce moment, on s'apercevra que la
virtualisation rendra les déménagements et les plans de reprise d'activité beaucoup plus simples.
On estime qu'elle permettra de diviser par quatre ou cinq la facture de la prochaine migration. À
l'inverse, la virtualisation concentre les risques liés à la consolidation, notamment le fait de voir
non plus une machine physique mais 20 machines virtuelles tomber en panne d'un coup. Par
conséquent, un simple centre de données pourrait devenir aussi critique qu'un cluster haute
disponibilité. Que ce soit pour les bénéfices ou les risques, on manque encore de retours
d'expériences, mais il semble que nous devrons apprendre à déléguer autrement l'administration
des systèmes. »
L'avis de l'intégrateur
Christian Marty (ICT) : « il faut virtualiser partout où c'est possible »
« En appliquant la virtualisation chez nos clients, nous avons pu prendre vis-à-vis d'eux des
engagements de résultats, et non plus seulement de moyens, sur leur continuité d'activité. En tant
qu'hébergeur, nous avons mis en œuvre ces mêmes principes sur nos propres équipements,
partout où on pouvait, pour les rendre plus disponibles et plus souples. Cela procure une
remarquable simplification de la gestion du datacenter et de ses ressources. Par exemple, un de
nos clients, éditeur, voulait publier son application en ASP pour cinq utilisateurs. Mais un
serveur physique loué n'est rentable qu'à partir de 15 utilisateurs, et cet éditeur ne savait pas créer
plusieurs instances isolées de son application sur la même machine. En virtualisant, on a pu créer
une machine adaptée à sa demande ainsi qu'un modèle de serveur virtuel à partir duquel il
configure des plates-formes ASP selon ses besoins. La virtualisation donne de la réalitéau
modèle Saas. »
Renaud BONNET
Yann SERRA
RI – 2009
23/24
www.01informatique.fr
01 Informatique n° 1966 – 16/10/08
7
Les risques de sécurité accrus par la virtualisation
Le portage de plusieurs instances virtuelles sur un même serveur physique augmente le
degré de vulnérabilité de la machine. Une pression supplémentaire pour les DSI et les
RSSI.
La virtualisation entraîne une augmentation des risques de sécurité informatique. C'est le
magazine américain Network World qui tire la sonnette d'alarme en publiant une étude sur le
sujet.
La raison du phénomène : une machine supportant plusieurs serveurs virtuels est
mathématiquement plus vulnérable qu'un serveur physique doté d'une seule instance de système.
Les directeurs des systèmes d'information (DSI) et les responsables sécurité informatique (RSSI)
commencent à prendre conscience de cette difficulté.
Selon une étude menée sur le sujet par Network World auprès de 250 lecteurs, 36 % des
entreprises ont déjà réalisé que la virtualisation présente un facteur de risque plus important
qu'un environnement traditionnel. La moitié de ces sociétés se sont déjà engagées dans des
déploiements visant à renforcer leur infrastructure virtuelle – telle la mise en place de pare feu
spécifiques ou la définition de politiques de segmentation réseau au sein de leurs LAN virtuel.
Quant à l'autre moitié, elle intègre aux agents de détection d'intrusion des alarmes sur le trafic
virtuel.
Un tiers des répondants ne pensent pas que la virtualisation soit un facteur augmentant la
vulnérabilité des systèmes. Les 30 % restant reconnaissent le risque, mais estiment que les
vendeurs de solutions virtuelles n'ont pas besoin d'intégrer de fonctions de sécurité à leurs
produits... Une vision qui n'est pas partagée par les experts en sécurité qui estiment que la
virtualisation doit faire l'objet de mesures de sécurité particulière, avec à la clé l'usage de
dispositifs de filtrage de flux réseau.
Avec la multiplication des machines faisant tourner plusieurs OS et configurations systèmes, il
est clair que les DSI et les RSSI n'ont plus droit à l'erreur en matière de sécurité informatique.
Sur un serveur physique virtualisé, un problème sur l'un des moteurs d'émulation, dû à
l'exploitation d'une faille par exemple, peut en effet entraîner des perturbations au sein des autres
instances voire la mise hors service de l'ensemble de la machine – notamment si la mémoire est
saturée.
Parmi les règles à suivre, il est recommandé de s'assurer de la mise à niveau permanente de ses
machines virtuelles et des systèmes qu'elles supportent en matière de correctifs. Un lieu commun
qu'il est toujours bon de rappeler. Comme tout autre application, l'environnement ainsi que
l'historique de ses configurations doivent être pris en compte dans la base de gestion parc. Autre
élément fondamental, la gestion des droits d'accès ne pourra pas faire défaut, avec idéalement
une centralisation de celle-ci par le biais d'une plate-forme d'annuaire d'entreprise.
Dans certains cas, la mise en place de zone démilitarisée (ici virtuelle) est conseillée, en vue
notamment de protéger une base de données dont la valeur est plus sensible que l'application
"front office". Et pourquoi pas activer également dans certains cas des mécanismes de
sauvegarde et de duplication de données sur des serveurs tiers (virtuels ou physiques).
Ainsi, on retrouvera dans le monde virtuel l'ensemble des processus de sécurité traditionnels... en
fonction des besoins.
Antoine CROCHET-DAMAIS
JDN Solutions
RI – 2009
24/24
www.journaldunet.com