JPEG in Word > PDF

Transcription

JPEG in Word > PDF
Bonnes pratiques d'architecture de
stockage dans les environnements
virtualisés
Tirer parti des évolutions technologiques du stockage pour gagner en
performance, simplifier la gestion et réduire les coûts dans votre
environnement virtualisé
Aperçu
La virtualisation vous permet d'optimiser l'utilisation et l'efficacité de votre infrastructure. Toutefois,
sans planification adéquate, elle peut créer des défis majeurs, notamment en termes de complexité
accrue, de l’augmentation des coûts de gestion et des tâches de sauvegardes chronophages. L’un des
aspects essentiels d'un projet de virtualisation réside dans le choix de la bonne plateforme de stockage
pour éviter tout problème de performances. Hélas, les anciens systèmes de stockage ayant été conçus
avant la virtualisation, l'arrivée des disques durs à haute densité et de la mémoire Flash, ils ne
permettent donc pas de répondre aux besoins techniques indispensables à un projet de virtualisation.
Comprendre les dernières évolutions des technologies de stockage est alors crucial pour planifier
l'architecture de stockage des serveurs virtuels afin d’en réduire le coût total de possession (TCO) à long
terme, aussi bien pour le stockage principal que celui de secours, ainsi que les coûts afférents liés au
réseau pour la sauvegarde et la reprise d’activités. Choisir la mauvaise architecture de stockage peut
donc nuire gravement à la capacité d'allouer des ressources aux applications et à leur restauration en
cas d’incidents, sans parler des pertes de productivité globale de votre entreprise.
Ce document vous aidera à assimiler comment les avancements technologiques en matière de
stockage peuvent vous aider à exploiter au maximum votre infrastructure virtualisée.
Configuration du stockage virtuel
Planifier la mise en place d’un environnement virtuel consiste en premier lieu à choisir la couche de
stockage car celle-ci aura un impact direct sur l’ensemble des fonctionnalités de l'infrastructure
virtuelle. Pour cela, plusieurs options existent, chacune présentant des avantages et inconvénients,
d'où la difficulté de faire un choix pertinent. La décision en termes de plateforme de stockage exige
donc un examen attentif car l'infrastructure virtuelle étant par nature partagée, les délais de
déploiement risquent d’augmenter ; et les performances, se réduire.
Configuration du stockage tout-en-un
De nombreux déploiements de stockage virtuel débutent par la
méthode classique consistant à créer, puis à formater un gros volume
de stockage avec un système de fichiers VMFS/NTFS natif, ou partagé,
dit NFS ; et à placer tous les disques virtuels sur ce volume.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
1
Cette méthode élimine le besoin de configurer à nouveau l'infrastructure de stockage lors du
provisionnement de nouveaux serveurs virtuels, en informant simplement les administrateurs de
stocker les nouvelles machines virtuelles et leurs disques virtuels sur une baie particulière. Toutefois,
cette méthode présente un risque de corruption pouvant impacter l'environnement tout entier.
La protection d’un système de fichiers partagé est inconditionnelle, ce qui implique une forte croissance
des besoins de stockage pour les « snapshots » et de la bande passante du réseau WAN nécessaire au
plan de reprise d'activité hors site. Ainsi, cette méthode peut réduire le temps consacré à la gestion,
mais le prix à payer risque d'être très lourd en termes d'espace gaspillé et de coûts mensuels de la
bande passante réseau.
Configuration du stockage adaptée aux exigences applicatives
Pour les applications ayant des besoins divergents en termes de performance et de résilience, la
meilleure solution consiste à séparer les disques virtuels au sein de leurs propres volumes de
stockage. Cette méthode assure une gestion beaucoup plus
flexible. De plus, un système de stockage doté de fonctions
intégrées simplifiera grandement le provisionnement des volumes
initiaux tout en offrant le meilleur contrôle sur les niveaux de
performance et de protection des données des différentes applications. La séparation des volumes
prévient également les risques de corruption du système de fichiers et permet d'établir des plans de
protection basés sur les niveaux de services propres à chaque volume.
Par exemple, si vous voulez créer des « snapshots » fréquents et répliquer une base de données vitale
en constante évolution alors que des « snapshots » quotidiens s’effectuent pour le disque virtuel du
système d'exploitation d'un autre serveur qui connaît peu de modifications, la gestion distincte du
stockage permettra de surveiller la performance et l'utilisation pour chaque serveur d'applications.
Cette méthode s’avèrera très intéressante car chaque
serveur possède des besoins spécifiques qui varient
dans le temps.
Un autre aspect clé réside dans la séparation des
disques virtuels du système d'exploitation et des
données. Bien qu'il s'agisse d'une bonne pratique
établie pour une protection adéquate des données
du serveur physique, cela présentent des besoins
très différents en termes d'E/S pour les volumes
du système d'exploitation, des bases de données
et des journaux de transactions.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
2
Aligner les paramètres de dimensionnement des applications et de performance permettra donc de
gagner en IOPS (Input/Output Operations Per Second, ou nombre d'opérations d'entrée/sortie par
seconde). Il en résultera une meilleure consolidation des machines virtuelles et prolongation de la durée
de vie du stockage.
Clonage sans copie
Grâce aux systèmes de stockage avancés, il est possible de réduire nettement l'encombrement des
volumes à usage courant, tel que ceux des systèmes d'exploitation, en créant des clones sans copie
(Zero-Copy Cloning) du volume qui se limiteront aux seules modifications réalisées avec les images de
base. Par exemple, ce clonage sans copie permet le provisionnement fin d'un volume d'image de base
de 50 Go, puis le partage de l'espace alloué avec des clones ne stockant que les modifications de
configuration, comme les noms de serveur virtuel, ainsi que les adresses IP uniques et les applications.
Cela réduit considérablement le temps et l'espace de stockage nécessaires pour déployer de nouveaux
systèmes, tout en optimisant la bande passante réseau et en copiant des modèles de système
d'exploitation.
C
o
m
p
r
e
s
s
i
o
n
e
t
t
a
ille de bloc
La compression est une ancienne fonction des systèmes de fichiers mais qui a été rarement utilisée à
cause des ressources CPU qu’elle requiert. De nombreux fournisseurs de matériel classique offrent des
outils de compression mais sont pénalisés par le fait que leurs systèmes de fichiers internes ne sont pas
conçus pour contenir des blocs de tailles variables.
Ils utilisent des blocs de taille fixe et ne permettent donc pas de stocker efficacement les blocs
compressés sans risquer de dépasser les limites et d'imposer d'autres E/S pour satisfaire les
lectures/écritures. Les espaces de bloc inutilisés sont ainsi gaspillés. De plus, le système de fichiers
subit une fragmentation, ce qui ralentit davantage le stockage car il faut rechercher des espaces libres
pour y loger les blocs compressés. La durée de vie utile du matériel de stockage est donc gravement
impactée.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
3
Les systèmes de stockage modernes
tirent parti de nouvelles technologies,
tel que les processeurs multicœurs,
pour assurer la compression et délester
les serveurs d'applications des cycles
de traitement.
De plus, ils utilisent efficacement des
blocs de taille variable pour le contenu
compressé et écrivent les données en
séries de blocs à parité pour éviter la
fragmentation.
Plusieurs
systèmes
de
fichiers
avancés écrivent en séries de blocs
de taille variable pour réduire le
nombre d'E/S physiques aléatoires.
Toutefois, certaines séries n'optimisent pas toute la taille du groupe ou de la baie de disques, créant
ainsi des vides dans le système de fichiers qui engendrent de petites E/S aléatoires. L'écriture par
bande dans des blocs à longueur variable en série complète optimise l'efficacité des disques durs en
minimisant le déplacement des têtes magnétiques physiques qui nuit à la vitesse d'écriture.
Les systèmes de fichiers qui intègrent en natif des disques Flash comme mécanisme de cache
améliorent nettement la vitesse de lecture tout en évitant le stockage de données très utilisées sur le
disque. La consolidation s'opère via un processus de balayage exécuté pendant les périodes
d'inactivité pour déplacer efficacement les blocs de taille variable vides causés par la suppression de
données ou encore de « snapshots » expirés.
Points relatifs à la sauvegarde, la restauration et la reprise d'activité
Les décisions en matière d'architecture de stockage pour les environnements virtuels influent également
sur les capacités de sauvegarde. Trois méthodes sont habituellement utilisées pour protéger
l'environnement virtuel, selon où a lieu le processus de sauvegarde : sur le client, sur l'hôte ou au niveau
du stockage. La sauvegarde sur le client fonctionne fondamentalement comme une sauvegarde
classique sur un serveur physique. Cette méthode nécessite l'installation et la mise à jour d'un ou de
plusieurs agents de sauvegarde sur le serveur. Les agents se coordonnent alors avec le serveur et les
applications pour les placer dans un état inactif qui garantit l'intégrité des données. Pour la plupart des
ensembles de données, l'état inactif revêt une extrême importance pendant le processus de sauvegarde
car il vise à éviter que des utilisateurs effectuent des modifications invalidant le contenu pas encore
sauvegardé.
Par exemple, pendant la sauvegarde de données des commandes d’un client, celui-ci change son
adresse. La sauvegarde s'effectue mais la corruption des données applicatives sauvegardées ne sera
découverte qu'après une panne système lors de sa restauration. L'enregistrement de commande client
contient à présent une adresse client incorrecte.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
4
L'agent de sauvegarde joue donc ce rôle : garantir qu'il est impossible de modifier toutes données
pendant le processus de sauvegarde pour éviter une corruption. Les agents de sauvegarde possèdent
une image négative à cause de la lourdeur administrative qu'impliquent l'installation et les mises à jour
récurrentes de ces derniers. Un agent est nécessaire pour assurer l'intégrité de pratiquement tous les
types de données. Les éditeurs de logiciels de sauvegarde conçoivent leurs offres de sorte à permettre
l'essor d'outils de sauvegarde sur l'hôte qui s'intègrent à son hyperviseur, plutôt qu'à chaque machine
virtuelle. Régulièrement, le processus de sauvegarde demande à l'hyperviseur de placer les machines
virtuelles en état inactif pour permettre la sauvegarde des disques virtuels sous-jacents.
Les solutions de sauvegarde sur l'hôte ne gèrent donc pas les applications en natif et n'assurent qu'une
cohérence matérielle (crash consistency), et non pas applicative (application consistency). Microsoft
Hyper-V permet un transfert d'intégration entre l'hôte et ses clients virtuels, transmettant la demande de
mise en veille jusqu'à l'application en cours d'exécution. Toutefois, seul Microsoft Hyper-V offre cette
méthode. Donc, sans l'aide d'agents fonctionnant sur le client, les sauvegardes VMware se limiteraient à
une cohérence matérielle, et non applicative. Sans cette dernière, il serait impossible de garantir la
protection des données.
De même, les sauvegardes classiques sur le matériel de stockage ne reconnaissent pas les
applications. Ainsi, bien que la gestion d'agents s'impose pour garantir l'intégrité des données des
sauvegardes, et que les éditeurs de logiciels continuent de manière autonome à améliorer la mise à
jour, l'agent requiert une installation dans une image de base et un déploiement automatique via des
clones de stockage. La solution de sauvegarde idéale devrait pouvoir éliminer la surcharge des clients
et des hôtes en délestant le processus de sauvegarde vers le stockage sans nuire à la cohérence
applicative. Les plateformes de stockage modernes fournissent des agents légers qui coordonnent
correctement la mise en veille des applications avec une surcharge négligeable permettant une
sauvegarde efficiente au niveau stockage qui élimine les risques de corruption des données
applicatives.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
5
Fréquence de protection (RPO)
Un autre facteur réside dans la fréquence des sauvegardes ponctuelles. Idéalement, il faut
effectuer des sauvegardes à des intervalles très courts pour éviter la perte de données. Un défi
associé aux sauvegardes fréquentes sur l'hôte et le client est le besoin en ressources CPU et des E/S
pour identifier les données modifiées à sauvegarder fréquemment. Cette opération a un gros impact en
termes de ressources détournées de l'application et de tout autre serveur virtuel fonctionnant sur cet
hôte pendant une sauvegarde induisant une perte de performances.
De plus, ces modes de sauvegarde présentent l'inconvénient de mobiliser du temps et de la bande
passante réseau pour copier les données modifiées sur le support cible. L'utilisation de snapshots
de stockage permet de surmonter ce défi. Toutefois, comme déjà mentionné, il faut un agent de
sauvegarde sur le client pour garantir l'intégrité des données. Ainsi, les outils de sauvegarde au
niveau stockage combinés à des agents orientés application offrent la meilleure solution qui
suspend les E/S sans affecter l'application en production grâce à un transfért du processus de
sauvegarde vers la couche de stockage. Cette méthode permet des sauvegardes plus fréquentes
comparée à celles sur l'hôte ou le client.
Considérations sur la méthodologie de « snapshot »
Traditionnellement, les « snapshots » de stockage ne conviennent pas aux sauvegardes ponctuelles à
des intervalles courts ou à la conservation au-delà d'une semaine car ils engendrent trop d'interruptions
de services et occupent de grandes quantités d'espace disque. Ces anciens clichés sont regroupés dans
la catégorie des « snapshots » copie sur écriture (copy-on-write, COW), car un bloc de données qui va
changer est copié vers un autre emplacement de stockage afin de libérer de l'espace pour le nouveau
bloc. Ce processus nuit aux performances en créant une opération de lecture-écriture pour chaque
écriture applicative.
Malgré les progrès technologiques des « snapshots », il est impossible d'adapter les nouvelles
techniques aux anciennes architectures de stockage qui sont étroitement liées au système de fichiers
sous-jacent.
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
6
Les fournisseurs actuels ont l'avantage de pouvoir créer leurs plateformes de stockage en adoptant les
progrès technologiques récents, comme la mémoire Flash et les « snapshots » de redirection sur
écriture (redirect-on-write, ROW). Très efficaces, les « snapshots » ROW actualisent simplement les
pointeurs de métadonnées du volume pour identifier les modifications ne nécessitant donc pas d'autre
opération de lecture-écriture pour chaque écriture applicative.
Les nouvelles plateformes de stockage peuvent alors utiliser la mémoire rémanente ultra-rapide pour
mettre en cache les métadonnées de système de fichiers ce qui permet de créer des « snapshots » à
des intervalles très courts (mesuré en minutes) et de conserver d'anciennes sauvegardes ponctuelles
plus longtemps (mesuré en mois). Combiner la compression et le partage de blocs aux fonctions de
« snapshot » réduit davantage la quantité d'espace de stockage nécessaire pour atteindre les objectifs
de point de restauration (recovery point objective, RPO).
Restauration et reprise d'activité
L'efficacité des sauvegardes de serveurs virtuels se mesure par la capacité de restaurer correctement
des données à un instant précis. Alors qu’une bande magnétique présente toujours un risque de
panne susceptible d'impacter le RPO, l'adoption d'outils de sauvegarde sur disque permet de l'atténuer
grandement. Toutefois, les deux méthodes exigent de la bande passante réseau et du temps pour
restaurer les données sur le système de stockage principal avant de redémarrer les applications.
De grands volumes de données demandent en général des heures, voire des jours pour être restaurés.
En cas de réseau très sollicité lors de l’opération, les objectifs de temps de restauration peuvent
s'étirer considérablement. Ce problème a engendré l’apparition d'une nouvelle génération de produits
qui utilisent le concept de stockage convergent, rassemblant les sauvegardes des données principales
et de celles de secours au sein d’une même architecture, éliminant ainsi l’encombrement réseau
aussi bien pour la sauvegarde que la restauration.
Un plan de reprise d'activité a toujours constitué un investissement lourd pour la DSI. La bande
passante qu'exige la réplication et son TCO (total cost ownership) dépassent à présent les coûts de
serveur comme obstacle majeur pour sa mise en place. Ajouté après coup dans les technologies de
stockage classiques, la réplication y est peu performante et ne convient donc pas bien au stockage
principal.
L'un des challenges qui entrave l'efficacité de la réplication au sein de système de stockage classique
réside dans le manque de considération de l’application qui oblige à stocker les écritures applicatives
dans des blocs conteneurs d’une taille bien plus grande que seulement celle de la modification réelle
des données. Cette méthode impose la création d'un « snapshot » et de la réplication pour le bloc de
stockage entier, car il est impossible d'isoler les modifications à un niveau granulaire plus précis.
Par exemple, un serveur SQL Server écrit une modification de 8 Ko dans une base de données de
1 To. La plupart des systèmes de stockage créera alors un « snapshot » et répliquera au minimum un
bloc de 64 Ko, demandant alors 8 fois plus en bande passante que la modification réelle des
données. Pour une modification identique, certaines plateformes de stockage iront jusqu'à répliquer
un bloc de 256 Ko, demandant alors 64 fois plus de bande passante…
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
7
Conclusion
Les nouvelles technologies de stockage, comme la reconnaissance des applications, la taille de bloc
variable ou encore la compression, offrent d'importantes améliorations par rapport aux anciennes
architectures de stockage. Combiner la mémoire Flash aux disques économiques de grande capacité
élimine alors la nécessité d’investir dans des périphériques très rapides, et aussi très coûteux, pour le
stockage principal de vos données.
Les systèmes convergents allient le stockage principal et secondaire, ainsi qu'une reconnaissance
efficace des applications pour la reprise d'activité au sein d’une même architecture. Ils améliorent ainsi
les performances et éliminent la complexité liée à la gestion de différents périphériques de stockage,
réduisant nettement le TCO pour déployer un plan de reprise d'activité.
Enfin, vous pourrez également compenser les coûts d'acquisition d'un nouveau système de stockage
convergent par les économies importantes réalisées en bande passante réseau et grâce à l'abandon
de la plupart de vos anciens logiciels de sauvegarde et matériels traditionnels.
Pour découvrir comment les solutions convergées de Nimble Storage alliant stockage
iSCSI, sauvegarde et reprise d'activité, peuvent vous aider à gagner en rentabilité et à
simplifier la gestion des données de votre environnement virtualisé.
Reportez-vous à ces sources d'information :
 Site Web de Nimble Storage
 Brève présentation de Nimble Storage
 Solutions de Nimble Storage pour VMware
Nimble Storage
81 Rivington Street, London EC2A 3AY
Phone: +33 18488 3176
Email: [email protected]
© 2015 Nimble Storage, Inc. All rights reserved. The Nimble Storage logo, CASL, InfoSight, SmartStack, and NimbleConnect are trademarks or
reigistered trademarks of Nimble Storage Inc. All other trade names are the property of their respective owners. BPG-SVE- 0915
GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS
8

Documents pareils