JPEG in Word > PDF
Transcription
JPEG in Word > PDF
Bonnes pratiques d'architecture de stockage dans les environnements virtualisés Tirer parti des évolutions technologiques du stockage pour gagner en performance, simplifier la gestion et réduire les coûts dans votre environnement virtualisé Aperçu La virtualisation vous permet d'optimiser l'utilisation et l'efficacité de votre infrastructure. Toutefois, sans planification adéquate, elle peut créer des défis majeurs, notamment en termes de complexité accrue, de l’augmentation des coûts de gestion et des tâches de sauvegardes chronophages. L’un des aspects essentiels d'un projet de virtualisation réside dans le choix de la bonne plateforme de stockage pour éviter tout problème de performances. Hélas, les anciens systèmes de stockage ayant été conçus avant la virtualisation, l'arrivée des disques durs à haute densité et de la mémoire Flash, ils ne permettent donc pas de répondre aux besoins techniques indispensables à un projet de virtualisation. Comprendre les dernières évolutions des technologies de stockage est alors crucial pour planifier l'architecture de stockage des serveurs virtuels afin d’en réduire le coût total de possession (TCO) à long terme, aussi bien pour le stockage principal que celui de secours, ainsi que les coûts afférents liés au réseau pour la sauvegarde et la reprise d’activités. Choisir la mauvaise architecture de stockage peut donc nuire gravement à la capacité d'allouer des ressources aux applications et à leur restauration en cas d’incidents, sans parler des pertes de productivité globale de votre entreprise. Ce document vous aidera à assimiler comment les avancements technologiques en matière de stockage peuvent vous aider à exploiter au maximum votre infrastructure virtualisée. Configuration du stockage virtuel Planifier la mise en place d’un environnement virtuel consiste en premier lieu à choisir la couche de stockage car celle-ci aura un impact direct sur l’ensemble des fonctionnalités de l'infrastructure virtuelle. Pour cela, plusieurs options existent, chacune présentant des avantages et inconvénients, d'où la difficulté de faire un choix pertinent. La décision en termes de plateforme de stockage exige donc un examen attentif car l'infrastructure virtuelle étant par nature partagée, les délais de déploiement risquent d’augmenter ; et les performances, se réduire. Configuration du stockage tout-en-un De nombreux déploiements de stockage virtuel débutent par la méthode classique consistant à créer, puis à formater un gros volume de stockage avec un système de fichiers VMFS/NTFS natif, ou partagé, dit NFS ; et à placer tous les disques virtuels sur ce volume. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 1 Cette méthode élimine le besoin de configurer à nouveau l'infrastructure de stockage lors du provisionnement de nouveaux serveurs virtuels, en informant simplement les administrateurs de stocker les nouvelles machines virtuelles et leurs disques virtuels sur une baie particulière. Toutefois, cette méthode présente un risque de corruption pouvant impacter l'environnement tout entier. La protection d’un système de fichiers partagé est inconditionnelle, ce qui implique une forte croissance des besoins de stockage pour les « snapshots » et de la bande passante du réseau WAN nécessaire au plan de reprise d'activité hors site. Ainsi, cette méthode peut réduire le temps consacré à la gestion, mais le prix à payer risque d'être très lourd en termes d'espace gaspillé et de coûts mensuels de la bande passante réseau. Configuration du stockage adaptée aux exigences applicatives Pour les applications ayant des besoins divergents en termes de performance et de résilience, la meilleure solution consiste à séparer les disques virtuels au sein de leurs propres volumes de stockage. Cette méthode assure une gestion beaucoup plus flexible. De plus, un système de stockage doté de fonctions intégrées simplifiera grandement le provisionnement des volumes initiaux tout en offrant le meilleur contrôle sur les niveaux de performance et de protection des données des différentes applications. La séparation des volumes prévient également les risques de corruption du système de fichiers et permet d'établir des plans de protection basés sur les niveaux de services propres à chaque volume. Par exemple, si vous voulez créer des « snapshots » fréquents et répliquer une base de données vitale en constante évolution alors que des « snapshots » quotidiens s’effectuent pour le disque virtuel du système d'exploitation d'un autre serveur qui connaît peu de modifications, la gestion distincte du stockage permettra de surveiller la performance et l'utilisation pour chaque serveur d'applications. Cette méthode s’avèrera très intéressante car chaque serveur possède des besoins spécifiques qui varient dans le temps. Un autre aspect clé réside dans la séparation des disques virtuels du système d'exploitation et des données. Bien qu'il s'agisse d'une bonne pratique établie pour une protection adéquate des données du serveur physique, cela présentent des besoins très différents en termes d'E/S pour les volumes du système d'exploitation, des bases de données et des journaux de transactions. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 2 Aligner les paramètres de dimensionnement des applications et de performance permettra donc de gagner en IOPS (Input/Output Operations Per Second, ou nombre d'opérations d'entrée/sortie par seconde). Il en résultera une meilleure consolidation des machines virtuelles et prolongation de la durée de vie du stockage. Clonage sans copie Grâce aux systèmes de stockage avancés, il est possible de réduire nettement l'encombrement des volumes à usage courant, tel que ceux des systèmes d'exploitation, en créant des clones sans copie (Zero-Copy Cloning) du volume qui se limiteront aux seules modifications réalisées avec les images de base. Par exemple, ce clonage sans copie permet le provisionnement fin d'un volume d'image de base de 50 Go, puis le partage de l'espace alloué avec des clones ne stockant que les modifications de configuration, comme les noms de serveur virtuel, ainsi que les adresses IP uniques et les applications. Cela réduit considérablement le temps et l'espace de stockage nécessaires pour déployer de nouveaux systèmes, tout en optimisant la bande passante réseau et en copiant des modèles de système d'exploitation. C o m p r e s s i o n e t t a ille de bloc La compression est une ancienne fonction des systèmes de fichiers mais qui a été rarement utilisée à cause des ressources CPU qu’elle requiert. De nombreux fournisseurs de matériel classique offrent des outils de compression mais sont pénalisés par le fait que leurs systèmes de fichiers internes ne sont pas conçus pour contenir des blocs de tailles variables. Ils utilisent des blocs de taille fixe et ne permettent donc pas de stocker efficacement les blocs compressés sans risquer de dépasser les limites et d'imposer d'autres E/S pour satisfaire les lectures/écritures. Les espaces de bloc inutilisés sont ainsi gaspillés. De plus, le système de fichiers subit une fragmentation, ce qui ralentit davantage le stockage car il faut rechercher des espaces libres pour y loger les blocs compressés. La durée de vie utile du matériel de stockage est donc gravement impactée. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 3 Les systèmes de stockage modernes tirent parti de nouvelles technologies, tel que les processeurs multicœurs, pour assurer la compression et délester les serveurs d'applications des cycles de traitement. De plus, ils utilisent efficacement des blocs de taille variable pour le contenu compressé et écrivent les données en séries de blocs à parité pour éviter la fragmentation. Plusieurs systèmes de fichiers avancés écrivent en séries de blocs de taille variable pour réduire le nombre d'E/S physiques aléatoires. Toutefois, certaines séries n'optimisent pas toute la taille du groupe ou de la baie de disques, créant ainsi des vides dans le système de fichiers qui engendrent de petites E/S aléatoires. L'écriture par bande dans des blocs à longueur variable en série complète optimise l'efficacité des disques durs en minimisant le déplacement des têtes magnétiques physiques qui nuit à la vitesse d'écriture. Les systèmes de fichiers qui intègrent en natif des disques Flash comme mécanisme de cache améliorent nettement la vitesse de lecture tout en évitant le stockage de données très utilisées sur le disque. La consolidation s'opère via un processus de balayage exécuté pendant les périodes d'inactivité pour déplacer efficacement les blocs de taille variable vides causés par la suppression de données ou encore de « snapshots » expirés. Points relatifs à la sauvegarde, la restauration et la reprise d'activité Les décisions en matière d'architecture de stockage pour les environnements virtuels influent également sur les capacités de sauvegarde. Trois méthodes sont habituellement utilisées pour protéger l'environnement virtuel, selon où a lieu le processus de sauvegarde : sur le client, sur l'hôte ou au niveau du stockage. La sauvegarde sur le client fonctionne fondamentalement comme une sauvegarde classique sur un serveur physique. Cette méthode nécessite l'installation et la mise à jour d'un ou de plusieurs agents de sauvegarde sur le serveur. Les agents se coordonnent alors avec le serveur et les applications pour les placer dans un état inactif qui garantit l'intégrité des données. Pour la plupart des ensembles de données, l'état inactif revêt une extrême importance pendant le processus de sauvegarde car il vise à éviter que des utilisateurs effectuent des modifications invalidant le contenu pas encore sauvegardé. Par exemple, pendant la sauvegarde de données des commandes d’un client, celui-ci change son adresse. La sauvegarde s'effectue mais la corruption des données applicatives sauvegardées ne sera découverte qu'après une panne système lors de sa restauration. L'enregistrement de commande client contient à présent une adresse client incorrecte. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 4 L'agent de sauvegarde joue donc ce rôle : garantir qu'il est impossible de modifier toutes données pendant le processus de sauvegarde pour éviter une corruption. Les agents de sauvegarde possèdent une image négative à cause de la lourdeur administrative qu'impliquent l'installation et les mises à jour récurrentes de ces derniers. Un agent est nécessaire pour assurer l'intégrité de pratiquement tous les types de données. Les éditeurs de logiciels de sauvegarde conçoivent leurs offres de sorte à permettre l'essor d'outils de sauvegarde sur l'hôte qui s'intègrent à son hyperviseur, plutôt qu'à chaque machine virtuelle. Régulièrement, le processus de sauvegarde demande à l'hyperviseur de placer les machines virtuelles en état inactif pour permettre la sauvegarde des disques virtuels sous-jacents. Les solutions de sauvegarde sur l'hôte ne gèrent donc pas les applications en natif et n'assurent qu'une cohérence matérielle (crash consistency), et non pas applicative (application consistency). Microsoft Hyper-V permet un transfert d'intégration entre l'hôte et ses clients virtuels, transmettant la demande de mise en veille jusqu'à l'application en cours d'exécution. Toutefois, seul Microsoft Hyper-V offre cette méthode. Donc, sans l'aide d'agents fonctionnant sur le client, les sauvegardes VMware se limiteraient à une cohérence matérielle, et non applicative. Sans cette dernière, il serait impossible de garantir la protection des données. De même, les sauvegardes classiques sur le matériel de stockage ne reconnaissent pas les applications. Ainsi, bien que la gestion d'agents s'impose pour garantir l'intégrité des données des sauvegardes, et que les éditeurs de logiciels continuent de manière autonome à améliorer la mise à jour, l'agent requiert une installation dans une image de base et un déploiement automatique via des clones de stockage. La solution de sauvegarde idéale devrait pouvoir éliminer la surcharge des clients et des hôtes en délestant le processus de sauvegarde vers le stockage sans nuire à la cohérence applicative. Les plateformes de stockage modernes fournissent des agents légers qui coordonnent correctement la mise en veille des applications avec une surcharge négligeable permettant une sauvegarde efficiente au niveau stockage qui élimine les risques de corruption des données applicatives. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 5 Fréquence de protection (RPO) Un autre facteur réside dans la fréquence des sauvegardes ponctuelles. Idéalement, il faut effectuer des sauvegardes à des intervalles très courts pour éviter la perte de données. Un défi associé aux sauvegardes fréquentes sur l'hôte et le client est le besoin en ressources CPU et des E/S pour identifier les données modifiées à sauvegarder fréquemment. Cette opération a un gros impact en termes de ressources détournées de l'application et de tout autre serveur virtuel fonctionnant sur cet hôte pendant une sauvegarde induisant une perte de performances. De plus, ces modes de sauvegarde présentent l'inconvénient de mobiliser du temps et de la bande passante réseau pour copier les données modifiées sur le support cible. L'utilisation de snapshots de stockage permet de surmonter ce défi. Toutefois, comme déjà mentionné, il faut un agent de sauvegarde sur le client pour garantir l'intégrité des données. Ainsi, les outils de sauvegarde au niveau stockage combinés à des agents orientés application offrent la meilleure solution qui suspend les E/S sans affecter l'application en production grâce à un transfért du processus de sauvegarde vers la couche de stockage. Cette méthode permet des sauvegardes plus fréquentes comparée à celles sur l'hôte ou le client. Considérations sur la méthodologie de « snapshot » Traditionnellement, les « snapshots » de stockage ne conviennent pas aux sauvegardes ponctuelles à des intervalles courts ou à la conservation au-delà d'une semaine car ils engendrent trop d'interruptions de services et occupent de grandes quantités d'espace disque. Ces anciens clichés sont regroupés dans la catégorie des « snapshots » copie sur écriture (copy-on-write, COW), car un bloc de données qui va changer est copié vers un autre emplacement de stockage afin de libérer de l'espace pour le nouveau bloc. Ce processus nuit aux performances en créant une opération de lecture-écriture pour chaque écriture applicative. Malgré les progrès technologiques des « snapshots », il est impossible d'adapter les nouvelles techniques aux anciennes architectures de stockage qui sont étroitement liées au système de fichiers sous-jacent. GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 6 Les fournisseurs actuels ont l'avantage de pouvoir créer leurs plateformes de stockage en adoptant les progrès technologiques récents, comme la mémoire Flash et les « snapshots » de redirection sur écriture (redirect-on-write, ROW). Très efficaces, les « snapshots » ROW actualisent simplement les pointeurs de métadonnées du volume pour identifier les modifications ne nécessitant donc pas d'autre opération de lecture-écriture pour chaque écriture applicative. Les nouvelles plateformes de stockage peuvent alors utiliser la mémoire rémanente ultra-rapide pour mettre en cache les métadonnées de système de fichiers ce qui permet de créer des « snapshots » à des intervalles très courts (mesuré en minutes) et de conserver d'anciennes sauvegardes ponctuelles plus longtemps (mesuré en mois). Combiner la compression et le partage de blocs aux fonctions de « snapshot » réduit davantage la quantité d'espace de stockage nécessaire pour atteindre les objectifs de point de restauration (recovery point objective, RPO). Restauration et reprise d'activité L'efficacité des sauvegardes de serveurs virtuels se mesure par la capacité de restaurer correctement des données à un instant précis. Alors qu’une bande magnétique présente toujours un risque de panne susceptible d'impacter le RPO, l'adoption d'outils de sauvegarde sur disque permet de l'atténuer grandement. Toutefois, les deux méthodes exigent de la bande passante réseau et du temps pour restaurer les données sur le système de stockage principal avant de redémarrer les applications. De grands volumes de données demandent en général des heures, voire des jours pour être restaurés. En cas de réseau très sollicité lors de l’opération, les objectifs de temps de restauration peuvent s'étirer considérablement. Ce problème a engendré l’apparition d'une nouvelle génération de produits qui utilisent le concept de stockage convergent, rassemblant les sauvegardes des données principales et de celles de secours au sein d’une même architecture, éliminant ainsi l’encombrement réseau aussi bien pour la sauvegarde que la restauration. Un plan de reprise d'activité a toujours constitué un investissement lourd pour la DSI. La bande passante qu'exige la réplication et son TCO (total cost ownership) dépassent à présent les coûts de serveur comme obstacle majeur pour sa mise en place. Ajouté après coup dans les technologies de stockage classiques, la réplication y est peu performante et ne convient donc pas bien au stockage principal. L'un des challenges qui entrave l'efficacité de la réplication au sein de système de stockage classique réside dans le manque de considération de l’application qui oblige à stocker les écritures applicatives dans des blocs conteneurs d’une taille bien plus grande que seulement celle de la modification réelle des données. Cette méthode impose la création d'un « snapshot » et de la réplication pour le bloc de stockage entier, car il est impossible d'isoler les modifications à un niveau granulaire plus précis. Par exemple, un serveur SQL Server écrit une modification de 8 Ko dans une base de données de 1 To. La plupart des systèmes de stockage créera alors un « snapshot » et répliquera au minimum un bloc de 64 Ko, demandant alors 8 fois plus en bande passante que la modification réelle des données. Pour une modification identique, certaines plateformes de stockage iront jusqu'à répliquer un bloc de 256 Ko, demandant alors 64 fois plus de bande passante… GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 7 Conclusion Les nouvelles technologies de stockage, comme la reconnaissance des applications, la taille de bloc variable ou encore la compression, offrent d'importantes améliorations par rapport aux anciennes architectures de stockage. Combiner la mémoire Flash aux disques économiques de grande capacité élimine alors la nécessité d’investir dans des périphériques très rapides, et aussi très coûteux, pour le stockage principal de vos données. Les systèmes convergents allient le stockage principal et secondaire, ainsi qu'une reconnaissance efficace des applications pour la reprise d'activité au sein d’une même architecture. Ils améliorent ainsi les performances et éliminent la complexité liée à la gestion de différents périphériques de stockage, réduisant nettement le TCO pour déployer un plan de reprise d'activité. Enfin, vous pourrez également compenser les coûts d'acquisition d'un nouveau système de stockage convergent par les économies importantes réalisées en bande passante réseau et grâce à l'abandon de la plupart de vos anciens logiciels de sauvegarde et matériels traditionnels. Pour découvrir comment les solutions convergées de Nimble Storage alliant stockage iSCSI, sauvegarde et reprise d'activité, peuvent vous aider à gagner en rentabilité et à simplifier la gestion des données de votre environnement virtualisé. Reportez-vous à ces sources d'information : Site Web de Nimble Storage Brève présentation de Nimble Storage Solutions de Nimble Storage pour VMware Nimble Storage 81 Rivington Street, London EC2A 3AY Phone: +33 18488 3176 Email: [email protected] © 2015 Nimble Storage, Inc. All rights reserved. The Nimble Storage logo, CASL, InfoSight, SmartStack, and NimbleConnect are trademarks or reigistered trademarks of Nimble Storage Inc. All other trade names are the property of their respective owners. BPG-SVE- 0915 GUIDE DE BONNES PRATIQUES: ARCHITECTURE DE STOCKAGE DANS LES ENVIRONNEMENTS VIRTUALISÉS 8