VTS et Robotique Mornay
Transcription
VTS et Robotique Mornay
Informatique Groupe Mornay VTS TS7700 JAGUARS et RESTRUCTURATION TSM 2007 Configuration VTS PtP AGME SAPHIR A SAPHIR B 2 FICON 2 FICON 4 FICON 4 FICON IP TS 7700 (VTS) 3592 F05 3592 C06 D23 6000 GO Non compressés 3953 F05 3592 E05 Ajout 3584-L23 TS7700 (VTS) 3592 F05 3953 F05 3584-L23 140 K7 500 Go Lecteurs natifs Lecteurs VTS Service Production 3592 E05 3592 C06 existantes 140 K7 500 Go Lecteurs VTS 2 D23 Sortie Vue z/OS de l’architecture robotique TS7700 en Grid ❐ Composée de 2 robotiques : images de 128 lecteurs virtuels - chaque site a 128 lecteurs virtuels (LCU 0-7) SCDS(Host A) Libname HYDRA ❐ ❐ Chaque host voit une librairie composite, et 2 librairies distribuées. La librairie composite peut avoir jusqu’à 500 000 volumes logiques. SCDS(Host B) Composite Library Sequence# 3584C Libname HYDRA Library Composite Sequence# 3584C TCDB(Host B) Volume Range Libname B00000-B99999 HYDRA TCDB (Host A) Volume Range Libname A00000-A99999 HYDRA UCBs 0x20000x207F UCBs 0x10000x107F Host A Cluster0 Distributed Sequence #A1111 Cluster1 Distributed Sequence #B2222 Host B LCU 0-7 LIBPORT 41-48 LCU 0-7 LIBPORT 01-08 Hydra Domain Composite Library Sequence #3584C Volume Range A00000-A99999, B00000-B99999, Note: Each cluster sees all logical volumes under its own sequence number Service Production 3 Sortie Migration B10 >>> TS7700 ❐ Préparation de consolidation de fichiers sur K7 • Débuté 2 semaines avant la migration • Réduction du nombre de k7 virtuelles (beaucoup de 1 fichier/1 bande résultant de batch) • ( dans certains cas nous avons mis l’équivalent de plusieurs centaines de k7 sur une seule) ❐ ❐ 1338 jobs pour 8 tera NON HSM répartis sur 7430 k7 logiques ( utilisation de idcams repro) 4 téras TSM répartis en 8 millions de fichiers sur 2700 k7 logiques ( movedata en batch et mise en collocation) ❐ 20 téras HSM ( migration recall ) ❐ Toutes les K7 virtuelles en 4 GB ( au lieu de 2 GB) ❐ Migration terminée en 10 jours ( prévu 22 ) Service Production 4 Sortie Mainframe perf ❐ Sauvegarde totale applicative DB2I ( GED de 4 tera 5 ) • Avec B10 : 20 heures • Avec TS7700 : ❐ 5 heures Sauvegarde applicative DB2X ( prod de 850 Gb) • Avec B10 : 90 minutes • Avec TS7700 : 20 minutes ❐ TSM • recycle en 2 heures au lieu de 11 ( 2 fois par semaine) ❐ HSM • Autobackup/autodump : temps elapse divisé par 2 Service Production 5 Sortie Spécifiques hardware (VTS) ❐ 1600 volumes présents dans le cache • Moyenne de 650 heures de résidence • Environ 3 semaine et demi ❐ 5 teras de cache utilisé ❐ Fast ready mount • Temps moyen de 1 seconde ❐ Non fast ready mount • Temps moyen entre 150 et 190 secondes Service Production 6 Sortie Spécifiques hardware (NATIF) ❐ ❐ ❐ ❐ Service Production 6 jaguars en natif • 4 canaux Ficon 4 Gb ( sur 2 x Z9 ( 2 +2)) • K7 de 500 Gb Un lecteur atteint 95 MB/sec ( débit réel avec EXHPDM, impossible à atteindre avec data mover classique) Les 6 lecteurs atteignent 248 MB/sec par canal avec 2 canaux ( limité par le CPU qui est 1 Z9 503 ) ( on a alors 120jobs de dump concurrents et on sature le CPU mais pas le robot ) Sauvegarde totale de la baie DS8100 ( secondaire du PPRC suspendu donc attention le cache disque est inopérant ) • EXHPDM sur 6 lecteurs = 10,4 tera en 4 heures sur 12 K7 • Recupération de fichier = 5 minutes elapse ( peu importe ou se trouve le fichier 7 Sortie TSM Introduction: ❐ Backup serveurs distribués ❐ Plateformes Intel ( Windows + Linux) ❐ Plateformes AIX ❐ SAN ( FC et SATA) ❐ Problématiques de temps de restauration ( répartition) ❐ Problématique d’espace bureautique :HSM ❐ Service Production CBMR ( Christie Bare Metal Restore) sets rejoignent les sauvegardes incrémentales 8 Sortie Etat existant ❐ BACKUP • Incrémentaux Journaliers • Sur VTS direct ( P2P) • Sans collocation • Journaliers Journalisés sur bureautique • Non journalisés le week end sur bureautique • 1 x Full pour Messagerie Domino uniquement le weekend • Nouveaux besoins ? ❐ Jobs techniques • Expiration DB • Backup full DB le weekend • Backup incrémental DB journalier • Vidage des pools par chgt de Treshold Service Production 9 Sortie Evolution Hardware ❐ ❐ ❐ ❐ Service Production Au départ – Pool disque primaire avec cassettes 3494 en secondaire ( 2000) K7 Physiques de 20 gigaoctets VTS direct sur K7 de 800 Megaoctets ( primaire) K7 Physiques de 20 gigaoctets ( 2004 ) VTS direct sur K7 de 2 Gigaoctets ( primaire ) K7 physiques de 40 Gigaoctets (2005) VTS direct sur K7 de 4 Gigaoctets ( primaire ) K7 physiques de 500 Gigaoctets (2007) 10 Sortie Evolution Hardware 7000 K7 virtuelles sur 140 K7 physiques Ratio Virtuel/Physique 50/1 (2004) • 3000 K7 virtuelles sur 140 K7 physiques Ratio Virtuel/Physique 22/1 (2005) • 1500 K7 virtuelles sur 20 K7 physiques ? Ratio Virtuel/Physique 75/1 ?(2007) • Service Production 11 Sortie Evolution Hardware 7 500 000 fichiers 3,5 téras compressés 150 serveurs (ça bouge souvent ☺) Service Production 12 Sortie Evolution by recall ( la K7 revient entière) ❐ 7 500 000 sur 7000 K7 Virtuelles • 1070 fichiers / recall ❐ 7 500 000 sur 3000 K7 virtuelles • 2500 fichiers / recall ❐ 7 500 000 sur 1500 K7 virtuelles • 5000 fichiers / recall ❐ 30000 fichiers /1 physique ❐ 54000 fichiers / 1 physique ❐ 375000 fichiers / 1 physique Service Production 13 Sortie Hardware :ce que ça change ❐ Nombre de mounts divisé par 7 ❐ Durée d’un mount divisé par 2 ( 5 minutes/2.30 minutes) ❐ Taille de K7 virtuelles multiplié par 2 ❐ Taille de k7 physiques multiplié par 12 ❐ Taille du cache multiplié par 12 ❐ ❐ Service Production Cela rend la collocation intéressante puisque les chances que les données dont on a besoin soient en ligne augmentent Le HSM devient possible ( libération espace disque possible) 14 Sortie Collocation ❐ ❐ (1) C’est le fait de grouper les sauvegardes de fichiers d’un client sur le (les) même média afin de diminuer le nombre de mount lors de la restauration La collocation se décline en 3 possiblilités • Par Node ( les fichiers d’un node sont regroupés sur la/les même K7) • Par groupe de Nodes ( les fichiers de certains nodes sont regroupés sur la/les même K7) • Par File système ( les file système sont regroupés sur les même K7 ) ❐ Le facteur de groupage doit être étudié en fonction : • Du nombre de fichier des serveurs • De la taille des serveurs • Du nombre de serveurs Service Production 15 Sortie HSM ( Hierarchical Storage Migration)(1) ❐ Qu’est ce que c’est ? • • ❐ – – Libérer de la place sur le stockage rapide ( disque ) Economiser en utilisant un système de stockage plus lent mais moins cher Comment ça marche • • • Service Production C’est une organisation de stockage de façon hiérarchique (du media le plus rapide vers le média le plus lent ) Le but : Le serveur possède un pool d’archivage bandes . Le client possède un agent de migration qui remplace les fichiers réels par des raccourcis ( stub files) Les critères de migration se font en fonction de : – – – – – – – Taille de fichier Date de création Date de modification Date de référence Type de fichiers Emplacement sur répertoire Etc ….. 16 Sortie HSM ( Hierarchical Storage Migration)(2) ❐ ❐ ❐ ❐ Service Production Chaque fichier peu importe sa taille est remplacé par un stub file de 4k octets ( taille d’un cluster NTFS ) L’icône est remplacée pour montrer que le fichier n’est pas sur le disque Chaque fichier est rappelé implicitement ( il suffit de cliquer comme un raccourci normal et TSM remet le fichier sur son emplacement original) Il est possible de faire du rappel massif grace à des listes et l’interface GUI 17 Sortie Collocation quelques chiffres ❐ ❐ ❐ 13 serveurs ( clients) au dessus de 100 000 fichiers (donc 1 serveur = 1 groupe ) 8 serveurs (clients) au dessus de 70 Gigaoctets de sauvegarde (donc 1 serveur = 1 groupe ) Quelques catégories possibles (plusieurs nodes dans un seul groupe ) • Serveurs de Prod = 1 groupe • Serveurs de Prex = 1 groupe • Serveurs de Test = 1 groupe • Postes de test ( Pxxxxx) = 1 groupe • Serveurs AIX = 1 groupe ?????? Service Production 18 Sortie