Calcul et simulation : Évolutions aux niveaux local et national
Transcription
Calcul et simulation : Évolutions aux niveaux local et national
Calcul et simulation : Évolutions aux niveaux local et national Équipements et moyens de développement et de calcul Au LUTH À l'Observatoire Au SIO Dans les autres laboratoires Au niveau national et international Dans les centres nationaux et européens La grille EGIINSpire Un mot sur les formations initiales LUTH - Calcul Équipements liés à des projets et des équipes Plusieurs serveurs / grappes de calcul de puissances variables Pas de ressources de calcul mutualisées pour l'ensemble du laboratoire LUTH - Développement Demande de soutien au CS de l'Observatoire en 2009 pour financer une machine de développement Achat de la machine de développement et d'un serveur auxiliaire (serveur SVN entre autres) fin 2009 Mise en service en mars 2010 Doc sur l'intranet du site du laboratoire Starlight - matériel Configuration : 1 noeud maître 2 noeuds Intel 2 processeurs 4coeurs Xeon E5540 (2.53 GHz) 24 Go RAM 2 noeuds AMD 2 processeurs 4coeurs Opteron 2382 (2.6 GHz) 16 Go RAM Starlight – logiciels (1) Compilateurs Fortran, C, C++ GNU Intel Librairies scientifiques Distributions standards compilées avec GNU/Intel Versions optimisées Intel (MKL) MPI OpenMPI MPI Intel MPICH Torque / Maui Starlight – logiciels (2) Logiciel de débogage graphique TotalView Permet de « rejouer » l'exécution de son code (attention : problème de ressources) Logiciel de « profilage » Vtune (Intel) Permet de déboguer des applications parallèles aussi bien OpenMP que MPI Analyse l'exécution du code Permet de repérer les fonctions/instructions consommant le plus de temps de calcul Présentation au laboratoire début 2011 TotalView en 1 transparent ! SIO Situation actuelle : Grappe de calcul 192 coeurs ~ 500 Go de mémoire distribuée Soumission par Torque / Maui (gestionnaire de taches/ordonnanceur) Logiciels scientifiques payants IDL Matlab Mathematica SIO Futur proche (été 2011 ?) : démonstrateur d'une machine parallèle distribuée ~ 100 coeurs réseau à faible latence et haut débit (Infiniband) éventuellement stockage parallèle haute performance (type Lustre ou GPFS) SIO Sésame + Equipex (PSL – Observatoire + ENS) ? Mesocentre : Machine de taille intermédiaire entre ressource de laboratoire et centre national Basé sur le démonstrateur 500 à 1000 coeurs 1 à quelques To de RAM distribuée Espace disque ? À l'IMCCE Possibilité de se familiariser avec le calcul sur GPU en utilisant les unités TESLA de l'IMCCE Calcul sur GPU Utilisation des nombreuses unités de traitement des processeurs graphiques pour faire du calcul (nombreuses = plusieurs centaines !) Utilisables pour certains types de calcul seulement Mais, parmi ceuxci : FFT Algèbre linéaire (projet d'équivalent LAPACK) Matériel prenant de plus en plus d'importance Centres nationaux Trois centres nationaux : IDRIS (Orsay) : CNRS CCRT (BruyèresleChâtel) : CEA CINES (Montpellier) : Ministère Enseignement Sup. Création de GENCI (Grand Équipement National de Calcul Intensif) Ministère Enseignement Sup., CNRS, CEA, Universités, INRIA Demande de temps uniformisée : eDARI IDRIS Acquisition d'une nouvelle machine en 2008 Composante Blue/Gene : Babel 40960 coeurs (PowerPC 450) 20 To RAM 139 Tflops de performance crete totale Composante Power6 : Vargas 3584 coeurs 17.5 To RAM 67.3 Tflops de performance crete totale Nouvel investissement en 2012 CCRT Acquisition d'une nouvelle machine en 2009 Machine hybride : Titane Composante SMP 8544 coeurs Xeon 23 To RAM 100 Tflops Composante GPU 48 serveurs TESLA = 192 GPU 192 Tflops (simple précision!) CINES Évolution en cours d'année de la machine Jade Nouvelle configuration : 23040 coeurs (Xeon, mais deux modèles différents) 91 To RAM Puissance totale crête : 267 Tflops CEA Programme Simulation du CEADAM : Tera100 Ouverture partielle à d'autres communautés scientifiques ? Configuration : 138368 coeurs Xeon 300 To RAM Puissance totale crête : 1.25 Pflops Calculateur le plus puissant en Europe Dans le paysage mondial... avant Classement Top 500 en novembre 2007 : 3 calculateurs français dans le top 100, 2 au CEA et 1 chez EDF Le premier en 19ème position IDRIS et CINES absents Dans le paysage mondial... maintenant Classement Top 500 de novembre 2010 : Tera100 en 6ème position Jade en 27ème position (18ème à son installation) Babel en 55ème position (10ème) Titane (sans GPU) en 61ème position (45ème) 7 autres machines dans le Top 100 L'année prochaine En 86ème position du Top500 : la première tranche de Curie Curie = machine de classe pétaflopique installée au TGCC (BruyèresleChâtel) Financée par GENCI dans le cadre de PRACE Configuration finale : 92160 coeurs Xeon et Sandy Bridge 360 To RAM 1.6 Pflops (estimation) PRACE Partnership for Advanced Computing in Europe Permet de demander du temps sur des calculateurs européens Calculateurs Tier 0 (le haut de la pyramide) : Jugene (Jülich, Allemagne) : machine de type Blue/Gene (comme à l'IDRIS) Curie sera la 2ème Tier 0 EGI European Grid Infrastructure Succède à EGEE Ressources provenant de 39 pays + 2 organisations européennes (CERN et EMBL) En octobre 2009 : 150000 coeurs Partenariat avec des grilles en AsiePacifique et en Amérique Latine Calcul sur grille Calcul massivement distribué 1 job = 1 calcul indépendant des autres Adapté aux études paramétriques ou au traitement de données Pas de parallélisme Permet d'utiliser des ressources ''libres'' Pas de demande de temps à faire Demande de certificat (contact au LUTH : moi) EGI à l'Observatoire Installation d'un noeud cette année : Une interface utilisateur (UI) : point d'entrée sur la grille Un élément de calcul : 112 coeurs Un élément de stockage Petite doc en ligne : http://luthwiki.obspm.fr/groups/gridcomputing/ Formation à l'Observatoire les 1,2 et 3 février 2011 Formations initiales Nouvelles ressources : nouveaux besoins de formation Master Modélisation et Simulation (INSTN, UVSQ, École Centrale) Master Informatique Haute Performance et Simulation (UVSQ, École Centrale, ENS Cachan, PRES UniverSud) La spécialité Simulation Haute Performance ouvre en 2011