Calcul et simulation : Évolutions aux niveaux local et national

Transcription

Calcul et simulation : Évolutions aux niveaux local et national
Calcul et simulation :
Évolutions aux niveaux local et national
Équipements et moyens de
développement et de calcul

Au LUTH

À l'Observatoire



Au SIO

Dans les autres laboratoires
Au niveau national et international

Dans les centres nationaux et européens

La grille EGI­INSpire
Un mot sur les formations initiales
LUTH - Calcul



Équipements liés à des projets et des équipes
Plusieurs serveurs / grappes de calcul de puissances variables
Pas de ressources de calcul mutualisées pour l'ensemble du laboratoire
LUTH - Développement


Demande de soutien au CS de l'Observatoire en 2009 pour financer une machine de développement
Achat de la machine de développement et d'un serveur auxiliaire (serveur SVN entre autres) fin 2009

Mise en service en mars 2010

Doc sur l'intranet du site du laboratoire
Starlight - matériel
Configuration :

1 noeud maître 
2 noeuds Intel


2 processeurs 4­coeurs Xeon E5540 (2.53 GHz)

24 Go RAM 2 noeuds AMD 
2 processeurs 4­coeurs Opteron 2382 (2.6 GHz)

16 Go RAM
Starlight – logiciels (1)




Compilateurs Fortran, C, C++ 
GNU

Intel
Librairies scientifiques

Distributions standards compilées avec GNU/Intel

Versions optimisées Intel (MKL)
MPI

OpenMPI

MPI Intel

MPICH
Torque / Maui Starlight – logiciels (2)

Logiciel de débogage graphique TotalView



Permet de « rejouer » l'exécution de son code (attention : problème de ressources)
Logiciel de « profilage » Vtune (Intel)



Permet de déboguer des applications parallèles aussi bien OpenMP que MPI
Analyse l'exécution du code
Permet de repérer les fonctions/instructions consommant le plus de temps de calcul
Présentation au laboratoire début 2011
TotalView en 1
transparent !
SIO

Situation actuelle :

Grappe de calcul 
192 coeurs

~ 500 Go de mémoire distribuée


Soumission par Torque / Maui (gestionnaire de taches/ordonnanceur)
Logiciels scientifiques payants

IDL 
Matlab

Mathematica
SIO

Futur proche (été 2011 ?) : démonstrateur d'une machine parallèle distribuée

~ 100 coeurs

réseau à faible latence et haut débit (Infiniband)

éventuellement stockage parallèle haute performance (type Lustre ou GPFS)
SIO

Sésame + Equipex (PSL – Observatoire + ENS) ?

Meso­centre :

Machine de taille intermédiaire entre ressource de laboratoire et centre national

Basé sur le démonstrateur

500 à 1000 coeurs

1 à quelques To de RAM distribuée

Espace disque ?
À l'IMCCE


Possibilité de se familiariser avec le calcul sur GPU en utilisant les unités TESLA de l'IMCCE
Calcul sur GPU


Utilisation des nombreuses unités de traitement des processeurs graphiques pour faire du calcul (nombreuses = plusieurs centaines !)

Utilisables pour certains types de calcul seulement

Mais, parmi ceux­ci :

FFT

Algèbre linéaire (projet d'équivalent LAPACK)
Matériel prenant de plus en plus d'importance
Centres nationaux


Trois centres nationaux :

IDRIS (Orsay) : CNRS

CCRT (Bruyères­le­Châtel) : CEA

CINES (Montpellier) : Ministère Enseignement Sup.
Création de GENCI (Grand Équipement National de Calcul Intensif)


Ministère Enseignement Sup., CNRS, CEA, Universités, INRIA
Demande de temps uniformisée : eDARI
IDRIS

Acquisition d'une nouvelle machine en 2008

Composante Blue/Gene : Babel



40960 coeurs (PowerPC 450)

20 To RAM

139 Tflops de performance crete totale
Composante Power6 : Vargas

3584 coeurs

17.5 To RAM

67.3 Tflops de performance crete totale
Nouvel investissement en 2012
CCRT

Acquisition d'une nouvelle machine en 2009

Machine hybride : Titane

Composante SMP


8544 coeurs Xeon

23 To RAM

100 Tflops
Composante GPU

48 serveurs TESLA = 192 GPU

192 Tflops (simple précision!)
CINES

Évolution en cours d'année de la machine Jade

Nouvelle configuration :

23040 coeurs (Xeon, mais deux modèles différents)

91 To RAM

Puissance totale crête : 267 Tflops
CEA

Programme Simulation du CEA­DAM : Tera100



Ouverture partielle à d'autres communautés scientifiques ?
Configuration :

138368 coeurs Xeon

300 To RAM

Puissance totale crête : 1.25 Pflops
Calculateur le plus puissant en Europe
Dans le paysage mondial...
avant

Classement Top 500 en novembre 2007 :

3 calculateurs français dans le top 100, 2 au CEA et 1 chez EDF

Le premier en 19ème position

IDRIS et CINES absents
Dans le paysage mondial...
maintenant

Classement Top 500 de novembre 2010 :

Tera100 en 6ème position

Jade en 27ème position (18ème à son installation)

Babel en 55ème position (10ème)

Titane (sans GPU) en 61ème position (45ème)

7 autres machines dans le Top 100
L'année prochaine


En 86ème position du Top500 : la première tranche de Curie
Curie = machine de classe pétaflopique installée au TGCC (Bruyères­le­Châtel) 
Financée par GENCI dans le cadre de PRACE

Configuration finale :

92160 coeurs Xeon et Sandy Bridge

360 To RAM

1.6 Pflops (estimation)
PRACE



Partnership for Advanced Computing in Europe
Permet de demander du temps sur des calculateurs européens
Calculateurs Tier 0 (le haut de la pyramide) :


Jugene (Jülich, Allemagne) : machine de type Blue/Gene (comme à l'IDRIS)
Curie sera la 2ème Tier 0
EGI

European Grid Infrastructure

Succède à EGEE 


Ressources provenant de 39 pays + 2 organisations européennes (CERN et EMBL)
En octobre 2009 : 150000 coeurs
Partenariat avec des grilles en Asie­Pacifique et en Amérique Latine
Calcul sur grille

Calcul massivement distribué

1 job = 1 calcul indépendant des autres

Adapté aux études paramétriques ou au traitement de données

Pas de parallélisme

Permet d'utiliser des ressources ''libres''

Pas de demande de temps à faire

Demande de certificat (contact au LUTH : moi)
EGI à l'Observatoire

Installation d'un noeud cette année :



Une interface utilisateur (UI) : point d'entrée sur la grille

Un élément de calcul : 112 coeurs

Un élément de stockage
Petite doc en ligne : http://luthwiki.obspm.fr/groups/gridcomputing/
Formation à l'Observatoire les 1,2 et 3 février 2011
Formations initiales



Nouvelles ressources : nouveaux besoins de formation
Master Modélisation et Simulation (INSTN, UVSQ, École Centrale)
Master Informatique Haute Performance et Simulation (UVSQ, École Centrale, ENS Cachan, PRES UniverSud) 
La spécialité Simulation Haute Performance ouvre en 2011