Evolution des infrastructures réseaux

Transcription

Evolution des infrastructures réseaux
Centre de Calcul de l'IN2P3/CNRS
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche
[email protected]
JRES 2007
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau

projet LHC

projet IGTMD

utilisation haut débit

architecture réseau CCIN2P3
@jb JRES2007
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau
RENATER et les fibres noires

projet LHC

projet IGTMD

utilisation haut débit

architecture réseau CCIN2P3
@jb JRES2007
RENATER4
@jb JRES2007
RENATER4 Fibres Optiques Noires
@jb JRES2007
DWDM
Le multiplexage en longueur d'onde (Wavelength Division
Multiplexing en anglais) est une technique utilisée en
communications optiques qui permet de faire passer plusieurs ondes
de longueur d'onde différentes sur une seule fibre optique.
Lorsque moins de 8 longueurs d'ondes optiques sont utilisées sur une
distance inférieure à 100 kilomètres, on parle de Coarse WDM
(CWDM).
Au-delà, on parle de Dense WDM (DWDM).
@jb JRES2007
NR RENATER
Ethernet / VLANs
nx10Gb/s
SDH
2,5Gb/s
Si
@jb JRES2007
GEANT2
@jb JRES2007
GEANT2
@jb JRES2007
INTERNET2
@jb JRES2007
ESNET
@jb JRES2007
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau

projet LHC
Large Hadron Collider

projet IGTMD

utilisation haut débit

architecture réseau CCIN2P3
@jb JRES2007
LHC Large Hadron Collider
@jb JRES2007
LCG LHC Computing Grid
+ Tiers2 étrangers: Belgique, Roumanie, Japon, Chine
@jb JRES2007
Tier1 CCIN2P3
Tier-1 & Analysis Facility Resource Deployment
12 000
25 000
10 000
Le Tier1 CCIN2P3 doit doubler chaque année
sa puissance de calcul et sa capacité disque
durant la période de 2006 à 2010 !
20 000
15 000
6 000
10 000
4 000
5 000
2 000
0
0
2006
2007
2008
DISK
@jb JRES2007
MSS
2009
CPU
2010
k SI2000
TeraByte
8 000
Pour 2007 ceci se traduit par l'installation de
. 700 serveurs de calcul
bi-processeur quadri-coeurs
. 2 Peta octets d'espace disque
et la centaine de serveurs associés
Besoins réseau CCIN2P3
besoins infrastructure réseau pour LHC
CCIN2P3
CERN
4 Gb/s
Tier1s
5 Gb/s
Tier2s Français
1 Gb/s
Tier2s Etrangers
3 Gb/s
à partir des prévisions des expériences pour 2009
@jb JRES2007
LHCOPN LHC Optical Private Network
@jb JRES2007
CCIN2P3 infrastructure logique
Tier2
autres Tier1/2
10Gb/s
secours à travers Tier1 GridKa Karlsruhe
autres Tier1s
@jb JRES2007
routage LHCOPN
autre réseau
routage par la source
réseau de transferts LHCOPN
@jb JRES2007
CCIN2P3 infrastructure physique
Tier2 Français
2x 2,5Gb/s
10Gb/s
Lyon
Paris
autres Tier1/2
Strasbourg
10Gb/s
Secours à travers
Tier1 GridKarlsruhe
@jb JRES2007
Tier2 GRIF
Grille de Recherche Ile de France
LLR
RHD Saclay
NR Orsay
10Gbps
NR Jussieu
LAL
10Gbps
10Gbps
LPNHE
IPNO
VLAN
proposition ;-)
NR Lyon
@jb JRES2007
10Gbps
CCIN2P3
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau

projet LHC

projet IGTMD
Interopérabilité des Grilles de calcul et
Transferts Massifs de données

utilisation haut débit

architecture réseau CCIN2P3
@jb JRES2007
CCIN2P3 infrastructure logique
2x 1Gbps
Tier2
10Gb/s
secours à travers Tier1 GridKa
autres Tier1s
@jb JRES2007
autres Tier1/2
CCIN2P3 infrastructure physique
Tier2 Français
2x 1Gb/s
2x 2,5Gb/s
10Gb/s
Lyon
Paris
autres Tier1/2
Strasbourg
10Gb/s
Secours à travers
Tier1 GridKarlsruhe
@jb JRES2007
IGTMD Interopérabilité des Grilles de calcul
et Transferts Massifs de données
@jb JRES2007
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau

projet LHC

projet IGTMD

utilisation haut débit
évolution de TCP/IP

architecture réseau CCIN2P3
@jb JRES2007
Transferts à hauts débits

fenêtre TCP
LFN Long Fat Network
RFC1323 « Window Scaling » 64Ko->1Go
 acquittement
RFC2018 « Selective Acknowledgements »
 multi-stream
 jumboframe ?
@jb JRES2007
Transferts à hauts débits
Débit
Perte de paquet
BIC-TCP
TCP-RENO
Slowstart
@jb JRES2007
Congestion Avoidance
Temps
Transferts à hauts débits

un flux avec USA ie un RTT de 200ms:
– noyau standard 4Mb/s
– noyau optimisé 200Mb/s
– noyau avec BIC-TCP 400Mb/s
– multi-stream > 1Gb/s

transferts haut débit:
– options « Window Scaling » + SACKS
– application permettant de régler la fenêtre TCP
et le nombre de flux, suivant le partenaire !
– utilisation de BIC-TCP (ou autre) si possible
@jb JRES2007
Utilisation haut débit des nouvelles
infrastructures réseaux de la recherche

nouvelles infrastructures réseau

projet LHC

projet IGTMD

utilisation haut débit

architecture réseau CCIN2P3
conclusion
@jb JRES2007
LAN CCIN2P3
100Mb/s
> 1500 serveurs de calcul
> 2 Po disques
> 6 Po bandes
Services internes
Services externes
1Gb/s
CISCO 6500
10Gb/s
RENATER
2x 10Gb/s
10Gb/s
@jb JRES2007
Statistiques réseaux IN2P3
http://netstat.in2p3.fr
@jb JRES2007
http://netstat.in2p3.fr
CCIN2P3-RENATER
CCIN2P3-CERN
CCIN2P3-GRIDKA
@jb JRES2007

Documents pareils