General Parallel File System http://www

Transcription

General Parallel File System http://www
GPFS
General Parallel File System
http://www-142.ibm.com/software/products/fr/fr/software
© 2011 IBM Corporation
Agenda
Problématique
Historique
GPFS : Le système de fichiers
Qui utilise GPFS aujourd’hui ?
Mise en œuvre & Service associé
Support - Formation & Documentation
2
IBM System & Technology Group
© 2011 IBM Corporation
Problématique
3
IBM System & Technology Group
© 2011 IBM Corporation
Problématique
D’une façon fiable,
partager
et
échanger simplement des fichiers
entre
différentes applications
et
différents OS
4
IBM System & Technology Group
© 2011 IBM Corporation
IBM General Parallel File System (GPFS™) – History and evolution
GPFS 3.4 introduces improvements in performance, scalability, migration and diagnostics and enhanced
Windows™ high performance computing (HPC) server support, including support for homogenous
Windows clusters.
Video
streaming
Tiger Shark
Real time
Streaming
Read Perf
Wide stripe
1995
5
First
First
called
called
GPFS
GPFS
HPC
GPFS
General File
Serving
Standards
Portable
operating
system
interface
(POSIX)
semantics
-Large block
Directory and
Small file perf
Data
management
1998
Virtual
Tape Server
(VTS)
Linux®
Clusters
(Multiple
architectures)
IBM AIX®
Loose Clusters
GPFS 2.1-2.3
GPFS 3.1-3.2
HPC
Information
lifecycle
management (ILM)
Research
Visualization
Digital Media
Seismic
Weather
exploration
Life sciences
32 bit /64 bit
Inter-op (IBM AIX
& Linux)
GPFS Multicluster
GPFS over wide
area networks
(WAN)
Large scale
clusters
thousands of
nodes
2002
2005
© Copyright IBM Corporation 2008
Storage Pools
File sets
Policy Engine
Ease of
administration
Multiplenetworks/ RDMA
Distributed Token
Management
Faster failover
Multiple NSD
servers
GPFS 3.3
GPFS 3.4
Restricted
Admin
Functions
Enhanced
Windows cluster
support
- Homogenous
Windows Server
Improved
installation
New license
model
Improved
snapshot and
backup
Improved ILM
policy engine
Performance
and scaling
improvements
Enhanced
migration and
diagnostics
support
NFS v4 Support
Small file
performance
2006-7
IBM System & Technology Group
2009
2010
1-5 © 2011 IBM Corporation
Le système de fichier GPFS
PPC64
x64
x86
6
IBM System & Technology Group
© 2011 IBM Corporation
Qu’est-ce que GPFS ?
GPFS (General Parrallel File System) est la solution IBM de système de fichiers
partagé parallèle pour les clusters. Ses fonctionnalités en font un produit fiable et
performant pour toutes les architectures nécessitant un partage de données.
Ce logiciel est disponible sur tous les serveurs IBM ayant pour système
d’exploitation AIX, Linux ou Windows.
Cluster: 2 à 8000+ serveurs,
réseau performant fiable,
administré comme un
ensemble.
Serveurs GPFS
Système de fichiers partagé:
tous les serveurs accèdent
aux données et metadonnées
par une interface de type
disque.
Parallèle: les accès aux
données et metadonnées se
font en parallèle de tous les
serveurs vers tous les
disques.
7
IBM System & Technology Group
© 2011 IBM Corporation
GPFS Fonctionnalités et Domaines d’utilisation
Une vision unique partagée du système de fichiers.
Une interface au Standard POSIX.
Haute performance
– Grande capacité de stockage
– Très haut débit
Haute disponibilité
– Tolérance de panne
– Gestion de configuration dynamique (ajout, retrait, remplacement de
disques, de serveurs)
Domaines d’utilisation
– Clusters haute performance scientifiques & commerciaux.
– Consolidation de serveurs (de fichiers, de courrier, internet …)
– Multimedia
– Bases de données
8
IBM System & Technology Group
© 2011 IBM Corporation
Ce que GPFS n’est pas
Pas un système de fichiers client-serveur
comme NFS ou CIFS: pas de goulot
d’étranglement d’un serveur unique,
pas de surcouche de protocole dans le
transfert de données.
Clients
Réseau
Serveur
Metadonnées
Serveur de
metadonnées
Disques
Données
Disques
9
IBM System & Technology Group
© 2011 IBM Corporation
3 exemples de configuration
!"#
10
IBM System & Technology Group
$
© 2011 IBM Corporation
Les forces de GPFS
Grande capacité :
– Regroupe de nombreux disques ou RAIDs
en un seul système de fichiers
Débit élevé pour un fichier seul
– “striping” sur un grand nombre de disques
– Taille de bloc élevée “16 K à 4 Mo”
– Plusieurs serveurs écrivent en parallèle
Haute disponibilité
– Serveurs: reconstruction journalisée
bascule cohérente sur serveur de secours
– Données: RAID ou réplication
– Admin. dynamique (ajout/retrait/remplacement de
disques ou serveurs sans démontage du système de fichiers)
Image unique, interface au standard POSIX
– “locks” distribués sur une syntaxe lecture/écriture standard
11
IBM System & Technology Group
© 2011 IBM Corporation
GPFS
Disponibilité
–Un daemon assure la surveillance des serveurs et la détection
de panne
–Un journal différent sur chaque serveur pour réparer plus vite en
cas d’anomalie
–Une redondance réseau sur AIX par EtherChannel, sur Linux par
bonding
–Chaque disque est accessible depuis deux serveurs au moins
Performance
–Accès simultanés de plusieurs serveurs à un fichier (MPIIO …)
–Répartition de la charge sur serveurs et disques
–Permet de manipuler de grandes quantités de données
12
IBM System & Technology Group
© 2011 IBM Corporation
GPFS
Intégrité des données
– Gestion des accès par jeton
– Plusieurs chemins pour accéder la même donnée
– Possibilité de mettre en place une réplication
• Pour données et métadonnées, certains ou tous les fichiers
– Les copies sont dans des « failure group » distincts
– Quorum : pas de risque d’accès simultanés incohérents si le cluster se
coupe en deux ou plus
Flexibilité
– Ajout dynamique de disques, de serveurs
– Changement dynamique du nombre d’inodes …
– S’administre depuis n’importe quel serveur, diffusion automatique à
tous les serveurs
– Possibilité de créer une(plusieurs!) copie logique, ou snapshot, pour un
système de fichiers GPFS,
13
IBM System & Technology Group
© 2011 IBM Corporation
Snapshots (ou Flashcopy)
Snapshot: copie logique en lecture seule du système de fichiers à un
instant donné
Pour quoi faire :
– Sauvegarde: sauvegarde cohérente à l’instant t
– Correction d’erreur: accès en ligne aux fichiers dans leur état au moment du
snapshot
“Copy-on-write”: le fichier n’occupe de l’espace dans le snapshot
qu’au moment où il est modifié ou supprimé.
Accès au travers de sous répertoires “.snapshots” à la racine
– /gpfs/.snapshots/snap1 – état d’il y a huit jours
– /gpfs/.snapshots/snap2 – état d’hier
On peut conserver jusqu’à 256 snapshots d’un système de fichiers
14
IBM System & Technology Group
© 2011 IBM Corporation
GPFS
ILM (Information Lifecycle Management )
– « Storage pool » (groupe de luns de même performance)
– « Fileset » (sous-arborescence dans un système de fichiers)
– « Policies » (règles de placement et de migrationdes fichiers dans les « storage
pool »)
– Gestion simple du placement des données,
(âge, nom du fichier…)
– La politique de gestion peut être exécutée en parallèle sur l’ensemble des
nœuds
– La migration des données est automatique et transparente pour le client
– Gestion du placement des données selon les types de disques
– Langage de type SQL
RULE ’migration to system pool’ MIGRATE FROM POOL ’sp1’ TO
POOL ’system’ WHERE NAME LIKE ’%file%’
15
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
Serveur 1
Serveur 2
LAN
SAN
Serveur 1
tiebreakerDisk
16
GPFS continue sur
le serveur 1, dont le
nom figure sur le tiebreakerDisk
comme « lease manager ».
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
Serveur 1
Démontage
De GPFS sur
Le serveur 1
Serveur 2
LAN
SAN
Serveur 2
TiebreakerDisk
17
GPFS continue sur
le serveur qui a été élu
« lease manager »
sur le tiebreakerDisk
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
GPFS continue sur les
deux serveurs, sans
Réplication.
Le failure group 3 garantit l’existence de plus
de la moitié des FSDs. On peut mettre le
tiebreakerDisk dessus.
LAN
SAN
Failure group 1
Failure group 3
DescOnly
Réplication
Failure group 2
Filesystem descripter Quorum
18
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
GPFS continue sur le
Serveur 1
Serveur 3
Failure group 3
DescOnly
Serveur 2
Serveur 1
LAN
SAN
Failure group 1
19
Failure group 2
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
GPFS continue sur les
deux serveurs, plus de
réplication.
Serveur 3
Failure group 3
DescOnly
Serveur 1
Serveur 2
LAN
SAN
Failure group 1
20
Failure group 2
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
GPFS continue sur le serveur 2
plus de réplication.
Serveur 3
Failure group 3
DescOnly
Serveur 1
Serveur 2
LAN
SAN
Failure group 1
21
Failure group 2
IBM System & Technology Group
© 2011 IBM Corporation
Haute disponibilité
Serveur 3
GPFS continue à fonctionner sur
le serveur 1, qui voit le serveur 3.
GPFS
démonté
serveur
isolé.
Serveur 2
Failure group 3
DescOnly
Serveur 1
LAN
SAN
Failure group 1
22
Failure group 2
IBM System & Technology Group
© 2011 IBM Corporation
Haute Disponibilité
Server 3
Serveur 1 accède au failure
group 2 au travers du réseau
Failure group 3
DescOnly
Serveur 2
Serveur 1
LAN
SAN
Failure group 1
23
Failure group 2
IBM System & Technology Group
© 2011 IBM Corporation
Règles de quorum
3 serveurs avec l’attribut quorum
– GPFS continue à fonctionner sur les serveurs qui voient au moins 2 serveurs ayant l’attribut
quorum
2 à 8 serveurs avec l’attribut quorum et 1 ou 3 tiebreakerDisks
– GPFS continue à fonctionner sur les serveurs qui voient le serveur quorum élu « lease
manager » dont le nom figure sur les tiebreakerDisks.
– Par sécurité, on peut mettre 3 tiebreakerDisks, GPFS continue à fonctionner sur tous les
serveurs qui voient la majorité des tiebreakerDisks et le serveur quorum élu « lease
manager ».
– Les tiebreakerDisks doivent être reliés par SCSI ou SAN aux serveurs ayant l’attribut
quorum.
24
IBM System & Technology Group
© 2011 IBM Corporation
Résumons nous ! Qu’est ce que GPFS ?
Hier GPFS était un
système de fichiers parallèle à haute performance
Aujourd’hui, GPFS est un
système de fichiers cluster à haute performance
(incluant aussi le parallélisme )
Demain GPFS est un
système de fichiers d’entreprise avec de hautes
performances
25
IBM System & Technology Group
© 2011 IBM Corporation
Qui utilise GPFS aujourd’hui ?
26
IBM System & Technology Group
© 2011 IBM Corporation
Qui utilise GPFS aujourd’hui ?
GPFS est un produit mature avec une présence bien établie sur le marché. Il est
disponible depuis 1998 après une phase de développement et de recherche
commencée en 1991.
Aviation et Automobile
Banque et Finance
Bio-informatiques and Sciences de la Vie
Défense
Média numérique
EDA
Laboratoires Nationaux
Pétrole
Université
Modélisation climatique
IBM
27
IBM System & Technology Group
© 2011 IBM Corporation
Government Laboratories
!
"
#
%
&''
(
)*
+
% #
+
"
# #$
"
"
,
-
Army Corps of Engineers
Application: hydrological modeling
2 256-node SPs
Using GPFS to store model data, output visualization data
28
IBM System & Technology Group
© 2011 IBM Corporation
Géophysique
• Capture, stock et analyse des données de sondage sismique,
• Les données saisies à bord,
• Analyse ultérieure (hautement parallèle, plusieurs téraoctets
de systèmes de fichiers)
• Archives / récupération à partir de bandes
• Plusieurs entreprises géophysiques utilisent GPFS pour leurs
traitements sismique
29
IBM System & Technology Group
© 2011 IBM Corporation
Ingénierie de la conception
Constructeur d’avions
Utilisation de GPFS pour stocker les quantités de données
importantes liées à la modélisation des structures et à
leurs analyses
GPFS permet le partage des modèles et des données par
l’ensemble des noeuds
30
IBM System & Technology Group
© 2011 IBM Corporation
TV5 Monde
!
!
!" """
#
$
' ""
&
#
%
%
31
&
$
( )
"
,$
$%
"
.
"
*+ )
*+$ , //$///0 1 ( 5 mn par an )
IBM System & Technology Group
© 2011 IBM Corporation
Solution IBM
SWLAN 1
CISCO 6500
SWLAN 2
CISCO 6500
Serveur NIM
p520
HMC1
HMC2
xSeries
Administration
X3
Réseau Ethernet
Réseau GPFS
Nœuds GPFS
p520 (x6)
Réseau Admin
Réseau Hardware 1
Réseau Hardware 2
Réseau SAN
SWSAN 2
CISCO
MDS 9500
SWSAN 1
CISCO
MDS 9500
x4
x4
x4
CtrlA CtrlB
x4
CtrlA CtrlB
x2
x2
Baie DS4800
Racks EXP710 CtrlA CtrlB
x2
x2
CtrlA CtrlB
x2
x2
CtrlA CtrlB
x2
x2
CtrlA CtrlB
x2
x2
CtrlA CtrlB
X28
x2
x2
CtrlA CtrlB
Baie DS4800
Racks EXP710
X28
Controleurs DS4500 + Racks EXP100 X 78
32
IBM System & Technology Group
© 2011 IBM Corporation
ASC (Advanced Simulation and Computing)
2005
100 teraFLOPS
12000 POWER5
Lawrence Livermore National Laboratories en Californie
http://www.top500.org/system/8128
https://asc.llnl.gov/computing_resources/purple/
33
http://www.top500.org/2007_overview_recent_supercomputers/ibm_eserver_p575
IBM System & Technology Group
© 2011 IBM Corporation
BlueGene/ (2004 pour BlueGene/L, 2007 pour BlueGene/P)
2007
596 teraFLOPS (crête)
130712 PowerPC
Lawrence Livermore National Laboratories en Californie
http://www.top500.org/system/8968
http://www-304.ibm.com/systems/support/bluegene/index.html
34
http://www.top500.org/2007_overview_recent_supercomputers/ibm_bluegene_l_p
IBM System & Technology Group
© 2011 IBM Corporation
IDRIS - BlueGene/P
2008
139 teraFLOPS (crête)
40960 PowerPC (10 racks)
400To
Région Parisienne
http://www.idris.fr/IBM2008/index.html
35
IBM System & Technology Group
© 2011 IBM Corporation
SONAS – Scale Out Network Attached Server
Produit IBM incluant :
- Un cluster GPFS linux sous RedHat avec un réseau interne InfiniBand, vu
comme un serveur NAS pour windows et Unix
- Une interface unique pour la configuration et le contrôle
- Un service de surveillance à distance et de reprise
- Répartition de charge
- Stockage sur des supports adaptés performance/coût (tiering)
- Utilisé par IBM pour sa solution de « storage cloud »
http://www-03.ibm.com/systems/storage/network/sonas/
36
IBM System & Technology Group
© 2011 IBM Corporation
SONAS
37
IBM System & Technology Group
© 2011 IBM Corporation
Mise en œuvre et service associé
38
IBM System & Technology Group
© 2011 IBM Corporation
Mise en œuvre & Service associé
IBM vous accompagne dans la découverte du produit
Cours au catalogue IBM
Prêt du logiciel avec accompagnement forfaitaire sur la mise en œuvre
Un expert GPFS
- Discute avec vous de votre projet
- Propose une architecture
- Installe une version de prêt du logiciel
- Le configure avec transfert de connaissances d’une demi-journée
- Répond à vos questions
- Vous remet un document décrivant l'
installation
Ensuite la plupart des clients sont totalement autonomes !
39
IBM System & Technology Group
© 2011 IBM Corporation
Support, Formation & Documentation
40
IBM System & Technology Group
© 2011 IBM Corporation
Support GPFS
GPFS est un logiciel IBM vendu avec un « passeport avantage » :
Correctifs en accès libre sur internet
Un forum public de discussion
http://www.ibm.com/developerworks/forums/forum.jspa?forumID=479
Le passeport avantage offre :
l’ouverture d'
incidents 24/24 7/7
le support et réponse aux questions
l’accès aux nouvelles versions
41
IBM System & Technology Group
© 2011 IBM Corporation
Formation GPFS
42
IBM System & Technology Group
© 2011 IBM Corporation
Documentations & liens
http://www-03.ibm.com/systems/clusters/software/gpfs/index.html
http://www.almaden.ibm.com/StorageSystems/projects/gpfs/
http://en.wikipedia.org/wiki/GPFS
Doc : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/topic/com.ibm.cluster.gpfs.doc/gpfsbooks.html
FAQ : http://publib.boulder.ibm.com/infocenter/clresctr/vxrx/index.jsp?topic=/com.ibm.cluster.gpfs.doc/gpfs_faqs/gpfs_faqs.html
http://www.redbooks.ibm.com
03/2008 A Guide to the IBM Clustered Network File System, (REDP-4400-00)
02/2008
…..
Deploying Oracle RAC 10g on AIX Version 5 with GPFS (SG24-7541-00)
10/2005 Configuration and Tuning GPFS for Digital Media Environments (TIPS0540)
…..
05/1998 GPFS: A Parallel File System (SG24-5165-00)
43
IBM System & Technology Group
© 2011 IBM Corporation
WebSphere MQ & GPFS
http://www-01.ibm.com/support/docview.wss?uid=swg21392025
« Testing of WebSphere MQ with IBM's General Parallel File System (GPFS) has
been more extensive and no problems have been reported to date. »
http://www-01.ibm.com/support/docview.wss?uid=swg21433474
– « WebSphere MQ V7.0.1 introduces multi-instance queue managers. For this
you will need a shared file system on networked storage, such as a NAS, or a
cluster file system, such as IBM's General Parallel File System (GPFS).
Shared file systems must provide data write integrity, guaranteed exclusive
access to files and release locks on failure to work reliably with WebSphere
MQ. »
44
IBM System & Technology Group
© 2011 IBM Corporation
GPFS v3.4
45
IBM System & Technology Group
© 2011 IBM Corporation
MERCI!
Merci
Korean
French
Arabic
Hebrew
Traditional
Chinese
Gracias
Obrigado
go raibh maith agat
Hindi
Spanish
Brazilian
Portuguese
Gaelic
Grazie
Italian
Thank You
Russian
English
Simplified
Chinese
Tamil
Danke
Japanese
German
Thai
46
IBM System & Technology Group
© 2011 IBM Corporation
Special notices (cont.)
The following terms are registered trademarks of International Business Machines Corporation in the United States and/or other countries: AIX, AIX/L, AIX/L (logo), AIX 6 (logo),
alphaWorks, AS/400, BladeCenter, Blue Gene, Blue Lightning, C Set++, CICS, CICS/6000, ClusterProven, CT/2, DataHub, DataJoiner, DB2, DEEP BLUE, developerWorks,
DirectTalk, Domino, DYNIX, DYNIX/ptx, e business (logo), e(logo)business, e(logo)server, Enterprise Storage Server, ESCON, FlashCopy, GDDM, i5/OS, i5/OS (logo), IBM,
IBM (logo), ibm.com, IBM Business Partner (logo), Informix, IntelliStation, IQ-Link, LANStreamer, LoadLeveler, Lotus, Lotus Notes, Lotusphere, Magstar, MediaStreamer, Micro
Channel, MQSeries, Net.Data, Netfinity, NetView, Network Station, Notes, NUMA-Q, OpenPower, Operating System/2, Operating System/400, OS/2, OS/390, OS/400, Parallel
Sysplex, PartnerLink, PartnerWorld, Passport Advantage, POWERparallel, Power PC 603, Power PC 604, PowerPC, PowerPC (logo), Predictive Failure Analysis, pSeries,
PTX, ptx/ADMIN, Quick Place, Rational, RETAIN, RISC System/6000, RS/6000, RT Personal Computer, S/390, Sametime, Scalable POWERparallel Systems, SecureWay,
Sequent, ServerProven, SpaceBall, System/390, The Engines of e-business, THINK, Tivoli, Tivoli (logo), Tivoli Management Environment, Tivoli Ready (logo), TME,
TotalStorage, TURBOWAYS, VisualAge, WebSphere, xSeries, z/OS, zSeries.
The following terms are trademarks of International Business Machines Corporation in the United States and/or other countries: Advanced Micro-Partitioning, AIX 5L, AIX PVMe,
AS/400e, Calibrated Vectored Cooling, Chiphopper, Chipkill, Cloudscape, DataPower, DB2 OLAP Server, DB2 Universal Database, DFDSM, DFSORT, DS4000, DS6000,
DS8000, e-business (logo), e-business on demand, EnergyScale, Enterprise Workload Manager, eServer, Express Middleware, Express Portfolio, Express Servers, Express
Servers and Storage, General Purpose File System, GigaProcessor, GPFS, HACMP, HACMP/6000, IBM Systems Director Active Energy Manager, IBM TotalStorage Proven,
IBMLink, IMS, Intelligent Miner, iSeries, Micro-Partitioning, NUMACenter, On Demand Business logo, POWER, PowerExecutive, PowerVM, PowerVM (logo), Power
Architecture, Power Everywhere, Power Family, POWER Hypervisor, Power PC, Power Systems, Power Systems (logo), Power Systems Software, Power Systems Software
(logo), PowerPC Architecture, PowerPC 603, PowerPC 603e, PowerPC 604, PowerPC 750, POWER2, POWER2 Architecture, POWER3, POWER4, POWER4+, POWER5,
POWER5+, POWER6, POWER6+, pure XML, Quickr, Redbooks, Sequent (logo), SequentLINK, Server Advantage, ServeRAID, Service Director, SmoothStart, SP, System i,
System i5, System p, System p5, System Storage, System z, System z9, S/390 Parallel Enterprise Server, Tivoli Enterprise, TME 10, TotalStorage Proven, Ultramedia,
VideoCharger, Virtualization Engine, Visualization Data Explorer, Workload Partitions Manager, X-Architecture, z/Architecture, z/9.
A full list of U.S. trademarks owned by IBM may be found at: http://www.ibm.com/legal/copytrade.shtml.
The Power Architecture and Power.org wordmarks and the Power and Power.org logos and related marks are trademarks and service marks licensed by Power.org.
UNIX is a registered trademark of The Open Group in the United States, other countries or both.
Linux is a trademark of Linus Torvalds in the United States, other countries or both.
Microsoft, Windows, Windows NT and the Windows logo are registered trademarks of Microsoft Corporation in the United States, other countries or both.
Intel, Itanium, Pentium are registered trademarks and Xeon is a trademark of Intel Corporation or its subsidiaries in the United States, other countries or both.
AMD Opteron is a trademark of Advanced Micro Devices, Inc.
Java and all Java-based trademarks and logos are trademarks of Sun Microsystems, Inc. in the United States, other countries or both.
TPC-C and TPC-H are trademarks of the Transaction Performance Processing Council (TPPC).
SPECint, SPECfp, SPECjbb, SPECweb, SPECjAppServer, SPEC OMP, SPECviewperf, SPECapc, SPEChpc, SPECjvm, SPECmail, SPECimap and SPECsfs are trademarks of
the Standard Performance Evaluation Corp (SPEC).
NetBench is a registered trademark of Ziff Davis Media in the United States, other countries or both.
AltiVec is a trademark of Freescale Semiconductor, Inc.
Cell Broadband Engine is a trademark of Sony Computer Entertainment Inc.
InfiniBand, InfiniBand Trade Association and the InfiniBand design marks are trademarks and/or service marks of the InfiniBand Trade Association.
Other company, product and service names may be trademarks or service marks of others.
Revised January 15, 2008
47
IBM System & Technology Group
© 2011 IBM Corporation
Notes on benchmarks and values
The IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should
consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For
additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark
consortium or benchmark vendor.
IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html.
All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX
Version 4.3, AIX 5L or AIX 6 were used. All other systems used previous versions of AIX. The SPEC CPU2006, SPEC2000, LINPACK, and Technical Computing
benchmarks were compiled using IBM'
s high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of
these compilers were used: XL C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++
Advanced Edition V7.0 for Linux, and XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN
and KAP/C 1.4.2 from Kuck & Associates and VAST-2 v4.01X8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other
software packages like IBM ESSL for AIX, MASS for AIX and Kazushige Goto’s BLAS Library for Linux were also used in some benchmarks.
For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor.
http://www.tpc.org
TPC
SPEC
http://www.spec.org
LINPACK
http://www.netlib.org/benchmark/performance.pdf
Pro/E
http://www.proe.com
GPC
http://www.spec.org/gpc
NotesBench
http://www.notesbench.org
VolanoMark
http://www.volano.com
STREAM
http://www.cs.virginia.edu/stream/
SAP
http://www.sap.com/benchmark/
Oracle Applications
http://www.oracle.com/apps_benchmark/
PeopleSoft - To get information on PeopleSoft benchmarks, contact PeopleSoft directly
Siebel
http://www.siebel.com/crm/performance_benchmark/index.shtm
Baan
http://www.ssaglobal.com
Microsoft Exchange
http://www.microsoft.com/exchange/evaluation/performance/default.asp
Veritest
http://www.veritest.com/clients/reports
Fluent
http://www.fluent.com/software/fluent/index.htm
TOP500 Supercomputers
http://www.top500.org/
Ideas International
http://www.ideasinternational.com/benchmark/bench.html
Storage Performance Council http://www.storageperformance.org/results
48
IBM System & Technology Group
Revised January 15, 2008
© 2011 IBM Corporation
Notes on HPC benchmarks and values
The IBM benchmarks results shown herein were derived using particular, well configured, development-level and generally-available computer systems. Buyers should
consult other sources of information to evaluate the performance of systems they are considering buying and should consider conducting application oriented testing. For
additional information about the benchmarks, values and systems tested, contact your local IBM office or IBM authorized reseller or access the Web site of the benchmark
consortium or benchmark vendor.
IBM benchmark results can be found in the IBM Power Systems Performance Report at http://www.ibm.com/systems/p/hardware/system_perf.html.
All performance measurements were made with AIX or AIX 5L operating systems unless otherwise indicated to have used Linux. For new and upgraded systems, AIX
Version 4.3 or AIX 5L were used. All other systems used previous versions of AIX. The SPEC CPU2000, LINPACK, and Technical Computing benchmarks were compiled
using IBM'
s high performance C, C++, and FORTRAN compilers for AIX 5L and Linux. For new and upgraded systems, the latest versions of these compilers were used: XL
C Enterprise Edition V7.0 for AIX, XL C/C++ Enterprise Edition V7.0 for AIX, XL FORTRAN Enterprise Edition V9.1 for AIX, XL C/C++ Advanced Edition V7.0 for Linux, and
XL FORTRAN Advanced Edition V9.1 for Linux. The SPEC CPU95 (retired in 2000) tests used preprocessors, KAP 3.2 for FORTRAN and KAP/C 1.4.2 from Kuck &
Associates and VAST-2 v4.01X8 from Pacific-Sierra Research. The preprocessors were purchased separately from these vendors. Other software packages like IBM ESSL
for AIX, MASS for AIX and Kazushige Goto’s BLAS Library for Linux were also used in some benchmarks.
For a definition/explanation of each benchmark and the full list of detailed results, visit the Web site of the benchmark consortium or benchmark vendor.
SPEC
http://www.spec.org
LINPACK
http://www.netlib.org/benchmark/performance.pdf
Pro/E
http://www.proe.com
GPC
http://www.spec.org/gpc
STREAM
http://www.cs.virginia.edu/stream/
Veritest
http://www.veritest.com/clients/reports
Fluent
http://www.fluent.com/software/fluent/index.htm
TOP500 Supercomputers
http://www.top500.org/
AMBER
http://amber.scripps.edu/
FLUENT
http://www.fluent.com/software/fluent/fl5bench/index.htm
GAMESS
http://www.msg.chem.iastate.edu/gamess
GAUSSIAN
http://www.gaussian.com
ABAQUS
http://www.abaqus.com/support/sup_tech_notes64.html
select Abaqus v6.4 Performance Data
ANSYS
http://www.ansys.com/services/hardware_support/index.htm
select “Hardware Support Database”, then benchmarks.
ECLIPSE
http://www.sis.slb.com/content/software/simulation/index.asp?seg=geoquest&
MM5
http://www.mmm.ucar.edu/mm5/
MSC.NASTRAN
http://www.mscsoftware.com/support/prod%5Fsupport/nastran/performance/v04_sngl.cfm
STAR-CD
www.cd-adapco.com/products/STAR-CD/performance/320/index/html
NAMD
http://www.ks.uiuc.edu/Research/namd
HMMER
http://hmmer.janelia.org/
http://powerdev.osuosl.org/project/hmmerAltivecGen2mod
Revised January 15, 2008
49
IBM System & Technology Group
© 2011 IBM Corporation
Notes on performance estimates
rPerf
rPerf (Relative Performance) is an estimate of commercial processing performance relative to other IBM UNIX
systems. It is derived from an IBM analytical model which uses characteristics from IBM internal workloads, TPC
and SPEC benchmarks. The rPerf model is not intended to represent any specific public benchmark results and
should not be reasonably used in that way. The model simulates some of the system operations such as CPU,
cache and memory. However, the model does not simulate disk or network I/O operations.
rPerf estimates are calculated based on systems with the latest levels of AIX and other pertinent software at the
time of system announcement. Actual performance will vary based on application and configuration specifics. The
IBM eServer pSeries 640 is the baseline reference system and has a value of 1.0. Although rPerf may be used to
approximate relative IBM UNIX commercial processing performance, actual system performance may vary and is
dependent upon many factors including system hardware configuration and software design and configuration.
Note that the rPerf methodology used for the POWER6 systems is identical to that used for the POWER5 systems.
Variations in incremental system performance may be observed in commercial workloads due to changes in the
underlying system architecture.
All performance estimates are provided "AS IS" and no warranties or guarantees are expressed or implied by IBM.
Buyers should consult other sources of information, including system benchmarks, and application sizing guides to
evaluate the performance of a system they are considering buying. For additional information about rPerf, contact
your local IBM office or IBM authorized reseller.
Revised October 9, 2007
50
IBM System & Technology Group
© 2011 IBM Corporation

Documents pareils