Mmainframes

Transcription

Mmainframes
White paper
M
mainframes
en perspective
un classique plus moderne que jamais
Your business technologists. Powering progress
Table des matières
1.
Introduction et résumé
4
2. L’évolution du mainframe
6
2.1.
Position sur le marché
6
2.2.
Disponibilité, performances et utilisation
6
2.3.
Logiciels et normes 8
2.4.
Coût de possession ou d’utilisation
8
2.5.
Évolution de l’informatique
8
3.Comment le legacy mainframe
s’intègre-t-il au paysage informatique actuel ?
10
3.1.
Position sur le marché
10
3.2.
Disponibilité, performances et utilisation
12
3.3.
Logiciels et normes
12
3.4.
Moteurs de spécialité 13
3.5.
Coût de possession ou d’utilisation
14
3.6.
Considérations environnementales
15
3.7.
Mainframe et cloud computing
15
3.8.
Vieillissement de la main-d’œuvre
16
4.Les avancées dans le monde du mainframe
17
4.1.
La charte mainframe d’IBM
17
4.2.
Informatique hybride
17
4.3.
Consolidation des charges de travail
17
4.4.
Modernisation des charges de travail
18
4.5.
Nouvelles charges de travail
18
4.6.
Mainframe et cloud 19
4.7.
Architecture orientée services (SOA) 19
5.
Plan de mise en œuvre du mainframe
20
6.
Note finale 21
6.1
Références 21
6.2
Remerciements 21
Annexe A.
Petite histoire du mainframe
22
Annexe B.
A propos des MIPS, MSU et unités de service 23
2
Mainframes en perspective, un classique plus moderne que jamais
un classique plus moderne que jamais
...et pour longtemps encore
Ce livre blanc a été publié pour la première fois en 2007
en réaction à la rumeur déjà ancienne selon laquelle le
mainframe avait disparu. Chez Atos, nous savions qu’il en
était autrement : nous avons toujours poursuivi nos activités
en termes de services d’applications et de systèmes critiques
mainframe, notamment destinés à d’importants clients. Notre
activité mainframe continuait son chemin - et se développait.
Cinq ans plus tard, ce marché connaît une croissance
continue, tout comme le mainframe qui le sert.
Alors pourquoi devrions-nous hésiter à vanter les mérites du
mainframe ? Au-delà de l’expression “Tant que ça marche, on
ne touche à rien ! ”, les nombreuses qualités du mainframe en
font une plate-forme extrêmement viable.
Les entreprises sont aujourd’hui beaucoup plus ouvertes
sur le monde extérieur qu’elles ne l’étaient auparavant : leurs
clients veulent gérer leurs comptes bancaires ou acheter via
Internet 24 heures sur 24, tandis que des “hackers” tentent
des intrusions de leurs systèmes informatiques. Et tout ceci
doit s’appuyer sur une chaîne logistique et un écosystème de
partenaires toujours plus complexes.
Aujourd’hui plus que jamais, les entreprises veulent des
technologies qui fonctionnent, tout simplement : 100% fiable,
sans incident, 24 heures sur 24. Ces technologies doivent
également être compatibles avec les applications les plus
récentes. C’est là qu’entrent en jeu les solutions mainframe
proposées par Atos.
Mick Symonds, Atos
Principal Solutions Architect, Atos IT Systems Management
Utrecht, mars 2013
Mainframes en perspective, un classique plus moderne que jamais
3
1. Introduction et résumé
Malgré l’annonce renouvelée de sa disparition, le mainframe
continue d’exister et se porte plutôt bien. Il constitue une plate-forme
extrêmement viable pour l’exécution des applications informatiques
récentes. Cela peut en surprendre plus d’un, et notamment ceux qui
ont pris leurs distances avec cette plate-forme il y a dix ans ou plus.
Dans leur utilisation de l’informatique,
les entreprises doivent continuellement
trouver le juste équilibre entre qualité de
service (QoS) et coût.
Qualité de service :
„„Meilleure disponibilité des services
„„Délai réduit de mise en place des
nouveaux services
„„Complexité réduite, facilité d’utilisation
„„Conformité avec les normes et
réglementations.
Coût :
„„Coûts d’achat et de fonctionnement réduits
„„Meilleure utilisation des ressources
„„Coûts d’administration réduits
„„Transparence des contrats.
Certaines modes semblent cycliques et nous
les redécouvrons périodiquement. C’est
apparemment le cas avec les mainframes :
nous avions tous l’habitude de les utiliser il y
a quelques années, mais un grand nombre
de DSI ont été séduits par les avantages
d’autres plates-formes dans une démarche
de downsizing. Aujourd’hui, ces organisations
recentralisent leur SI, et bon nombre d’entre
elles se remémorent comment les choses se
passaient sur le mainframe.
4
Ce serait pourtant une erreur de penser
retrouver la plate-forme mainframe telle qu’elle
était il y a plusieurs années. Elle n’est pas restée
figée dans le temps, mais a évolué au même
titre que les autres plates-formes, tout en
conservant les mêmes niveaux de qualité et
de fiabilité. Par ailleurs, les ventes de systèmes
mainframe n’ont cessé d’augmenter.
Beaucoup de grandes d’entreprises
comptent toujours sur les mainframes
“super ordinateurs”, pour:
„„Réaliser des milliers de transactions
par seconde
„„Prendre en charge des milliers d’utilisateurs
accédant simultanément aux mêmes
applications et ressources
„„Permettre à de multiples programmes
applicatifs des accès à de nombreuses
ressources sans problème et respectant
les règles de sécurité
„„Gérer des volumes considérables
de données
„„Recevoir ou diffuser d’énormes quantités
de données
„„Interagir, comme un véritable Interagir,
comme un véritable “système ouvert”, avec
les applications des autres plates-formes.
La plate-forme mainframe est réputée pour
son très haut niveau de qualité mais aussi,
surtout pour ceux qui ne l’utilisent pas, pour
son coût élevé, son caractère monolithique et
son manque de flexibilité. Pourtant, elle peut
se révéler très rentable en comparaison à la
multiplication de systèmes plus petits. Et elle
offre une grande souplesse de configuration.
C’est une plate-forme en perpétuelle évolution.
Bien souvent ce n’est pas la plate-forme ellemême qui manque de flexibilité, mais plutôt
les procédures élaborées autour d’elle au fil du
temps et/ou une certaine réticence à exploiter
les nouvelles fonctionnalités du mainframe.
Selon des études récentes menées par IBM
validées par Illuminata et d’autres analystes
indépendants, la comparaison des coûts par
rapport aux autres plates-formes est très
favorable au mainframe.
Certains s’inquiètent également de son
isolement dans l’univers informatique. Durant
ses premières années d’existence, IBM a en
effet inventé ses propres normes de facto.
Depuis, le constructeur a le souci constant
de prendre en charge les standards du
marché. À l’heure actuelle, le mainframe offre
une excellente connectivité avec les autres
plates-formes. Ainsi le mainframe peut concilier
le meilleur des deux mondes et exécuter
des applications anciennes reposant sur
d’anciennes normes ainsi que de nouveaux
services reposant sur des standards modernes.
Les réticences à l’égard des mainframes prêtent
également à sourire alors que toute la sphère
informatique ne parle que de virtualisation
et de cloud computing. Pourtant, la base du
cloud, l’IaaS (Infrastructure as a Service ou
“infrastructure en tant que service”), est aussi
la base de l’informatique “à la demande”
(voir le livre blanc “Shaping the Cloud ”, Atos,
novembre 2011). Les concepts qui y entrent
en jeu circulent dans le monde du mainframe
depuis plus de 40 ans. Avec sa solution de
virtualisation, VMware propose pour les platesformes Intel, et pour l’instant de manière moins
élaborée, ce que le système VM/370 faisait
sur les mainframes dans les années 1970 et
continue à faire (mieux encore) dans sa
version z/VM.
Mainframes en perspective, un classique plus moderne que jamais
Le mainframe gère une informatique
à la demande et ce depuis ses origines.
Sous couvert d’innovation, les fournisseurs
de services cloud sont en réalité en train
de “réinventer le mainframe” à de
nombreux égards.
Avec le lancement de zEnterprise, la nouvelle
génération de mainframes est également la
première plate-forme à fournir une solution
informatique hybride intégrée, prête à l’emploi.
Néanmoins, le mainframe a encore sa place
dans les entreprises qui nécessitent des
environnements informatiques de haute
qualité. En effet, quelle autre plate-forme peut
répondre à ce besoin ?
Ce document répond à cette apparente énigme
et donne quelques indications quant à la façon
d’intégrer la plate-forme mainframe dans la
stratégie des entreprises.
Une analyse récente réalisée par Gartner a
révélé deux des plus importants obstacles
à l’utilisation des systèmes mainframe
aujourd’hui. Le premier (20%) est la perception
qu’en ont les dirigeants via les “gourous”
du moment, qui affirment : “j’ai lu dans un
magazine que le mainframe était mort”.
Le second (18%) est l’opposition de la part de
l’équipe de support Linux qui trouve que le
mainframe n’est pas “assez tendance”.
Chez Eurocontrol, l’organisation européenne pour la gestion
du trafic aérien, basée à Maastricht aux Pays-Bas, la sécurité
du trafic aérien est une priorité. Des volumes considérables
de données (données de vol, déploiement du personnel
et scénarii de formation) font l’objet d’un traitement en
temps réel afin de produire des informations exploitables.
Un environnement informatique fiable et efficace est donc
essentiel à l’accomplissement de cette tâche. Pour mettre en
place ce datacenter intelligent, Eurocontrol et IBM consolident
une partie de l’environnement informatique actuel en un
datacenter hybride virtuel reposant sur un serveur IBM
zEnterprise et le système d’exploitation Linux. L’objectif est
d’obtenir une meilleure visibilité sur les opérations, une plus
grande flexibilité, une meilleure réactivité, une capacité accrue,
une plus grande disponibilité des systèmes, ainsi que des
économies de coûts considérables au niveau de la supervision,
des licences, des m2 occupés et de la consommation énergétique.
“Eurocontrol consolide l’environnement informatique en un datacenter virtuel,
étude de cas IBM, 2011”
Mainframes en perspective, un classique plus moderne que jamais
5
2.L’évolution
du mainframe
2.1. Position sur le marché
En 1943, Thomas Watson d’IBM a prononcé
cette fameuse phrase: “je pense qu’il existe un
marché mondial pour environ 5 ordinateurs”.
Mais les vingt années qui ont suivi ont vu
l’émergence d’un marché un peu plus
conséquent. Dans les années 1960 et 1970,
il existait un certain nombre de fabricants
d’ordinateurs de grande puissance, que l’on
surnommait alors familièrement “IBM et les
sept nains” : Burroughs, Control Data, General
Electric, Honeywell, NCR, RCA et Univac.
Le lancement par IBM de la gamme
System/360 en 1964 a été une véritable
révolution, principalement due à la nature de
son architecture. Avant elle chaque ordinateur
était une machine unique, fabriquée sur
commande, sans continuité dans la conception.
Et chacun était dédié à une application unique,
avec des systèmes différents pour les activités
commerciales ou scientifiques.
La gamme System/360 comprenait à l’origine
cinq modèles, partageant une architecture
et des périphériques communs. Les clients
pouvaient évoluer vers des processeurs plus
récents et plus puissants avec la garantie d’une
compatibilité ascendante.
Le cahier des charges de l’architecture
System/360 répondait à un certain nombre
de besoins clés:
„„Gestion de grosses capacités de stockage
gérées avec flexibilité, avec une grande
variété de formats de données
„„Taux d’entrée/sortie (E/S) élevés avec des
interfaces standard
„„Capacité de traitement à usage général,
avec des fonctions de supervision
„„Évolutivité, dans un rapport de tailles
de 1 à 50.
Le S/360 fut le premier système à utiliser
du microcode (ou firmware) en place du
câblage classique. Ces micro-instructions,
inaccessibles par les programmes autres que
ceux chargés de les exécuter, offrent un niveau
de flexibilité intermédiaire entre le hardware
et le software : si un système a besoin d’être
maintenu ou agrandi, la mise à niveau peut être
effectuée sans remplacer le matériel lui-même.
Cette interface architecturale standard a été
décrite dans un document fondateur “Principles
of Operation”.
6
Grâce à une telle architecture, les autres
fournisseurs (par exemple, Amdahl, StorageTek,
Hitachi) peuvent concevoir des matériels
(processeurs ou systèmes de stockage)
compatibles avec ceux d’IBM, et ce, de façon
transparente pour les logiciels système,
les applications et les utilisateurs.
Cette avancée a ouvert le marché du
mainframe à la concurrence.
Dans les années 1970, avec l’accroissement
des options, les ordinateurs restaient des
équipements centralisés de grande taille et
coûteux, nécessitant des investissements
majeurs et des équipes de support spécialisées,
utilisés par de grandes entreprises (telles
que les banques) pour le traitement des
données de masse. À cette époque-là, les
concurrents d’IBM étaient devenus “La bande”
(The Bunch) : Burroughs, UNIVAC, NCR, Control
Data et Honeywelll. Cette vision essentiellement
axée sur les États-Unis ignorait d’autres
fabricants locaux en Europe, par exemple
Bull, ICL et Siemens.
Les années 1980 virent ce marché subir
d’importants bouleversements avec des
disparitions et des prises de contrôle.
Au début des années 1990, la plupart des
décideurs décrétaient que les mainframes
(ces “dinosaures”) étaient obsolètes et
s’engageaient résolument dans une démarche
de downsizing vers d’autres plates-formes
(“small is beautiful”).
L’ironie veut que le marché du mainframe ait
connu un regain d’intérêt dans les années
1990, avec les applications de back-office.
Ce renouveau, permis par l’ouverture de
la plate-forme aux standards du marché,
bénéficiait de l’émergence du commerce
électronique et de l’utilisation d’Internet pour les
activités commerciales. Le fort accroissement
du nombre de transactions de back-office,
la taille et le niveau d’activité des bases de
données qu’elles entraînaient ont permis de
relancer le marché.
Ces systèmes devinrent très vite trop
imposants et trop stratégiques pour envisager
leur migration vers une autre plate-forme,
quand bien même elle eut été possible.
2.2. Disponibilité, performances
et taux d’utilisation
La haute disponibilité, les performances et
le taux d’utilisation font la différence entre le
mainframe et les autres plates-formes. Les
mainframes reposent sur un haut niveau
de qualité. Le parallélisme d’exécution de
nombreuses applications sur la même machine
est un autre principe de base. Dans le monde
du mainframe, l’amélioration permanente de
la fiabilité, de la disponibilité et de la facilité de
maintenance est un dogme (principe RAS Reliability, Availability and Serviceability - d’IBM).
Les concepts de sécurité et d’intégrité ont
été intégrés dès l’architecture hardware
S/360 initiale, permettant d’assurer un niveau
de protection en “mode superviseur”, les
instructions système accessibles au seul
système d’exploitation.
Cette tendance s’est poursuivie dans les années
1970, avec le lancement du premier système
d’exploitation MVS (Multiple Virtual Storage)
renforçant l’intégrité du système et permettant
d’isoler complètement les types d’applications
se partageant une même machine. Ce
système d’exploitation optimisait la mémoire
réelle (alors limitée et coûteuse) de façon très
efficace en la partageant, et ce de manière
très sécurisée, grâce à la mise en œuvre d’une
mémoire virtuelle s’appuyant sur la traduction
dynamique d’adresse (DAT) permettant de
simuler cette mémoire virtuelle dans l’espace
mémoire réel. Cette mémoire virtuelle permet
également un adressage mémoire qui peut
parfaitement isoler les groupes d’applications.
Le mécanisme de sécurité intégré au système,
RACF (Resource Access Control Facility), a été
par la suite appliqué aux ressources externes
(stockage et réseau notamment), de manière à
garantir la sécurisation et l’étanchéité totale des
groupes applicatifs et de leurs données.
La charge de travail d’un mainframe est
gérée au travers de priorités adéquates par
le biais d’un répartiteur de charge basé sur
une stratégie de gestion de performances.
La machine peut être occupée à 100% de sa
capacité sans aucune conséquence sur les
performances applicatives ; un pic de charge
prolongé n’a aucune incidence majeure sur
ces performances.
Mainframes en perspective, un classique plus moderne que jamais
“Au milieu du bois, deux chemins face à moi.
J’ai pris le moins fréquenté et cela a fait
toute la différence”
La voie ignorée “The Road Not Taken”, Robert Frost (1874-1963)
Le niveau de disponibilité déjà élevé est encore
monté d’un cran au milieu des années 1990
avec le lancement de Parallel Sysplex, l’une des
premières technologies de clustering. Celle-ci
permet d’associer jusqu’à 32 partitions logiques
(LPAR) de mainframe opérant comme un seul
système. Le concept est similaire à celui du
clustering Unix, sauf qu’il est possible d’ajouter
ou de supprimer des LPARs (ou “serveurs”)
selon les besoins, alors que les applications
continuent à tourner sans interruption. Parallel
Sysplex permet un accès simultané aux
données depuis chacune des LPARs sans
impact sur les performances ou l’intégrité.
Les applications peuvent ainsi être clonées et
réparties sur le cluster (équilibrage de charge),
à une distance maximale de 20 km. Ainsi il est
possible d’installer la moitié des “serveurs” sur un
site et l’autre moitié sur un site distant de 20 km
dans une configuration de datacenters jumeaux
(twin datacenters). Ces serveurs se comportent
comme un seul et unique système. Cette
technique de clustering est parfaite pour assurer
la disponibilité permanente des applications.
Des mécanismes de reprise après incident (DR;
Disaster Recovery) et de haute disponibilité
(HA) sont gérés grâce au dispositif GDPS
(Geographically Dispersed Parallel Sysplex) qui
peut étendre les fonctionnalités Parallel Sysplex
sur de plus grandes distances (100 km et plus).
Avec le lancement des systèmes zEnterprise
en 2010, le mainframe fait ses premiers pas
dans l’arène de l’informatique hybride. Pour la
première fois, il est possible de déployer une
plate-forme matérielle intégrée réunissant le
mainframe et des systèmes distribués (Unix,
AIX, Windows) : une solution permettant la
consolidation des différents composants du
SI, contribuant ainsi à réduire la complexité,
renforcer la sécurité et rapprocher les
applications des données dont elles ont besoin.
Avec le système zEnterprise, un nouveau
concept apparait dans les infrastructures
informatiques : les ensembles zEnterprise.
Un ensemble zEnterprise regroupe un grand
nombre de serveurs hétérogènes avec un
haut degré de virtualisation, qui peuvent être
gérés comme une entité logique unique et sur
lesquels les applications peuvent être réparties.
Les capacités de virtualisation, de flexibilité,
de sécurité et de gestion globale du système
zEnterprise lui permettent de fournir une vraie
réponse aux problèmes complexes posés par
l’infrastructure des systèmes informatiques
d’aujourd’hui.
Mainframes en perspective, un classique plus moderne que jamais
La notion de virtualisation logicielle a fait
son apparition en 1972 avec le système
d’exploitation VM. Avec l’arrivée de la
technologie MDF (Multiple Domain Facility)
d’Amdahl fin 1984, le premier véritable système
de virtualisation hardware voit le jour. Quelques
années plus tard, IBM suit avec une technologie
plus flexible : PR/SM (Processor Resource/
System Manager). Il s’agit d’hyperviseurs de
type 1 qui permettent à plusieurs partitions
logiques (LPAR) de partager des ressources
physiques telles que les processeurs, la mémoire,
les canaux d’E/S et l’accès aux périphériques
de stockage. Le noyau des hyperviseurs est
intégré au microcode de la machine.
Il est possible de créer des partitions logiques
(LPAR) pour traiter des groupes d’applications
de façon totalement indépendante sur des
systèmes d’exploitation distincts partageant
un même ensemble de processeurs physiques
(CPC). La virtualisation ne se limite pas au
fractionnement de la capacité des processeurs,
mais gère également la mémoire et les canaux
d’E/S. Il est intéressant de noter que nous
n’avons encore relevé aucune faille de sécurité
dans cette solution de virtualisation mainframe.
La virtualisation a également été étendue
à d’autres équipements, tels que les
périphériques de stockage et les réseaux.
Dès le début, les mainframes utilisaient des
adresses de stockage virtuelles et plusieurs
canaux vers le même périphérique afin de
garantir la souplesse d’accès. Les mainframes
IBM ont figuré parmi les premières platesformes à introduire la technologie de gestion
hiérarchique du stockage (HSM - Hierarchical
Storage Management). Cette technologie
permet d’archiver les données disque sur
des dispositifs de stockage moins coûteux
(bandes puis cassettes) tout en garantissant
aux applications et aux utilisateurs un accès
transparent aux données ainsi archivées.
Depuis le début des années 1990, il est possible
d’utiliser des automates de bandes en tant
que bibliothèques de bandes virtuelles (VTL
- Virtual Tape Libraries). Une VTL comprend
un composant de stockage (un serveur de
bandes virtuelles, ou VTS, avec stockage sur
disque dur) qui sert de bibliothèque de bandes
et qui est connecté à un automate gérant les
supports physiques. Il existe à l’heure actuelle
de nombreuses autres technologies pour
optimiser cette gestion physique et logique des
stockages : réplication des données (mirroring),
RAID, provisionnement virtuel ou allocation
dynamique, duplication.
La virtualisation correspond à la création d’une couche d’abstraction logique sur
l’environnement physique. Elle nécessite l’interposition d’une interface de manière à
pouvoir utiliser différentes ressources “masquées”. Plusieurs systèmes peuvent ainsi
apparaître comme un seul système et vice-versa.
La virtualisation peut être appliquée à une multitude de ressources.
En voici quelques exemples :
„„Services : découplage des ressources de l’infrastructure utilisée pour fournir
les services
„„Applications : utilisation d’interfaces Web services, qui permettent à un grand nombre
de clients d’utiliser une même application
„„Serveurs : exécution de plusieurs applications sur le même serveur physique,
sous plusieurs o/s (operating system) ou un seul
„„Stockage : stockage des données sur une grande variété de périphériques de
stockage physique
„„Réseaux : réseau étendu (WAN) ou local (LAN). Exécution de différents services
sur les mêmes câbles.
La virtualisation peut être exploitée sur une gamme de plus en plus hétérogène de
périphériques ; il est ainsi possible de combiner des périphériques différents ou de les
remplacer. Elle permet également d’optimiser l’utilisation de ces ressources.
7
2.3. Logiciels et normes
Les mainframes assurent leur pérennité en
garantissant la compatibilité ascendante de
tous les logiciels, quelque soit l’importance des
changements. Les nouvelles versions étendent
les fonctionnalités, elles ne les modifient pas.
Par ailleurs, aucune migration ou reprise de
code n’est imposée lors de la création d’une
nouvelle version du matériel ou des logiciels.
Différents systèmes d’exploitation
(OS : operating system) peuvent être exécutés
sur le mainframe :
„„z/OS : l’OS phare pour les applications à
haute disponibilité et à haut débit, successeur
des systèmes MVT, MVS et OS390. Il permet
d’exécuter directement des programmes
Unix car ce système d’exploitation contient
un noyau (kernel) Unix conforme à la
norme POSIX
„„z/VM : hyperviseur permettant d’exécuter
plusieurs systèmes d’exploitation sur la
même machine. Successeur de VM/370.
Aujourd’hui, z/VM est principalement utilisé
pour gérer des serveurs Linux on z, afin
d’exécuter plusieurs centaines de systèmes
Linux virtuels dans un même environnement
z/VM. Avec ses évolutions permanentes
depuis 40 ans, z/VM est sans conteste le
meilleur instanciateur z/Linux du moment
„„z/VSE : système d’exploitation réduit
conçu à l’origine pour les systèmes moins
sophistiqués. Il est le successeur des
premiers OS IBM : DOS, DOS/VSE
„„Linux on z : implémentation Linux complète,
disponible sous la forme de distributions
SUSE (Novell) ou Redhat, à travers une
offre IBM très attractive (LSE Linux
Server Enterprise)
„„z/TPF : environnement de traitement des
transactions en ligne, en temps réel et à
grande échelle, capable de prendre en
charge de très gros volumes. Spécialement
développé pour les systèmes de réservation
des compagnies aériennes et de traitement
des cartes de paiement.
8
Tous ces systèmes peuvent être exécutés
dans une partition logique (LPAR), sous le
contrôle d’un hyperviseur matériel (PR/SM)
ou sous z/VM.
IBM a introduit le concept d’ensemble ALS
(Architectural Level Set) pour associer les
niveaux de compatibilité du matériel et du
système d’exploitation : un ensemble ALS
précise les caractéristiques architecturales
et hardware nécessaires pour assuer la
compatibilié d’un mainframe IBM avec une
version donnée du système d’exploitation.
Cela permet d’assurer des cycles de vie assez
longs dans cet environnement. En règle
générale, une nouvelle gamme de modèles voit
le jour tous les 2 ans et demi environ, et peut
être utilisée de huit à dix ans.
Les logiciels middleware ont primitivement fait
leur apparition dans le monde du mainframe,
comme une couche logicielle située
au-dessus du système d’exploitation afin
de faciliter le développement et l’exécution
des applications. Au sein du système
d’exploitation, vous avez le choix entre un
certain nombre d’environnements middleware :
„„Systèmes de gestion des bases de données
(DB2, IMS, IDMS, Datacom, Adabas, Oracle )
„„Systèmes de traitement des transactions
(CICS, IMS, IDMS, TSO, Roscoe)
„„Traitement par lots
„„Langages de troisième génération
(COBOL, Fortran, PL/1, Pascal,
C, Assembler, JAVA)
„„Langages de quatrième génération
(4GL : Focus, Natural, Mark-IV, EGL)
„„Hébergement Web (Websphere,
Apache, Weblogic)
La majorité des programmes mainframe
restent écrits en Cobol, avec PL/1, Assembler, C
et C++ qui occupent également une part non
négligeable. Mais la principale nouveauté dans
ce domaine, qui accompagne la mise en œuvre
des architectures orientées services (SOA) et
des services Web, est la montée en charge du
langage Java sur cette plate-forme sur laquelle
IBM optimise le support en terme de coût et
de performances.
Bien entendu un large choix d’outils
d’administration des systèmes, bien rodés
permet sur le mainframe l’automatisation des
opérations, des plannings, la gestion de la
sécurité, ainsi que la gestion des données.
2.4. Coût de possession
ou d’utilisation
De par sa taille, le mainframe n’a jamais
été un équipement à faible coût. Mais en
compensation, il peut être utilisé de façon très
intensive et le taux de parallélisme d’exécution
des groupes d’applications est sans pareil, sans
aucun effet négatif sur l’intégrité et la sécurité. Il
est donc tout à fait approprié de partager une
machine mainframe entre plusieurs clients, ce
qui en rend le coût d’utilisation plus acceptable.
Plusieurs études indépendantes montrent
que le coût réel total de possession (TCO :
Total Cost of Ownership) des mainframes est
largement inférieur à celui de leur équivalent
(systèmes distribués).
2.5. Évolution de l’informatique
Les technologies de l’informatique ont évolué
en plusieurs vagues, chacune étant considérée
comme un “nouveau paradigme” et une
avancée radicale.
„„Applications spécifiques développées par
des éditeurs de logiciels indépendants
(SAP, etc.).
Mainframes en perspective, un classique plus moderne que jamais
Plutôt que de rester figé dans le modèle
initial, le mainframe a véritablement surfé
sur la plupart de ces vagues. Ainsi avec
un environnement mainframe à niveau,
il est possible de mettre en œuvre le
meilleur de chacune de ces vagues
d’innovations informatiques.
Années 1990
ESA/390 (Enterprise Systems Architecture) :
gestion d’espaces d’adressage multiple.
L’architecture mainframe, tout en assurant les
compatibilités nécessaires, a elle-même évolué
au cours des différentes décennies :
Années 2010
zEnterprise : premier pas dans l’environnement
informatique hybride faisant coexister
systèmes d’exploitation mainframe et systèmes
distribués. Les applications peuvent être
distribuées dans une seule machine gérant
les O/S System z et AIX, Linux et Windows.
Années 2000
z/Architecture : lancement de l’adressage
64 bits et des canaux dynamiques.
Années 1960
System/360 : la genèse.
Années 1970
System/370 : ajout du multitraitement,
d’instructions supplémentaires et de la
mémoire virtuelle.
Années 1980
S/370-XA (eXtended Architecture) : apparition
de l’adressage 31 bits.
Quelques étapes dans l’évolution
de l’informatique
Cloud computing
Standardisation accrue mais suppression
des contraintes de propriété
Infrastructure en tant que service
Serveur, stockage et réseau
Des boîtiers au modèle serveur
En cours d'évolution...
Informatique à la demande
Choix plus large, coûts informatiques
et opérationnels réduits
Axée sur les serveurs
Service à la demande
Informatique en tant que service
Fusion dans le cloud
Portails d'entreprise
Convivialité accrue,
coûts de création réduits
Axée sur les serveurs
Centralisation du contrôle et de la gestion
Utilisation flexible, personnalisable
Orienté utilisateur
Informatique sur serveur
Plus grande facilité de gestion,
coûts informatiques réduits
Axée sur les serveurs
Centralisation du contrôle et de la gestion
Clients légers ou lourds
Orienté applications, utilisation flexible
Informatique distribuée
Flexibilité
accrue
Client / serveur
Clients lourds :
Facilité d'utilisation, personnalisation possible
Hétérogénéité, gestion complexe
Informatique centralisée
Axée sur les serveurs
Mainframes et terminaux passifs
Centralisation du contrôle et de la gestion
Modèle rigide
Mainframes en perspective, un classique plus moderne que jamais
9
3. Comment le mainframe
legacy s’intègre-t-il dans
le SI aujourd’hui ?
Pourquoi continue-t-on à construire et à utiliser le mainframe ?
Ces plates-formes offrent toujours la possibilité de gérer bases
de données, applications, serveurs de fichiers, serveurs Web,
pare-feu, etc… sur une seule machine, et avec un niveau de
sécurité et de fiabilité élevé.
En réalité, la plus grande menace qui pèse sur
le marché du mainframe ne vient pas d’une
quelconque faiblesse de la plate-forme ellemême, mais plutôt de l’évolution permanente
des autres plates-formes jusqu’à un niveau jugé
assez satisfaisant pour la remplacer.
3.1. Position sur le marché
De nombreuses plates-formes autres que
System z d’IBM ont été qualifiées de
“mainframe ”. Unisys a fabriqué les systèmes
ClearPath et leur ES7000 a parfois été qualifié
de “mainframe Intel ”. HP a vendu les anciens
Tandem NonStop et le Groupe Bull le système
DPS, sans oublier la gamme VAX 9000
de DEC. Bien que ces systèmes aient partagé
des caractéristiques communes (par exemple
la haute disponibilité intégrée grâce à
la redondance), la part de marché du
System z d’IBM est largement supérieure
à 90% dans cette catégorie : c’est LE
mainframe par excellence.
Le chiffre d’affaires généré par IBM sur la
vente du seul matériel mainframe est estimé à
environ 4,3 milliards de dollars par an1, auquel
on peut ajouter les logiciels et les services.
Ce chiffre d’affaires est resté à peu près
constant au cours des dernières années
alors que le nombre de MIPS livrées a
considérablement augmenté, ce qui indique
que le prix par MIPS a bien baissé durant cette
période. En effet, cette tendance est clairement
illustrée dans le graphique ci-dessous, qui
indique par ailleurs une baisse encore plus
marquée pour les MIPS à vocation spécialisée.
CA du System z d’IBM (en milliards de dollars) et évolution du CA avec les
lancements de produits majeurs - 2004 à 2010 - analyse glissante 4T
$7
Croissance
$6
Le graphique ci-contre publié par ITCandor
montre qu’il existe un marché substantiel
continu pour les systèmes mainframe qui a
récemment connu une croissance significative.
Cela s’explique par le fait que ceux pour qui
le mainframe n’était pas adapté ont déjà pris
leurs distances avec cette plate-forme et ceux
qui y restent fidèles étendent leur utilisation en
même temps que leurs activités.
D’après le dernier rapport annuel d’IBM,
“le chiffre d’affaires du segment systèmes
et technologies s’élevait à 5,8 milliards de
dollars pour le trimestre. Le chiffre d’affaires
du mainframe System z a augmenté de
56% par rapport à la même période de
l’exercice précédent ”.
$5
20%
15%
Taille
zEnterprise
z890
z9 2094
z9 2096
10%
z10 2097
$4
5%
$3
0%
z10 2098
$2
-5%
$1
-10%
$0
-15%
2004
2005
2006
2007
2008
2009
2010
Source: ITCandor, January 2011
1. Start Planning for the Next Generation of IBM Mainframes, Gartner G00226761, January 2012
10
Mainframes en perspective, un classique plus moderne que jamais
En résumé, les chiffres du mainframe
évoluent dans le bon sens, même après
toutes ces décennies.
Coûts par MIPS IBM
120%
100%
80%
60%
40%
20%
0%
2001
2002
2003
Généraliste
2004
2005
2006
2007
2008
2009
Spécialisé
Écosystème IBM zEnterprise System en pleine expansion
System z total instaled capacity
YE03
YE04
150+
Unités BladeCenter
extension ; plus de
1 100 serveurs lames
en service
YE05
140+
YE06
YE07
96
YE08
YE09
2/3+
Nouveaux comptes depuis Les 100 premières banques
le lancement de zEnterprise mondiales utilisent le
au 3T2010, avec 1/3 sur les
System z d'IBM
marchés émergents
Les 100 plus gros clients
ont installé des IFLs
YE10
2Q12
YE11
7,400+
1,067
Les applications d'éditeurs
de logiciels indépendantes
(IVSs) s'exécutent sur
System z d'IBM ; 45
nouveaux ISVs au 1S2012
Les écoles dans 67 pays
participent au programme
IBM Academie pour le
System z
(source: IBM2012)
Mainframes en perspective, un classique plus moderne que jamais
11
3.2. Disponibilité, performances
et utilisation
Les mainframes offrent un niveau de
disponibilité et de tolérance très élevé aux
pannes. Ils sont conçus sans composant
critique unique. Plus que toute autre
plate-forme, ces systèmes intègrent des
technologies et composants internes
redondants : les IBM System z exécutent
chaque instruction deux fois, en parallèle,
puis comparent les résultats (“lock-stepping”).
Les charges de travail peuvent être transférées
à la volée vers des processeurs de secours,
sans aucun impact sur les traitements en
cours d’exécution.
À l’heure où de nombreux fournisseurs
parlent de disponibilité “five nine” (99,999%)2,
il est bon de faire savoir que la plupart
des mainframes installés affichent une
disponibilité de 100% (bien que les heures
de service garanties puissent être inférieures
à cette valeur). Et ce avec des niveaux de
performances élevés (il n’existe pas de notion
de qualité de service (QoS) inférieure avec
les services mainframe) et une durée de
fonctionnement moyenne entre deux pannes
(MTBF, Mean Time Between Failure) de plus de
20 ans. À vrai dire, la MTBF est sujet à débat :
certains évoquent une durée de plus de
30 ans, voire 50 ans.
Une enquête de l’institut Eagle Rock Alliance
remontant à 2001 a identifié les coûts
occasionnés par les temps d’arrêt pour
un échantillon d’utilisateurs : plus de
50 000 $/heure pour plus de la moitié d’entre
eux et plus de 1 000 000 $/heure pour 8%
d’entre eux. Le caractère stratégique des
systèmes a probablement pris encore de
l’ampleur depuis, avec la généralisation de
l’accès en temps réel et du commerce par
Internet. Cette enquête illustre pourquoi il
peut s’avérer judicieux de payer plus pour
bénéficier d’un haut niveau de disponibilité.
Par ailleurs, la plate-forme Z est sécurisée par
nature car les risques de virus sont nuls et les
menaces de piratage limitées. La structure
architecturale des mainframes rend impossible
toute infection virale. Cette plate-forme n’est
pas aussi disponible ou connue du grand
public que Windows ; c’est pourquoi les jeunes
hackers ne peuvent s’y attaquer. Une attaque
serait non seulement plus difficile à imaginer
mais encore plus difficile à mettre en œuvre :
les fournisseurs de services évitent de mettre
en place des mainframes sans protection dans
des environnements ouverts tels que le cloud,
comme ils le font avec certains autres serveurs.
Et même si le piratage était possible, l’impact
serait très limité en raison de la conception
architecturale et de la sécurité intrinsèque de
la plate-forme : chaque processus s’exécute
dans son propre espace, indépendamment
des autres, grâce à des mécanismes hardware
et du microcode.
Le mainframe peut également offrir des
niveaux de service élevés grâce à son
architecture qui s’appuie sur des processeurs
centraux CP (Central Processor) et des
processeurs SAP distincts, tels que les
processeurs d’entrée/sortie dédiés (IOP) et les
processeurs pour les services de chiffrement
(CryptoExpress) ; des processeurs de secours
sont prêts à prendre immédiatement le relais
en cas de panne des processeurs principaux.
Les processeurs sont mis en oeuvre au moyen
d’algorithmes de répartition qui leur évitent
d’attendre la fin de l’exécution des E/S (ou
d’autres processus secondaires tel que le
chiffrement), contrairement à certaines
autres plates-formes.
Le mainframe se distingue également par
sa capacité : volumes de données traitées
(capacité de traitement pouvant atteindre
78,400 MIPS pour une machine), quantités de
données stockées et transférées (jusqu’à 288
Go par seconde), jusqu’à 3 To de mémoire
réelle et, depuis le lancement de zEnterprise,
fréquence d’horloge la plus rapide (processeur
de 5,5 GHz sur le zEC12).
Dans le document “Triggers for refreshing
servers” de juin 2005, et donc avant la
virtualisation des systèmes distribués, Forrester
indique que “le taux moyen d’utilisation pour
les serveurs Wintel varie généralement entre
8 et 15%, et entre 28 et 45% pour les systèmes
Unix/RISC. Pour un System z d’IBM, ce taux
est compris entre 65 et 75%”. Les mainframes
peuvent fonctionner sans problème à 100%
pendant des périodes prolongées.
Les performances du mainframe restent
donc incontestablement les plus élevées.
3.3. Logiciels et normes
Durant les 20 premières années d’existence
du mainframe, IBM a inventé ses propres
normes de facto. Mais depuis, avec l’arrivée
de l’informatique distribuée et d’Internet, IBM
assure la prise en compte des normes et
standards du marché.
Comme avec d’autres aspects du mainframe,
vous pouvez cependant continuer à faire
coexister anciens et nouveaux standards.
Le mainframe prend en charge les protocoles
réseau TCP/IP (ainsi que SNA et VTAM),
les services d’annuaire LDAP (ainsi que ses
propres catalogues d’annuaire et de sécurité),
la technologie Open Source, les connecteurs
DB2, le partage de fichiers, etc.
2. il faut être prudent face aux déclarations d’intention concernant les hauts niveaux de disponibilité; les coûts augmentent exponentiellement pour chaque 9 dixiéme supplémentaires ;
ne pas oublier que 99,999% de disponibilité correspond à un arrêt de 5,26 minutes par an ou de 6 secondes par semaine https:en.wikipedia.org/wiki/High_availibility
12
Mainframes en perspective, un classique plus moderne que jamais
Un environnement mainframe est polyvalent
par nature et peut donc exécuter une grande
variété de systèmes informatiques :
„„anciens logiciels : les programmes écrits il y
a plusieurs dizaines d’années en Cobol, PL/1,
Fortran ou même Assembler fonctionnent
toujours sur les systèmes les plus modernes
„„plusieurs environnements applicatifs peuvent
coexister : traitement par lots, en ligne,
interactif et accès Web
„„les plates-formes les plus modernes sont
également prises en charge : Java, SOA
(architecture orientée services, au moyen
de Websphere), C++, XML, etc.
Un mainframe peut exécuter les applications
Cobol et CICS datant de 25 ans, ainsi que celles
écrites récemment selon SOA etJava. Ceci
malgré les évolutions majeures du matériel,
de l’OS et des sous-systèmes logiciels. La
compatibilité ascendante été assurée afin de
protéger l’investissement dans les logiciels
dits historiques. C’est pourquoi il existe autant
d’anciennes applications “legacy” qui tracassent
les gestionnaires d’applications. Etant en parfait
état de fonctionnement, ils n’ont donc nécessité
aucune réparation, parfois depuis plusieurs
dizaines d’années.
On compte plus de 1300 éditeurs de logiciels
indépendants (ISVs) prenant en compte la
plate-forme mainframe, et ce nombre est en
augmentation d’après une analyse du Gartner.
3.4. Moteurs spécialisés
La plupart des environnements
multiprocesseurs se composent de
processeurs qui accèdent tous aux mêmes
ressources et exécutent des fonctions
équivalentes : multitraitement symétrique
ou SMP (pour Symmetric Multiprocessing).
Cependant, un processeur peut parfois
être configuré de manière à assumer des
tâches particulières, comme c’est le cas des
processeurs mathématiques ou graphiques
dans un PC.
L’un des avantages de ces moteurs spécialisés
est qu’ils déchargent les moteurs généralistes
de certaines tâches du système.
Toutefois, la principale raison de leur succès
est qu’ils sont de plus en plus avantageux en
termes de prix, au niveau hardware mais aussi
au niveau de la tarification des softwares. La
facturation IBM repose en effet sur la puissance
CPU ; la puissance de ces moteurs spécialisés
n’est pas prise en compte dans le coût des
licences des logiciels.
IBM a développé un certain nombre de
moteurs spécialisés pouvant être installés
sur un System z. En voici la liste, dans l’ordre
chronologique de leur commercialisation :
IFL
„„Integrated Facility for Linux
„„Lancement en 2000
„„De 127 MIPS par processeur en 2000
à près de 1 550 MIPS en 2012.
zAAP
„„System z Application Assist Processor,
pour Java et XML
„„Lancement en 2004
„„Premier système z10, intégré depuis
dans le zIIP.
zIIP
„„System z Integrated Information Processor
„„Lancement en 2006
„„À l’origine seulement pour DB2, puis
également pour d’autres processus liés aux
bases de données.
Mainframes en perspective, un classique plus moderne que jamais
13
3.5. Coûts de possession
ou d’utilisation
Certains aspects spécifiques de cette étude
méritent qu’on s’y attarde :
En dépit des coûts réputés élevés du
mainframe, ses partisans (par exemple, le
groupe de recherche Arcati) l’estiment très
rentable par rapport à des systèmes Unix, Linux
et Windows tournant dans des environnements
distribués, selon un calcul coût par utilisateur :
„„Un mainframe nécessite moins de puissance
électrique et de climatisation qu’un grand
nombre de serveurs en rack 1U exécutant la
même charge. C’est un aspect très important
dans les datacenters modernes où ces 2
facteurs constituent une contrainte plus
lourde que l’encombrement
Selon cette base de calcul, les coûts
sont les suivants :
Mainframe 4 500 $
Unix
5 400 $
Windows
8 000 $
„„La répartition des coûts a radicalement
changé au cours des dix dernières années :
– Les coûts de main-d’œuvre ont augmenté
et sont passés de 14 à 29%
Mais il faut comparer ce qui est comparable,
ce qui n’est pas forcément le cas dans ce mode
de calcul. Et des analyses divergentes donnent
des résultats différents. Cette analyse favorable
se vérifie notamment dans les cas où un grand
nombre d’utilisateurs veulent utiliser les mêmes
fonctionnalités, car les autres plates-formes ne
sont pas aussi évolutives et parce que, sur une
période de cinq ans, nous considérons des
charges de travail stables.
Par ailleurs, l’hébergement de services
mainframe chez un prestataire de services
(ESP /externalisation) favorise également le
mainframe en permettant des économies
d’échelle et des capacités d’évolution dans
un environnement partagé.
Le tableau ci-dessous, établi par Gartner,
l’illustre bien avec l’indication du coût moyen
par MIPS installées.
Le coût par MIPS installées a considérablement
baissé au cours des dernières années d’après
les données chiffrées recueillies par Gartner.
Les équipes IBM elles-mêmes ont réalisé des
études, validées par Illuminata, qui révèlent que
les coûts des mainframes sont plus avantageux
de 50-60% par rapport aux solutions Unix,
Linux et Windows. Ce n’est pas le résultat
d’une comparaison “d’égal à égal ”, mais de
la comparaison des coûts engendrés par
l’exécution de 10-50 applications sur un seul
mainframe, par rapport à 10-20 serveurs lames
ou à un réseau de 50 serveurs.
– Les coûts hardware matériel ont baissé et
sont passés de 65 à 14%.
La répartition des éléments de coûts du
mainframe est affichée dans le diagramme
ci-dessous, établi par le groupe Gartner.
Des tests de performances ont montré
qu’il revenait moins cher d’implémenter un
environnement SAP comprenant de 1 500
à 2 000 utilisateurs sur un mainframe. Alors
qu’IBM renforce son alliance avec SAP, en se
positionnant d’abord face au SGBD Oracle avec
DB2, SAP lui rend la pareille en mettant en avant
la plate-forme DB2 d’IBM, avec l’installation de
SAP sur le System z comme solution résiliente
haut de gamme.
Le seul point faible dans l’analyse des coûts
des environnements mainframe est la
composante logicielle. En effet, selon Gartner,
celle-ci peut représenter 44% du coût de
possession. Cela s’explique en partie par le fait
que certains éditeurs de logiciels indépendants
considèrent la plate-forme comme une “vache
à lait”. Certaines évolutions telles que la mise
à disposition d’un environnement Linux
permettent de remédier au problème.
Une autre solution est possible grâce à
l’émergence d’entreprises spécialisées dans
la migration des environnements à partir de
packages ISVs réputés complexes vers des
logiciels moins problématiques.
Les coûts de migration doivent bien sûr être
considérés avec attention. Le groupe Gartner
a analysé qu’en dépit de la baisse du nombre
total de clients détenteurs de System z
(chaque année le nombre d’entreprises de
taille moyenne délaissant le mainframe est
supérieur au nombre de nouveaux clients),
la plupart des grandes entreprises ont fait
le choix que les applications existantes
(généralement écrites en Assembler ou
COBOL) restent dans l’environnement
mainframe. Même s’il est possible d’obtenir
le même niveau de performance sur d’autres
plates-formes pour un prix moindre, le coût du
portage ou de la reprogrammation nécessaire
est souvent prohibitif.
Coût annuel du mainframe par MIPS installées, 2009 - 2012
USD
$6,000
$5,575
$4,496
$5,048
$4,000
$3,566
$2,000
$0
2009
2010
2011
2012
Source: Gartner IT key metrics data (December 2012)
Taux d’utilisation du mainframe selon la taille de l’environnement
Taille de l’environnement
Nombre de MIPS installées
Petit
< 2 000 MIPS installées
Moyen
2 000 - 6 000 MIPS installées
Grand
> 6 000 MIPS installées
Moyenne
61.2%
65.1%
72.5%
Source: Gartner IT key metrics data (December 2012)
14
Mainframes en perspective, un classique plus moderne que jamais
Répartition des coûts du mainframe
14%
0%
44%
10%
20%
30%
29%
40%
50%
60%
Matériel
Logiciels
Personnel
Équipements/occupation
Reprise après incident
Non alloué
70%
3%
80%
5%
90%
3% 2%
100%
Connectivité
Source: Gartner IT key metrics data (December 2012)
En outre, certains affirment qu’il est trop difficile
de transférer un environnement mainframe
de plus de 1500 MIPS (bien que le chiffre soit
variable) vers une autre plate-forme3.
3.6. Considérations
environnementales
L’alimentation et le refroidissement des
mainframes étaient auparavant des aspects
problématiques (avant 1995) en raison du
circuit de refroidissement par eau abandonné
pour cette raison pour un circuit de
refroidissement à air.
Mais un mainframe à un taux d’utilisation élevé
est bien plus performant qu’une pièce remplie
de serveurs Windows sous-exploités (selon les
estimations de Forrester).
Le faible impact environnemental est
aujourd’hui considéré comme l’un des points
forts de la plate-forme z. Avec le lancement du
système zEnterprise zEC12, IBM offre à nouveau
la possibilité d’opter pour le refroidissement par
eau, ce qui favorise l’informatique écologique
(green IT).
3.7. Mainframe et
cloud computing
Le cloud computing a le vent en poupe dans
la sphère informatique. Mais ce phénomène
est-il aussi récent qu’on veut bien nous le laisser
croire ? Ou le mainframe est-il une mise en
œuvre classique d’un environnement de cloud
computing ? Il y a 25 ans déjà, de nombreuses
entreprises donnaient déjà dans l’ “informatique
à la demande” avec les mainframes :
„„Elles exécutaient une architecture standard
(bien que propriétaire IBM) : S/370
„„Plusieurs unités opérationnelles traitaient
leurs tâches dans le même environnement
„„Les machines appartenaient souvent à des
fournisseurs internes ou externes
„„Ils se chargeaient de la gestion des capacités,
ainsi que de la gestion des performances et
de la disponibilité
„„Ils utilisaient des outils sophistiqués
d’automatisation, de facturation, de
sécurisation et d’archivage.
Puis vint l’ “informatique distribuée”, avec les
effets suivants :
„„Architectures propriétaires hétérogènes,
chaque serveur était différent
„„Serveurs dédiés par application, ce qui a
donné lieu à leur prolifération
„„Ressources de stockage dédiées par serveur,
un vrai cauchemar pour les responsables
de la planification, les administrateurs du
stockage, etc.
Les développements ultérieurs dans le
domaine de l’informatique distribuée ont donné
lieu à un phénomène de recentralisation et
au lancement d’initiatives concernant cette
informatique à la demande.
De nouvelles technologies intègrent désormais
les aspects nécessaires pour permettre à ces
autres environnements d’utiliser certaines
des mêmes configurations de service que
le mainframe, par exemple : réseaux SAN
fonctionnant sur plusieurs plates-formes,
compatibilité architecturale entre systèmes,
outils sophistiqués permettant de gérer la
charge de travail et d’instancier les systèmes
chargés de l’exécuter.
Ces offres sont aujourd’hui enrichies grâce
la généralisation de la virtualisation, qui
sépare l’environnement applicatif logique des
systèmes physiques sur lesquels il tourne et qui
permet l’exécution de plusieurs applications sur
le même serveur physique. La virtualisation est
désormais bien établie dans la sphère Unix et
est en net progrès pour les systèmes Windows.
Cette approche, ou plutôt cette technologie, est
présente dans le monde du mainframe depuis
les années 1970.
Ainsi, à bien des égards, les initiatives actuelles
en faveur du cloud computing réinventent
le mainframe. Après l’annonce récente
du lancement de zEnterprise avec des
fonctionnalités hybrides, le mainframe est
très bien placé pour jouer un rôle majeur
pour le cloud computing, et notamment
dans les entreprises disposant déjà d’une
expertise du mainframe en interne.
3. Proof Points For Mainframe Application Migration, Forrester Research September 2011
Mainframes en perspective, un classique plus moderne que jamais
15
3.8. Vieillissement de la
main-d’œuvre
Sur un tout autre plan, des craintes existent
quant à la pénurie de main-d’œuvre spécialisée
dans le mainframe en raison du vieillissement
et du départ à la retraite des experts du SI.
Mais les avancées ci-dessous permettent de
relever ce défi :
„„La maintenance des mainframes est
beaucoup plus facile aujourd’hui. Auparavant,
il fallait un grand nombre de spécialistes
hautement qualifiés4, mais les outils
de gestion des plates-formes z se sont
considérablement améliorés. Les tâches
routinières peuvent donc être exécutées
par des ressources moins qualifiées avec
beaucoup moins de risques :
– Un outil de vérification de l’ état de
fonctionnement (Health Checker) est
intégré à z/OS. Il permet d’identifier
automatiquement les problèmes potentiels
avant qu’ils n’aient un impact sur la
disponibilité du système
„„La technologie Linux compte déjà un
nombre important de partisans. Très
largement adoptée dans les milieux
universitaires, elle dispose de sa propre
communauté de support. Associer cette
approche Open Source à la plate-forme
mainframe permet à la fois d’en tirer des
gains importants et de bénéficier de
compétences plus accessibles
„„Avec le lancement d’architectures telles
que SOA, ceux qui utilisent la plate-forme
z comme composant de leur architecture
applicative ont besoin d’une faible
connaissance de la plate-forme sous-jacente.
Ils peuvent même ne pas savoir sur quelle
plate-forme un service donné est traité
„„Avec des modèles de prestation tels que
l’externalisation, l’infogérance et l’off-shore,
les entreprises peuvent déléguer tout ou
partie de la gestion de leur SI à un prestataire
qui peut tirer profit d’économies d’échelle
importantes, ainsi que de la mutualisation
d’une main-d’œuvre qualifiée, locale et/ou
à distance.
–L
es dump systèmes n’ont plus besoin
d’être analysés en interne, le système vous
indique auquel de vos éditeurs de logiciels
l’envoyer en vue de la résolution
du problème
„„Le développement d’une communauté
mainframe dans le cadre de la Charte
mainframe (voir ci-après) permet notamment
de mettre des systèmes z/ à la disposition
des établissements d’enseignement
supérieur à travers le monde, pour que les
étudiants puissent acquérir une expérience
pratique durant leur cursus de formation
en informatique. Plus de 150 universités
dans le monde entier (50% sur le continent
américain, 30% en Europe et 20% en Asie)
font désormais partie du programme
Academic Initiative d’IBM
4. l’indicateur principal sur la taille des équipes est le total MIPS installé par ETP (Equivalent Temps Plein, ou FTE en anglais) mainframe;
ce taux a augmenté de façon importante mais varie beaucoup en fonction de la puissance CPU(source Gartner)
16
Mainframes en perspective, un classique plus moderne que jamais
4. Les avancées dans
le monde du mainframe
4.1. La charte mainframe d’IBM
IBM semble reconnaître le fait que la
plate-forme mainframe est peut-être
injustement qualifiée de “dinosaure”.
C’est injustifié si la technologie est jugée en
toute objectivité ; mais cette réputation repose
aussi en partie sur de réelles inquiétudes,
par exemple : les entreprises seront-elles
toujours en mesure de recourir aux services
de techniciens compétents une fois la
“première génération” de spécialistes du
System z partie à la retraite.
IBM a de bonnes raisons commerciales de
maintenir et d’optimiser cette plate-forme aussi
longtemps que possible : elle est très rentable
et il y a très peu de concurrence directe.
IBM a réagi à cette situation en 2003 avec la
création de la Charte Mainframe. Il s’agit d’un
ensemble de neuf principes (voir l’encadré)
dans lesquels le constructeur s’engage
à poursuivre les efforts d’innovation,
à apporter une valeur ajoutée et à favoriser
le développement d’une communauté
de support.
Cette démarche est louable même si IBM
défend d’abord son propre intérêt. Les
mainframes semblent en effet inspirer la
fidélité. Il existe depuis longtemps un véritable
sentiment d’appartenance à une communauté
au sein de la sphère mainframe, qui n’est pas
sans rappeler la communauté Open Source.
De fait, avec Linux on z, ces deux communautés
semblent être tout à fait compatibles.
4.2. Informatique hybride
Avant le lancement du mainframe nouvelle
génération en 2010 (nom de code
“Griffon” : moitié lion / moitié aigle), les
serveurs IBM System z ont fait leurs premiers
pas dans le monde de l’informatique hybride.
En réalité, cette ouverture s’est déroulée
en trois phases :
„„Nouvelle génération de mainframes zEnterprise - avec les caractéristiques types
d’une nouvelle machine : plus performante,
plus grosse, plus rapide
„„zBX: System z BladeCenter eXtension
capable d’intégrer des serveurs lames
(blades) IBM Power7 (AIX et Linux) et x86
(serveurs et accélérateurs spécifiques) dans
des racks à couplage étroit. En 2011, la prise
en charge de Windows a été ajoutée
Mainframes en perspective, un classique plus moderne que jamais
„„Unified Resource Manager : assure la
virtualisation des plates-formes zBX prises
en charge dans un ensemble de gestion
unique. Il permet également d’administrer
les applications dans cet ensemble URM,
peut surveiller les différentes composants
afin de détecter les signes de goulets
d’étranglement ou de défaillances, ainsi
que gérer l’ensemble complet en vue de
sa restauration, de manière à maintenir
un niveau de qualité de service donné
au niveau d’une charge de travail.
Avec le lancement d’un nouveau système
zEnterprise (zEC12) en 2012 est apparu
l’accélérateur IBM DB2 Analytics Accelerator
(IDAA). La vitesse d’exécution de requêtes SQL
complexes a ainsi pu être multipliée jusqu’à 2
000 fois, tandis que la vitesse de recherche
d’un seul enregistrement reste constante. C’est
un moyen d’éliminer le coût d’optimisation
des requêtes tout en allégeant le traitement de
ce requêtes. ce dispositif est comparable aux
solutions Oracle Exadata ou SAP HANA, intégré
à zEnterprise.
4.3. Consolidation des
systèmes distribués
Linux est une option très intéressante pour
l’environnement mainframe, à la fois en tant
que solution de conversion des applications
issues d’un environnement z/OS (MVS) et
en tant que support pour la consolidation
des systèmes distribués. Il est possible de
consolider de nombreux serveurs Linux, de
puissance variable sur un unique serveur Z,
avec l’avantage supplémentaire de gain sur les
vitesses de transfert inter-applications.
Selon le groupe Gartner, Linux représente
33% des nouvelles ventes de MIPS, et
60% des utilisateurs de mainframe utilisent
la technologie Linux sur la plate-forme. Bloor
Research indique que “près de 225 éditeurs de
logiciels fournissent à l’heure actuelle plus de
600 applications tournant sous Linux sur la
plate-forme mainframe d’IBM”.
Les compétences Linux, largement disponibles
sur le marché, sont aisément mobilisables sur
cette plate-forme.
La charte mainframe d’IBM
Nos objectifs sont les suivants :
Favoriser l’innovation :
„„Proposer les innovations nécessaires
afin d’optimiser l’utilisation des systèmes
IBM eServer zSeries, de manière à
garantir la prise en charge de processus
opérationnels de plus en plus intégrés et
flexibles pour les activités à la demande
„„Maintenir le positionnement de la gamme
zSeries en tant que référence pour des
plates-formes flexibles, performantes
et réactives dans les environnements
intégrés complexes traitant des charges
de travail critiques hétérogènes
„„Améliorer les fonctionnalités
d’automatisation et d’autocontrôle de
la gamme zSeries tout en s’efforçant de
simplifier les processus utilisateur et les
tâches d’administration système.
Apporter une valeur ajoutée :
„„Optimiser la valeur ajoutée et réduire les
coûts informatiques liés aux solutions
zSeries de manière convaincante, claire
et cohérente
„„Étendre les fonctionnalités à la demande
de la gamme de serveurs zSeries en
renforçant son modèle de tarification à la
puissance consommée
„„Renforcer les capacités d’accounting
concernant l’affectation et l’utilisation
des ressources zSeries dans un
environnement à la demande.
Favoriser le développement
d’une communauté :
„„Soutenir les initiatives visant à favoriser
la vitalité de la communauté zSeries de
façon à promouvoir un solide portefeuille
d’applications à l’international
„„Fournir les compétences et l’expertise
nécessaires pour aider les clients à
concevoir, développer et déployer des
solutions à la demande dont la gamme
zSeries constitue la clé de voûte
„„Tirer parti des principaux standards
ouverts et des structures communes pour
optimiser l’utilisation des serveurs zSeries
dans les environnements hétérogènes de
grande taille.
17
4.4. Modernisation
des applications
Voici quelques exemples illustrant la mise en
application de techniques de modernisation :
Il existe un certain nombre de techniques
de modernisation d’applications mainframe
connues et éprouvées. Cela peut aller
d’un simple “rafraîchissement” in situ à des
conversions complètes vers une autre
plate-forme, avec différents niveaux de
changement pour les utilisateurs.
4.4.1. Mise en avant d’une nouvelle interface
utilisateur graphique (GUI)
Pour remplacer les terminaux 3270 (passifs)
par une interface Web moderne.
La plupart de ces techniques peuvent être
employées dans le cadre de migrations
“souples” : les environnements existants et
nouveaux coexistent, les utilisateurs migrant
par groupes et les applications fonction
par fonction.
On peut distinguer les approches
générales suivantes :
„„Mise à niveau : déploiement de
nouvelles solutions logicielles sur la
plate-forme existante
„„Migration : transfert des applications
existantes vers une nouvelle plate-forme
plus justifiée
„„Régénération ou re-enginering : génération
de nouveau code sur la base du code source
applicatif (par exemple : Cobol en Java)
„„Remplacement : écriture développement
d’un nouveau code et/ou achat de logiciels
disponibles sur le marché.
Il ne s’agit évidemment pas d’approches
exclusives, étant donné la modularité et la
complexité de la plupart des environnements
applicatifs. Une combinaison d’approches est
souvent plus judicieuse.
4.4.2. Interface SOA
(architecture orientée services)
Laisser en place une grande partie du
code applicatif existant et “ouvrir”
l’environnement avec une interface SOA.
L’application peut ensuite trouver sa place
dans un environnement multi-applications/
multi-plateformes plus complexe, connecté
selon différentes méthodes (par exemple,
via un bus ESB - Enterprise Service Bus).
4.4.3. Migration vers Java
Typiquement pour les applications
transactionnelles (par exemple, IMS ou CICS)
écrit en COBOL.
IBM propose le langage IBM Rational™ EGL
(Enterprise Generation Language) qui peut être
utilisé pour cette conversion. Similaire à bien
des égards à des langages tels que COBOL et
Java, il possède des capacités de modélisation
avancées. Les programmes qui en résultent
peuvent utiliser des moteurs spécialisés (par
exemple, zAAP), ce qui permet de réaliser des
économies de coûts importantes.
Le code écrit dans des langages tels que
COBOL est converti (automatiquement à 98%
en général) en EGL, qui peut à son tour générer
du code Java. Certains sous-programmes
spécifiques (en Assembler par exemple)
peuvent nécessiter une conversion manuelle.
Le SGBD peut continuer à être utilisé tel quel ou
être remplacé. Dans le cas d’un remplacement,
une conversion des données peut s’avérer
nécessaire (par exemple : EBCDIC en ASCII).
De nombreuses entreprises fournissent des
solutions similaires, certaines sous la forme
de service, d’autres sous la forme d’un produit
logiciel, par exemple MicroFocus, Bluephoenix
ou PKS.
18
4.4.4. Réhébergement (rehosting)
Il s’agit de déplacer les applications mainframe
vers des plates-formes supposées moins
coûteuses. En règle générale, il s’agit de
plates-formes dédiées, parmi lesquelles
Linux on z. Certaines entreprises envisagent
de passer à des environnements de cloud
computing, plutôt privés que publics. Diverses
solutions globales prennent en charge
cette approche, par ré-hébergement ou
transformation du code.
4.5 Nouvelles charges de travail
Pour contrer le rehosting d’applications
hors mainframe et accueillir au contraire de
nouvelles applications, IBM a lancé fin 2009
l’offre Solution Edition (SE) pour zEnterprise.
Elle est constituée d’un package englobant
le matériel (un serveur Z), les logiciels,
middlewares, le support, et la maintenance,
avec une forte remise, mais doit être dédié à
une activité spécifique. Cette offre est réservée
à des applications ou charges de travail
particulières, notamment le développement
d’applications, le cloud computing, Enterprise
Linux et SAP.
L’objectif de l’offre “SE for SAP” est de permettre
aux entreprises de profiter à moindre coût des
atouts du System z pour leurs applications
SAP. Si elles utilisent déjà SAP dans un
environnement distribué, elles peuvent
l’intégrer au mainframe via l’offre. Il est possible
de l’associer avec DB2 sur z/OS à un tarif
spécial et (en option) avec Linux sur System z
en tirant parti du programme “System z SE for
Enterprise Linux”.
Les environnements informatiques hybrides
peuvent également être pris en charge dans
le cadre du programme SE. Par exemple, lors
de la mise en œuvre de SAP avec z/OS et DB2
sur zEnterprise, les entreprises peuvent choisir
d’implémenter le serveur d’applications SAP sur
zEnterprise avec Linux on z ou sur zBX avec les
serveurs lames POWER7 et AIX. L’économie de
coûts alors réalisée est plus élevée étant donné
que zBX et Unified Resource Manager sont
considérés comme des produits SE en option.
Mainframes en perspective, un classique plus moderne que jamais
4.6. Mainframes and Cloud
IBM a également fait de gros efforts pour
positionner le mainframe comme un outil
adapté au support des clouds privés, hébergés
au sein d’une entreprise et pour son seul usage.
Il repose sur un modèle d’évolution “scale-up”
plutôt que sur le modèle “scale-out” habituel,
qui présente par nature de gros avantages en
termes d’évolutivité et de sécurité, avec une
capacité d’intégration avec les autres
plates-formes de plus en plus poussée.
Les mainframes ont également trouvé leur
place dans certains clouds publics, tels que
celui de Amazon.
Un modèle spécifique de machine, zEC12, a
été créé. Elle peut gérer plusieurs milliers de
serveurs Linux et être couplée à zBX pour
assurer la prise en charge de Windows et AIX.
4.7. Architecture orientée
services (SOA)
Un grand nombre d’entreprises continuent à se
fier au mainframe pour supporter leurs activités
transactionnelles critiques. Mais elles doivent
trouver le moyen d’ “ouvrir” cette plate-forme
pour la faire sortir de son isolement et l’intégrer
à l’ensemble plus large des applications et des
systèmes de leur SI.
L’architecture orientée services (SOA) est un
modèle de traitement et de développement
d’applications extrêmement modulaire.
Elle permet de décomposer les fonctionnalités
d’une application en composants “service” et
de les présenter aux autres applications.
Mainframes en perspective, un classique plus moderne que jamais
Architecture SOA :
„„Services normalisés réutilisés et combinés
selon les besoins
„„Auto-descriptive : format standard des
requêtes et réponses
„„Autonome : pas de couplage étroit
„„Indépendante de la plate-forme: en termes
de réseau ou de localisation.
Le terme Web Services fait référence au mode
de mise à disposition de ces composants de
service SOA via une interface Web (intranet ou
Internet), ce qui les rend accessibles à d’autres
départements de l’entreprise ou même à
d’autres entreprises.
L’architecture SOA s’appuie sur la construction
de groupes applicatifs fonctionnels : un ou
plusieurs services accédant à des données
spécifiques ou exécutant des tâches
spécifiques, lorsqu’ils sont sollicités d’une
certaine façon. Cette description succincte
correspond à de nombreux traitements
mainframe existants. C’est pourquoi ils se
prêtent particulièrement bien à une intégration
dans une architecture SOA.
Les applications accédant à des d’applications
préexistantes (legacy) “SOA compatible” (par
exemple, CICS) peuvent utiliser Websphere
comme interface. Websphere est la plateforme Java prédominante pour ce type de
développement dans les environnements IBM.
Si les applications legacy nécessaires à
l’intégration des processus opérationnels
peuvent être interfacées par un environnement
SOA, il est alors possible de les regrouper avec
l’ensemble du SI.
19
5. Plan de mise en
œuvre du mainframe
Plutôt que de la traiter comme support
du legacy, la plate-forme mainframe peut
simplement être considérée comme une
autre plate-forme parmi d’autres disponibles
aujourd’hui, avec ses propres caractéristiques
de performances et de coûts. Plus précisément
d’une plate-forme parmi d’autres qui continue
par ailleurs à prendre en charge un nombre
important d’applications stratégiques
constituant son propre héritage.
Par ailleurs, les utilisateurs d’environnements
mainframe peuvent se préparer au mieux à
l’avenir en abolissant les barrières entre les
mainframes et les autres plates-formes. Cela
implique notamment d’utiliser des technologies
telles que Linux et SOA (voir ci-dessus), ainsi
que des processus opérationnels standard tels
qu’ITIL. Moins le mainframe est cloisonné dans
un “silo” autonome, plus il a un rôle à jouer dans
le SI de demain, et moins sa prise en charge
future risque d’être problématique.
Cela dit, le mainframe présente des
caractéristiques exceptionnelles. Dans la
majorité des cas, il garantit effectivement une
disponibilité à 100% : il n’existe aucune notion
de qualité de service inférieure avec les services
mainframe, qui présentent une durée de
fonctionnement moyenne entre deux pannes
(MTBF) de plus de 20 ans.
Pour utiliser efficacement un mainframe, il est
toutefois nécessaire d’atteindre une certaine
masse critique. Le niveau exact est discutable,
mais il semble être de l’ordre de 7000 MIPS.
À partir de cette taille, il est possible de tirer
le meilleur parti de l’environnement Parallel
Sysplex ainsi que de la pondération des coûts
de licence. Ainsi, de nombreuses entreprises
font le choix d’un prestataire externe pour
héberger leurs mainframes; cette solution
permet d’assurer la masse critique de systèmes
et de compétences pour gérer et développer
cet ‘environnement.
Comme nous l’avons expliqué assez
longuement, le “dinosaure qui sommeille” est
bel et bien réveillé, prêt à défendre sa place
légitime dans le portefeuille des solutions
informatiques modernes.
Faire une évaluation complète de
l'infrastructure et des applications mainframe
actuelles, portant en particulier sur la
criticité et l'évolution probable
Possibilité
de remplacer les
applications par des applications
standard ou de les transférer
versune autre
plate-forme ?
Comparer le coût total de possession
avec celui prévu ou une autre plate-forme
Rechercher une offre ou
un processus de migration
fiable et maîtrisable
Possibilité de réaliser des
'économies réalistes ?
Utiliser le
mainframe comme
cible de consolidation pour
d'autres systèmes ?
Conclusions :
„„Si vous disposez déjà d’un environnement
mainframe, vous trouverez sans doute que la
meilleure approche consiste à le conserver et
même à y intégrer d’autres systèmes.
„„Vous pouvez éventuellement opter
pour une solution externalisée, même
si vous conservez vous-même d’autres
plates-formes : nul besoin de détenir un
mainframe pour pouvoir bénéficier
de ses avantages.
Optimiser et consolider
l'environnement
mainframe
Ajouter d'autres systèmes
adéquats à la
combinaison à l'étude
Vous-même
Politique
d'externalisation ?
Externaliser
„„La simplification est un aspect essentiel de la
gestion des environnements informatiques.
Grâce à la plate-forme z vous pouvez créer
un environnement unique et cohérent.
„„Vos systèmes distribués multiples et
hétérogènes peuvent être consolidés à
grande échelle : vous pouvez administrer
et exécuter plusieurs centaines de serveurs
Unix ou Linux sur un même serveur Z.
Opter pour une
combinaison
matériel/logiciel
moins coûteuse
Systèmes
modernes et
à jour ?
Par
vous-même ?
Déterminer la stratégie de gestion du cycle de vie de
l'application et de la plate-forme
20
Mainframes en perspective, un classique plus moderne que jamais
6. Note finale
6.1. Références
6.2. Remerciements
„„Architecture of the IBM System/360,
Amdahl et al, IBM Journal of R&D, 1964
L’équipe de rédaction de ce livre blanc a été
dirigée par Mick Symonds, avec la contribution
d’Herbert Voskuil, de Paul Bles et d’autres
membres du groupe Atos.
„„IT Key Metrics Data 2013: Key Infrastructure
Measures: Mainframe Analysis: Multiyear,
Gartner Benchmark Analytics, G00246747,
décembre 2012
„„Progress Report for IBM’s zBX, Gartner,
G00231027, mars 2012
„„Rehosting Mainframe Workloads in the
Cloud, Gartner, G00218073, novembre 2012
Pour plus d’informations, contactez votre
interlocuteur Atos France, ou l’adresse email
[email protected] ou visitez
le site www.atos.net/mainframe
„„Proof Points For Mainframe Application
Migration, Forrester Research,
septembre 2011
„„Server Sprawl And Cost Reduction Bring New
Customers To Mainframe/Linux Platform,
Forrester Research, juillet 2011
„„Comparing Virtualization Methods for
Business, Solitaire Interglobal, 2012
„„Triggers for refreshing servers, Forrester
Research, juin 2005
„„The Arcati Mainframe Yearbook 2013, Arcati
Research, 2013
„„Shaping the Cloud, Atos, novembre 2011
„„Blog : Dancing Dinosaur
(www.dancingdinosaur.wordpress.com).
Mainframes en perspective, un classique plus moderne que jamais
21
Annexe A. Petite
histoire du mainframe
Petite histoire du mainframe
7 avril 1964
22
IBM annonce le lancement de la gamme System/360. Celle-ci regroupe cinq ordinateurs de puissances différentes qui
exécutent le même système d’exploitation et peuvent utiliser l’ensemble des 44 équipements périphériques.
1968
Lancement du système CICS (Customer Information Control System) qui permet sur site de consulter,
de mettre à jour et de récupérer les données en ligne.
1968
Le modèle 85 de la gamme S/360 introduit la mémoire cache à haut débit, avec une mise à disposition des données
prioritaires 12 fois plus rapide. Cela pose ainsi les bases de la mémoire cache que l’on trouve dans une grande majorité des
technologies informatiques d’aujourd’hui.
1970
Émergence du marché des PCM (Plug Compatible Manufacturer - constructeur d’équipements compatibles) :
en 1970, plus de 80 entreprises disposent de plus de 200 produits compatibles avec l’architecture S/360 et ses
équipements périphériques.
1970
Lancement de la gamme S/370 qui succède à la gamme S/360. Le modèle 145 de la gamme S/370 est le premier ordinateur
doté d’une mémoire monolithique totalement intégrée (résistances, condensateurs et diodes sur une seule plaque de silicium).
Avant la technologie des semi-conducteurs, on utilisait la technologie des tores magnétiques.
1971
Amdahl fait son entrée avec un clone de la gamme S/370. Gene Amdahl était ingénieur en chef sur le programme IBM
S/360 avant de créer la société Amdahl. Les machines Amdahl sont refroidies à l’air, tandis que les machines IBM sont
refroidies à l’eau.
1972
IBM annonce la virtualisation VM, avec le système d’exploitation VM/370.
1972
SAP développe un système ERP révolutionnaire pour la gamme S/370. Les entreprises peuvent pour la première fois passer
des commandes et effectuer le suivi des stocks en temps réel.
1976
Les logiciels SAS apportent un nouvel avantage concurrentiel : la veille stratégique. Grâce à SAS, vous pouvez extraire des
renseignements exploitables des données brutes.
1981
Le successeur de la gamme S/370 est le mainframe 3081, qui consomme moins d’énergie et d’espace que ses prédécesseurs.
Il s’accompagne de la technologie eXtended Architecture (XA), avec les canaux dynamiques et l’adressage 31 bits (2 Go).
1983
Livraison de MVS/XA : un système d’exploitation permettant d’exploiter la nouvelle architecture.
1984
Amdahl présente MDF (Multiple Domain Feature), le premier outil de partitionnement hardware sur les mainframes
Amdahl 470.
1988
IBM lance PR/SM, en réponse à la technologie MDF d’Amdahl. Le partitionnement hardware avec des partitions logiques
(LPAR) est ainsi désormais possible sur les mainframes IBM.
1988
Lancement de DB2, le système de gestion de base de données relationnel d’IBM.
1988
Lancement des systèmes d’exploitation MVS/ESA et VM/XA qui libèrent des contraintes de mémoire limitant la taille des
applications grâce à de nouveaux éléments architecturaux.
1994
Annonce du lancement de la technologie Parallel Sysplex qui permet de partager 32 partitions logiques (LPARs) dans un
même cluster.
1994
Annonce du lancement d’Unix sur le mainframe. OpenEdition, rebaptisé par la suite Unix System Services, fait partie intégrante
du système d’exploitation OS/390 (en 2000, le système d’exploitation est renommé z/OS)
1995
Les processeurs basés sur la technologie CMOS sont introduits dans l’environnement mainframe, établissant ainsi la nouvelle
feuille de route pour la technologie mainframe moderne. Les machines CMOS utilisent 1/20e de l’énergie et 1/10e de l’espace
qu’utilisent les machines plus anciennes.
Mainframes en perspective, un classique plus moderne que jamais
1999
La fonction Capacity Upgrade on Demand (concept commercial similaire à un utilitaire) offre une capacité supplémentaire
pouvant être activée en fonction des besoins opérationnels.
1999
La technologie Linux fait son apparition sur le mainframe, en combinant la flexibilité de l’informatique Open source à
l’évolutivité et la fiabilité légendaires du mainframe.
2000
IBM lance la gamme de serveurs eServer avec le changement de dénomination des diverses sous-marques. IBM S/390
devient IBM eServer zSeries (z pour zéro temps d’arrêt). En parallèle, la version 64 bits du système d’exploitation z/OS est
lancée.
2003
IBM présente la Charte mainframe. Celle-ci exprime l’engagement d’IBM à fournir des solutions innovantes, à accroître la
valeur ajoutée de la gamme zSeries et à favoriser le développement d’une communauté zSeries afin de répondre aux
besoins des clients en matière d’informatique à la demande.
2000
La technologie IFL (processeur Linux spécialisé) est introduite sur la gamme zSeries.
2004
Les processeurs zAAP (Application Assist Processor) sont intégrés à la gamme zSeries afin de les décharger de certaines
tâches Java et XML spécifiques.
2005
IBM zSeries devient IBM System z, dans le cadre d’une stratégie de changement de dénomination des produits IBM.
2006
Lancement de la technologie zIIP (System z Integrated Information Processor) pour les serveurs System z. Initialement
introduite pour soulager les processeurs centraux (CP) de certaines tâches de traitement DB2, elle est maintenant utilisée
pour les décharger d’autres tâches z/OS également.
2010
Lancement de zEnterprise, zBX et Unified Resource Manager (URM) : début de l’informatique hybride : z/OS, Linux,
IBM Power (AIX) et boîtiers.
2011
Extension de l’informatique hybride avec l’intégration de Windows.
2012
Mainframe IBM = System z = gamme zEntreprise offrant une modularité dans la taille des serveurs. Le lancement des
systèmes zEC12 en 2012 permet d’installer entre 26 et 78 000 MIPS sur une même machine. Avec une vitesse de
processeur de 5,5 GHz, ils sont à la pointe des serveurs haut de gamme.
Annexe B. A propos des MIPS,
MSU et Unités de service
Les performances des mainframes sont
traditionnellement décrites en millions
d’instructions par seconde (MIPS), comme une
simple indication de la vitesse. Mais ce n’est
pas aussi simple que cela car le mainframe
utilise une série d’instructions complexes. Ainsi,
le contenu et l’effet d’une seule instruction
peuvent énormément varier.
En effet, le marché émergent des services
généralistes et du cloud computing souffre de
l’absence d’unité de mesure simple équivalente
aux MIPS.
Cette complexité est accentuée par des
facteurs tels que la virtualisation et le
multitraitement, ainsi que par la nécessité de
trouver un équilibre entre le traitement des E/S
et l’exécution des instructions.
De son côté, le concept de MSU (Millions of
Service Units - millions d’unités de service) a fait
son apparition pour des besoins de facturation
de licences logiciels. Contrairement à ce que
l’on pourrait croire, il ne fait pas référence aux
unités de service évoquées précédemment : il y
a entre 5 et 8,5 MIPS par MSU. Ce chiffre évolue
car IBM l’utilise pour inciter à la migration vers
chaque dernière génération
de mainframes.
Le terme MIPS a souvent été parodié en
“Meaningless Indicator of Processing Speed”
(indicateur inutile de la vitesse de traitement).
Mais aucune alternative simple n’a fait
son apparition.
Mainframes en perspective, un classique plus moderne que jamais
Au sein du système, les unités de service servent
à la répartition et à l’équilibrage des charges.
Il y a environ 50 unités de service par MIPS.
IBM a essayé de faciliter l’estimation des
charges de travail et la planification des
capacités en publiant les tables LSPR (Large
System Performance Reference). Mais celles-ci
sont beaucoup trop complexes pour permettre
des comparaisons simples.
Une analyste indépendante, Cheryl Watson,
a trouvé la solution en 1965 avec la publication
de tableaux présentant les performances de
divers systèmes pour des charges de travail
et des niveaux de systèmes d’exploitation
différents, ainsi que des règles générales quant
à la manière de les déployer.
23
A propos d’Atos
Atos SE (Société Européenne), acteur international
des services informatiques avec un chiffre
d’affaires annuel de 8,8 milliards d’euros et 76.400
collaborateurs dans 47 pays, fournit à ses clients du
monde entier des services transactionnels de haute
technologie, des solutions de conseil et de services
technologiques, d’intégration de systèmes et
d’infogérance. Grâce à son expertise technologique
et sa connaissance industrielle, il sert ses clients
dans les secteurs suivants: Industrie, Distribution
& Services, Services Financiers, Energie & Services
Publics, Télécoms, Médias & Technologie, Secteur
Public, Santé & Transports.
Atos délivre les technologies qui accélèrent le
développement de ses clients et les aident à
réaliser leur vision de l’entreprise du futur. Atos
est le partenaire informatique mondial des Jeux
Olympiques et Paralympiques. Le Groupe est coté
sur le marché Eurolist de Paris et exerce ses activités
sous les noms d’Atos, Atos Consulting & Technology
Services, Atos Worldline et Atos Worldgrid.
Pour plus d’informations, contactez :
[email protected]
ou consultez le site : www.atos.net
Pour plus d’informations, contactez : [email protected] ou consultez le site : www.atos.net
atos.net
Atos, the Atos logo, Atos Consulting, Atos Worldline, Atos Sphere, Atos Cloud and Atos Worldgrid are registered trademarks of Atos SE.
May 2013 © 2013 Atos.

Documents pareils