Mmainframes
Transcription
Mmainframes
White paper M mainframes en perspective un classique plus moderne que jamais Your business technologists. Powering progress Table des matières 1. Introduction et résumé 4 2. L’évolution du mainframe 6 2.1. Position sur le marché 6 2.2. Disponibilité, performances et utilisation 6 2.3. Logiciels et normes 8 2.4. Coût de possession ou d’utilisation 8 2.5. Évolution de l’informatique 8 3.Comment le legacy mainframe s’intègre-t-il au paysage informatique actuel ? 10 3.1. Position sur le marché 10 3.2. Disponibilité, performances et utilisation 12 3.3. Logiciels et normes 12 3.4. Moteurs de spécialité 13 3.5. Coût de possession ou d’utilisation 14 3.6. Considérations environnementales 15 3.7. Mainframe et cloud computing 15 3.8. Vieillissement de la main-d’œuvre 16 4.Les avancées dans le monde du mainframe 17 4.1. La charte mainframe d’IBM 17 4.2. Informatique hybride 17 4.3. Consolidation des charges de travail 17 4.4. Modernisation des charges de travail 18 4.5. Nouvelles charges de travail 18 4.6. Mainframe et cloud 19 4.7. Architecture orientée services (SOA) 19 5. Plan de mise en œuvre du mainframe 20 6. Note finale 21 6.1 Références 21 6.2 Remerciements 21 Annexe A. Petite histoire du mainframe 22 Annexe B. A propos des MIPS, MSU et unités de service 23 2 Mainframes en perspective, un classique plus moderne que jamais un classique plus moderne que jamais ...et pour longtemps encore Ce livre blanc a été publié pour la première fois en 2007 en réaction à la rumeur déjà ancienne selon laquelle le mainframe avait disparu. Chez Atos, nous savions qu’il en était autrement : nous avons toujours poursuivi nos activités en termes de services d’applications et de systèmes critiques mainframe, notamment destinés à d’importants clients. Notre activité mainframe continuait son chemin - et se développait. Cinq ans plus tard, ce marché connaît une croissance continue, tout comme le mainframe qui le sert. Alors pourquoi devrions-nous hésiter à vanter les mérites du mainframe ? Au-delà de l’expression “Tant que ça marche, on ne touche à rien ! ”, les nombreuses qualités du mainframe en font une plate-forme extrêmement viable. Les entreprises sont aujourd’hui beaucoup plus ouvertes sur le monde extérieur qu’elles ne l’étaient auparavant : leurs clients veulent gérer leurs comptes bancaires ou acheter via Internet 24 heures sur 24, tandis que des “hackers” tentent des intrusions de leurs systèmes informatiques. Et tout ceci doit s’appuyer sur une chaîne logistique et un écosystème de partenaires toujours plus complexes. Aujourd’hui plus que jamais, les entreprises veulent des technologies qui fonctionnent, tout simplement : 100% fiable, sans incident, 24 heures sur 24. Ces technologies doivent également être compatibles avec les applications les plus récentes. C’est là qu’entrent en jeu les solutions mainframe proposées par Atos. Mick Symonds, Atos Principal Solutions Architect, Atos IT Systems Management Utrecht, mars 2013 Mainframes en perspective, un classique plus moderne que jamais 3 1. Introduction et résumé Malgré l’annonce renouvelée de sa disparition, le mainframe continue d’exister et se porte plutôt bien. Il constitue une plate-forme extrêmement viable pour l’exécution des applications informatiques récentes. Cela peut en surprendre plus d’un, et notamment ceux qui ont pris leurs distances avec cette plate-forme il y a dix ans ou plus. Dans leur utilisation de l’informatique, les entreprises doivent continuellement trouver le juste équilibre entre qualité de service (QoS) et coût. Qualité de service : Meilleure disponibilité des services Délai réduit de mise en place des nouveaux services Complexité réduite, facilité d’utilisation Conformité avec les normes et réglementations. Coût : Coûts d’achat et de fonctionnement réduits Meilleure utilisation des ressources Coûts d’administration réduits Transparence des contrats. Certaines modes semblent cycliques et nous les redécouvrons périodiquement. C’est apparemment le cas avec les mainframes : nous avions tous l’habitude de les utiliser il y a quelques années, mais un grand nombre de DSI ont été séduits par les avantages d’autres plates-formes dans une démarche de downsizing. Aujourd’hui, ces organisations recentralisent leur SI, et bon nombre d’entre elles se remémorent comment les choses se passaient sur le mainframe. 4 Ce serait pourtant une erreur de penser retrouver la plate-forme mainframe telle qu’elle était il y a plusieurs années. Elle n’est pas restée figée dans le temps, mais a évolué au même titre que les autres plates-formes, tout en conservant les mêmes niveaux de qualité et de fiabilité. Par ailleurs, les ventes de systèmes mainframe n’ont cessé d’augmenter. Beaucoup de grandes d’entreprises comptent toujours sur les mainframes “super ordinateurs”, pour: Réaliser des milliers de transactions par seconde Prendre en charge des milliers d’utilisateurs accédant simultanément aux mêmes applications et ressources Permettre à de multiples programmes applicatifs des accès à de nombreuses ressources sans problème et respectant les règles de sécurité Gérer des volumes considérables de données Recevoir ou diffuser d’énormes quantités de données Interagir, comme un véritable Interagir, comme un véritable “système ouvert”, avec les applications des autres plates-formes. La plate-forme mainframe est réputée pour son très haut niveau de qualité mais aussi, surtout pour ceux qui ne l’utilisent pas, pour son coût élevé, son caractère monolithique et son manque de flexibilité. Pourtant, elle peut se révéler très rentable en comparaison à la multiplication de systèmes plus petits. Et elle offre une grande souplesse de configuration. C’est une plate-forme en perpétuelle évolution. Bien souvent ce n’est pas la plate-forme ellemême qui manque de flexibilité, mais plutôt les procédures élaborées autour d’elle au fil du temps et/ou une certaine réticence à exploiter les nouvelles fonctionnalités du mainframe. Selon des études récentes menées par IBM validées par Illuminata et d’autres analystes indépendants, la comparaison des coûts par rapport aux autres plates-formes est très favorable au mainframe. Certains s’inquiètent également de son isolement dans l’univers informatique. Durant ses premières années d’existence, IBM a en effet inventé ses propres normes de facto. Depuis, le constructeur a le souci constant de prendre en charge les standards du marché. À l’heure actuelle, le mainframe offre une excellente connectivité avec les autres plates-formes. Ainsi le mainframe peut concilier le meilleur des deux mondes et exécuter des applications anciennes reposant sur d’anciennes normes ainsi que de nouveaux services reposant sur des standards modernes. Les réticences à l’égard des mainframes prêtent également à sourire alors que toute la sphère informatique ne parle que de virtualisation et de cloud computing. Pourtant, la base du cloud, l’IaaS (Infrastructure as a Service ou “infrastructure en tant que service”), est aussi la base de l’informatique “à la demande” (voir le livre blanc “Shaping the Cloud ”, Atos, novembre 2011). Les concepts qui y entrent en jeu circulent dans le monde du mainframe depuis plus de 40 ans. Avec sa solution de virtualisation, VMware propose pour les platesformes Intel, et pour l’instant de manière moins élaborée, ce que le système VM/370 faisait sur les mainframes dans les années 1970 et continue à faire (mieux encore) dans sa version z/VM. Mainframes en perspective, un classique plus moderne que jamais Le mainframe gère une informatique à la demande et ce depuis ses origines. Sous couvert d’innovation, les fournisseurs de services cloud sont en réalité en train de “réinventer le mainframe” à de nombreux égards. Avec le lancement de zEnterprise, la nouvelle génération de mainframes est également la première plate-forme à fournir une solution informatique hybride intégrée, prête à l’emploi. Néanmoins, le mainframe a encore sa place dans les entreprises qui nécessitent des environnements informatiques de haute qualité. En effet, quelle autre plate-forme peut répondre à ce besoin ? Ce document répond à cette apparente énigme et donne quelques indications quant à la façon d’intégrer la plate-forme mainframe dans la stratégie des entreprises. Une analyse récente réalisée par Gartner a révélé deux des plus importants obstacles à l’utilisation des systèmes mainframe aujourd’hui. Le premier (20%) est la perception qu’en ont les dirigeants via les “gourous” du moment, qui affirment : “j’ai lu dans un magazine que le mainframe était mort”. Le second (18%) est l’opposition de la part de l’équipe de support Linux qui trouve que le mainframe n’est pas “assez tendance”. Chez Eurocontrol, l’organisation européenne pour la gestion du trafic aérien, basée à Maastricht aux Pays-Bas, la sécurité du trafic aérien est une priorité. Des volumes considérables de données (données de vol, déploiement du personnel et scénarii de formation) font l’objet d’un traitement en temps réel afin de produire des informations exploitables. Un environnement informatique fiable et efficace est donc essentiel à l’accomplissement de cette tâche. Pour mettre en place ce datacenter intelligent, Eurocontrol et IBM consolident une partie de l’environnement informatique actuel en un datacenter hybride virtuel reposant sur un serveur IBM zEnterprise et le système d’exploitation Linux. L’objectif est d’obtenir une meilleure visibilité sur les opérations, une plus grande flexibilité, une meilleure réactivité, une capacité accrue, une plus grande disponibilité des systèmes, ainsi que des économies de coûts considérables au niveau de la supervision, des licences, des m2 occupés et de la consommation énergétique. “Eurocontrol consolide l’environnement informatique en un datacenter virtuel, étude de cas IBM, 2011” Mainframes en perspective, un classique plus moderne que jamais 5 2.L’évolution du mainframe 2.1. Position sur le marché En 1943, Thomas Watson d’IBM a prononcé cette fameuse phrase: “je pense qu’il existe un marché mondial pour environ 5 ordinateurs”. Mais les vingt années qui ont suivi ont vu l’émergence d’un marché un peu plus conséquent. Dans les années 1960 et 1970, il existait un certain nombre de fabricants d’ordinateurs de grande puissance, que l’on surnommait alors familièrement “IBM et les sept nains” : Burroughs, Control Data, General Electric, Honeywell, NCR, RCA et Univac. Le lancement par IBM de la gamme System/360 en 1964 a été une véritable révolution, principalement due à la nature de son architecture. Avant elle chaque ordinateur était une machine unique, fabriquée sur commande, sans continuité dans la conception. Et chacun était dédié à une application unique, avec des systèmes différents pour les activités commerciales ou scientifiques. La gamme System/360 comprenait à l’origine cinq modèles, partageant une architecture et des périphériques communs. Les clients pouvaient évoluer vers des processeurs plus récents et plus puissants avec la garantie d’une compatibilité ascendante. Le cahier des charges de l’architecture System/360 répondait à un certain nombre de besoins clés: Gestion de grosses capacités de stockage gérées avec flexibilité, avec une grande variété de formats de données Taux d’entrée/sortie (E/S) élevés avec des interfaces standard Capacité de traitement à usage général, avec des fonctions de supervision Évolutivité, dans un rapport de tailles de 1 à 50. Le S/360 fut le premier système à utiliser du microcode (ou firmware) en place du câblage classique. Ces micro-instructions, inaccessibles par les programmes autres que ceux chargés de les exécuter, offrent un niveau de flexibilité intermédiaire entre le hardware et le software : si un système a besoin d’être maintenu ou agrandi, la mise à niveau peut être effectuée sans remplacer le matériel lui-même. Cette interface architecturale standard a été décrite dans un document fondateur “Principles of Operation”. 6 Grâce à une telle architecture, les autres fournisseurs (par exemple, Amdahl, StorageTek, Hitachi) peuvent concevoir des matériels (processeurs ou systèmes de stockage) compatibles avec ceux d’IBM, et ce, de façon transparente pour les logiciels système, les applications et les utilisateurs. Cette avancée a ouvert le marché du mainframe à la concurrence. Dans les années 1970, avec l’accroissement des options, les ordinateurs restaient des équipements centralisés de grande taille et coûteux, nécessitant des investissements majeurs et des équipes de support spécialisées, utilisés par de grandes entreprises (telles que les banques) pour le traitement des données de masse. À cette époque-là, les concurrents d’IBM étaient devenus “La bande” (The Bunch) : Burroughs, UNIVAC, NCR, Control Data et Honeywelll. Cette vision essentiellement axée sur les États-Unis ignorait d’autres fabricants locaux en Europe, par exemple Bull, ICL et Siemens. Les années 1980 virent ce marché subir d’importants bouleversements avec des disparitions et des prises de contrôle. Au début des années 1990, la plupart des décideurs décrétaient que les mainframes (ces “dinosaures”) étaient obsolètes et s’engageaient résolument dans une démarche de downsizing vers d’autres plates-formes (“small is beautiful”). L’ironie veut que le marché du mainframe ait connu un regain d’intérêt dans les années 1990, avec les applications de back-office. Ce renouveau, permis par l’ouverture de la plate-forme aux standards du marché, bénéficiait de l’émergence du commerce électronique et de l’utilisation d’Internet pour les activités commerciales. Le fort accroissement du nombre de transactions de back-office, la taille et le niveau d’activité des bases de données qu’elles entraînaient ont permis de relancer le marché. Ces systèmes devinrent très vite trop imposants et trop stratégiques pour envisager leur migration vers une autre plate-forme, quand bien même elle eut été possible. 2.2. Disponibilité, performances et taux d’utilisation La haute disponibilité, les performances et le taux d’utilisation font la différence entre le mainframe et les autres plates-formes. Les mainframes reposent sur un haut niveau de qualité. Le parallélisme d’exécution de nombreuses applications sur la même machine est un autre principe de base. Dans le monde du mainframe, l’amélioration permanente de la fiabilité, de la disponibilité et de la facilité de maintenance est un dogme (principe RAS Reliability, Availability and Serviceability - d’IBM). Les concepts de sécurité et d’intégrité ont été intégrés dès l’architecture hardware S/360 initiale, permettant d’assurer un niveau de protection en “mode superviseur”, les instructions système accessibles au seul système d’exploitation. Cette tendance s’est poursuivie dans les années 1970, avec le lancement du premier système d’exploitation MVS (Multiple Virtual Storage) renforçant l’intégrité du système et permettant d’isoler complètement les types d’applications se partageant une même machine. Ce système d’exploitation optimisait la mémoire réelle (alors limitée et coûteuse) de façon très efficace en la partageant, et ce de manière très sécurisée, grâce à la mise en œuvre d’une mémoire virtuelle s’appuyant sur la traduction dynamique d’adresse (DAT) permettant de simuler cette mémoire virtuelle dans l’espace mémoire réel. Cette mémoire virtuelle permet également un adressage mémoire qui peut parfaitement isoler les groupes d’applications. Le mécanisme de sécurité intégré au système, RACF (Resource Access Control Facility), a été par la suite appliqué aux ressources externes (stockage et réseau notamment), de manière à garantir la sécurisation et l’étanchéité totale des groupes applicatifs et de leurs données. La charge de travail d’un mainframe est gérée au travers de priorités adéquates par le biais d’un répartiteur de charge basé sur une stratégie de gestion de performances. La machine peut être occupée à 100% de sa capacité sans aucune conséquence sur les performances applicatives ; un pic de charge prolongé n’a aucune incidence majeure sur ces performances. Mainframes en perspective, un classique plus moderne que jamais “Au milieu du bois, deux chemins face à moi. J’ai pris le moins fréquenté et cela a fait toute la différence” La voie ignorée “The Road Not Taken”, Robert Frost (1874-1963) Le niveau de disponibilité déjà élevé est encore monté d’un cran au milieu des années 1990 avec le lancement de Parallel Sysplex, l’une des premières technologies de clustering. Celle-ci permet d’associer jusqu’à 32 partitions logiques (LPAR) de mainframe opérant comme un seul système. Le concept est similaire à celui du clustering Unix, sauf qu’il est possible d’ajouter ou de supprimer des LPARs (ou “serveurs”) selon les besoins, alors que les applications continuent à tourner sans interruption. Parallel Sysplex permet un accès simultané aux données depuis chacune des LPARs sans impact sur les performances ou l’intégrité. Les applications peuvent ainsi être clonées et réparties sur le cluster (équilibrage de charge), à une distance maximale de 20 km. Ainsi il est possible d’installer la moitié des “serveurs” sur un site et l’autre moitié sur un site distant de 20 km dans une configuration de datacenters jumeaux (twin datacenters). Ces serveurs se comportent comme un seul et unique système. Cette technique de clustering est parfaite pour assurer la disponibilité permanente des applications. Des mécanismes de reprise après incident (DR; Disaster Recovery) et de haute disponibilité (HA) sont gérés grâce au dispositif GDPS (Geographically Dispersed Parallel Sysplex) qui peut étendre les fonctionnalités Parallel Sysplex sur de plus grandes distances (100 km et plus). Avec le lancement des systèmes zEnterprise en 2010, le mainframe fait ses premiers pas dans l’arène de l’informatique hybride. Pour la première fois, il est possible de déployer une plate-forme matérielle intégrée réunissant le mainframe et des systèmes distribués (Unix, AIX, Windows) : une solution permettant la consolidation des différents composants du SI, contribuant ainsi à réduire la complexité, renforcer la sécurité et rapprocher les applications des données dont elles ont besoin. Avec le système zEnterprise, un nouveau concept apparait dans les infrastructures informatiques : les ensembles zEnterprise. Un ensemble zEnterprise regroupe un grand nombre de serveurs hétérogènes avec un haut degré de virtualisation, qui peuvent être gérés comme une entité logique unique et sur lesquels les applications peuvent être réparties. Les capacités de virtualisation, de flexibilité, de sécurité et de gestion globale du système zEnterprise lui permettent de fournir une vraie réponse aux problèmes complexes posés par l’infrastructure des systèmes informatiques d’aujourd’hui. Mainframes en perspective, un classique plus moderne que jamais La notion de virtualisation logicielle a fait son apparition en 1972 avec le système d’exploitation VM. Avec l’arrivée de la technologie MDF (Multiple Domain Facility) d’Amdahl fin 1984, le premier véritable système de virtualisation hardware voit le jour. Quelques années plus tard, IBM suit avec une technologie plus flexible : PR/SM (Processor Resource/ System Manager). Il s’agit d’hyperviseurs de type 1 qui permettent à plusieurs partitions logiques (LPAR) de partager des ressources physiques telles que les processeurs, la mémoire, les canaux d’E/S et l’accès aux périphériques de stockage. Le noyau des hyperviseurs est intégré au microcode de la machine. Il est possible de créer des partitions logiques (LPAR) pour traiter des groupes d’applications de façon totalement indépendante sur des systèmes d’exploitation distincts partageant un même ensemble de processeurs physiques (CPC). La virtualisation ne se limite pas au fractionnement de la capacité des processeurs, mais gère également la mémoire et les canaux d’E/S. Il est intéressant de noter que nous n’avons encore relevé aucune faille de sécurité dans cette solution de virtualisation mainframe. La virtualisation a également été étendue à d’autres équipements, tels que les périphériques de stockage et les réseaux. Dès le début, les mainframes utilisaient des adresses de stockage virtuelles et plusieurs canaux vers le même périphérique afin de garantir la souplesse d’accès. Les mainframes IBM ont figuré parmi les premières platesformes à introduire la technologie de gestion hiérarchique du stockage (HSM - Hierarchical Storage Management). Cette technologie permet d’archiver les données disque sur des dispositifs de stockage moins coûteux (bandes puis cassettes) tout en garantissant aux applications et aux utilisateurs un accès transparent aux données ainsi archivées. Depuis le début des années 1990, il est possible d’utiliser des automates de bandes en tant que bibliothèques de bandes virtuelles (VTL - Virtual Tape Libraries). Une VTL comprend un composant de stockage (un serveur de bandes virtuelles, ou VTS, avec stockage sur disque dur) qui sert de bibliothèque de bandes et qui est connecté à un automate gérant les supports physiques. Il existe à l’heure actuelle de nombreuses autres technologies pour optimiser cette gestion physique et logique des stockages : réplication des données (mirroring), RAID, provisionnement virtuel ou allocation dynamique, duplication. La virtualisation correspond à la création d’une couche d’abstraction logique sur l’environnement physique. Elle nécessite l’interposition d’une interface de manière à pouvoir utiliser différentes ressources “masquées”. Plusieurs systèmes peuvent ainsi apparaître comme un seul système et vice-versa. La virtualisation peut être appliquée à une multitude de ressources. En voici quelques exemples : Services : découplage des ressources de l’infrastructure utilisée pour fournir les services Applications : utilisation d’interfaces Web services, qui permettent à un grand nombre de clients d’utiliser une même application Serveurs : exécution de plusieurs applications sur le même serveur physique, sous plusieurs o/s (operating system) ou un seul Stockage : stockage des données sur une grande variété de périphériques de stockage physique Réseaux : réseau étendu (WAN) ou local (LAN). Exécution de différents services sur les mêmes câbles. La virtualisation peut être exploitée sur une gamme de plus en plus hétérogène de périphériques ; il est ainsi possible de combiner des périphériques différents ou de les remplacer. Elle permet également d’optimiser l’utilisation de ces ressources. 7 2.3. Logiciels et normes Les mainframes assurent leur pérennité en garantissant la compatibilité ascendante de tous les logiciels, quelque soit l’importance des changements. Les nouvelles versions étendent les fonctionnalités, elles ne les modifient pas. Par ailleurs, aucune migration ou reprise de code n’est imposée lors de la création d’une nouvelle version du matériel ou des logiciels. Différents systèmes d’exploitation (OS : operating system) peuvent être exécutés sur le mainframe : z/OS : l’OS phare pour les applications à haute disponibilité et à haut débit, successeur des systèmes MVT, MVS et OS390. Il permet d’exécuter directement des programmes Unix car ce système d’exploitation contient un noyau (kernel) Unix conforme à la norme POSIX z/VM : hyperviseur permettant d’exécuter plusieurs systèmes d’exploitation sur la même machine. Successeur de VM/370. Aujourd’hui, z/VM est principalement utilisé pour gérer des serveurs Linux on z, afin d’exécuter plusieurs centaines de systèmes Linux virtuels dans un même environnement z/VM. Avec ses évolutions permanentes depuis 40 ans, z/VM est sans conteste le meilleur instanciateur z/Linux du moment z/VSE : système d’exploitation réduit conçu à l’origine pour les systèmes moins sophistiqués. Il est le successeur des premiers OS IBM : DOS, DOS/VSE Linux on z : implémentation Linux complète, disponible sous la forme de distributions SUSE (Novell) ou Redhat, à travers une offre IBM très attractive (LSE Linux Server Enterprise) z/TPF : environnement de traitement des transactions en ligne, en temps réel et à grande échelle, capable de prendre en charge de très gros volumes. Spécialement développé pour les systèmes de réservation des compagnies aériennes et de traitement des cartes de paiement. 8 Tous ces systèmes peuvent être exécutés dans une partition logique (LPAR), sous le contrôle d’un hyperviseur matériel (PR/SM) ou sous z/VM. IBM a introduit le concept d’ensemble ALS (Architectural Level Set) pour associer les niveaux de compatibilité du matériel et du système d’exploitation : un ensemble ALS précise les caractéristiques architecturales et hardware nécessaires pour assuer la compatibilié d’un mainframe IBM avec une version donnée du système d’exploitation. Cela permet d’assurer des cycles de vie assez longs dans cet environnement. En règle générale, une nouvelle gamme de modèles voit le jour tous les 2 ans et demi environ, et peut être utilisée de huit à dix ans. Les logiciels middleware ont primitivement fait leur apparition dans le monde du mainframe, comme une couche logicielle située au-dessus du système d’exploitation afin de faciliter le développement et l’exécution des applications. Au sein du système d’exploitation, vous avez le choix entre un certain nombre d’environnements middleware : Systèmes de gestion des bases de données (DB2, IMS, IDMS, Datacom, Adabas, Oracle ) Systèmes de traitement des transactions (CICS, IMS, IDMS, TSO, Roscoe) Traitement par lots Langages de troisième génération (COBOL, Fortran, PL/1, Pascal, C, Assembler, JAVA) Langages de quatrième génération (4GL : Focus, Natural, Mark-IV, EGL) Hébergement Web (Websphere, Apache, Weblogic) La majorité des programmes mainframe restent écrits en Cobol, avec PL/1, Assembler, C et C++ qui occupent également une part non négligeable. Mais la principale nouveauté dans ce domaine, qui accompagne la mise en œuvre des architectures orientées services (SOA) et des services Web, est la montée en charge du langage Java sur cette plate-forme sur laquelle IBM optimise le support en terme de coût et de performances. Bien entendu un large choix d’outils d’administration des systèmes, bien rodés permet sur le mainframe l’automatisation des opérations, des plannings, la gestion de la sécurité, ainsi que la gestion des données. 2.4. Coût de possession ou d’utilisation De par sa taille, le mainframe n’a jamais été un équipement à faible coût. Mais en compensation, il peut être utilisé de façon très intensive et le taux de parallélisme d’exécution des groupes d’applications est sans pareil, sans aucun effet négatif sur l’intégrité et la sécurité. Il est donc tout à fait approprié de partager une machine mainframe entre plusieurs clients, ce qui en rend le coût d’utilisation plus acceptable. Plusieurs études indépendantes montrent que le coût réel total de possession (TCO : Total Cost of Ownership) des mainframes est largement inférieur à celui de leur équivalent (systèmes distribués). 2.5. Évolution de l’informatique Les technologies de l’informatique ont évolué en plusieurs vagues, chacune étant considérée comme un “nouveau paradigme” et une avancée radicale. Applications spécifiques développées par des éditeurs de logiciels indépendants (SAP, etc.). Mainframes en perspective, un classique plus moderne que jamais Plutôt que de rester figé dans le modèle initial, le mainframe a véritablement surfé sur la plupart de ces vagues. Ainsi avec un environnement mainframe à niveau, il est possible de mettre en œuvre le meilleur de chacune de ces vagues d’innovations informatiques. Années 1990 ESA/390 (Enterprise Systems Architecture) : gestion d’espaces d’adressage multiple. L’architecture mainframe, tout en assurant les compatibilités nécessaires, a elle-même évolué au cours des différentes décennies : Années 2010 zEnterprise : premier pas dans l’environnement informatique hybride faisant coexister systèmes d’exploitation mainframe et systèmes distribués. Les applications peuvent être distribuées dans une seule machine gérant les O/S System z et AIX, Linux et Windows. Années 2000 z/Architecture : lancement de l’adressage 64 bits et des canaux dynamiques. Années 1960 System/360 : la genèse. Années 1970 System/370 : ajout du multitraitement, d’instructions supplémentaires et de la mémoire virtuelle. Années 1980 S/370-XA (eXtended Architecture) : apparition de l’adressage 31 bits. Quelques étapes dans l’évolution de l’informatique Cloud computing Standardisation accrue mais suppression des contraintes de propriété Infrastructure en tant que service Serveur, stockage et réseau Des boîtiers au modèle serveur En cours d'évolution... Informatique à la demande Choix plus large, coûts informatiques et opérationnels réduits Axée sur les serveurs Service à la demande Informatique en tant que service Fusion dans le cloud Portails d'entreprise Convivialité accrue, coûts de création réduits Axée sur les serveurs Centralisation du contrôle et de la gestion Utilisation flexible, personnalisable Orienté utilisateur Informatique sur serveur Plus grande facilité de gestion, coûts informatiques réduits Axée sur les serveurs Centralisation du contrôle et de la gestion Clients légers ou lourds Orienté applications, utilisation flexible Informatique distribuée Flexibilité accrue Client / serveur Clients lourds : Facilité d'utilisation, personnalisation possible Hétérogénéité, gestion complexe Informatique centralisée Axée sur les serveurs Mainframes et terminaux passifs Centralisation du contrôle et de la gestion Modèle rigide Mainframes en perspective, un classique plus moderne que jamais 9 3. Comment le mainframe legacy s’intègre-t-il dans le SI aujourd’hui ? Pourquoi continue-t-on à construire et à utiliser le mainframe ? Ces plates-formes offrent toujours la possibilité de gérer bases de données, applications, serveurs de fichiers, serveurs Web, pare-feu, etc… sur une seule machine, et avec un niveau de sécurité et de fiabilité élevé. En réalité, la plus grande menace qui pèse sur le marché du mainframe ne vient pas d’une quelconque faiblesse de la plate-forme ellemême, mais plutôt de l’évolution permanente des autres plates-formes jusqu’à un niveau jugé assez satisfaisant pour la remplacer. 3.1. Position sur le marché De nombreuses plates-formes autres que System z d’IBM ont été qualifiées de “mainframe ”. Unisys a fabriqué les systèmes ClearPath et leur ES7000 a parfois été qualifié de “mainframe Intel ”. HP a vendu les anciens Tandem NonStop et le Groupe Bull le système DPS, sans oublier la gamme VAX 9000 de DEC. Bien que ces systèmes aient partagé des caractéristiques communes (par exemple la haute disponibilité intégrée grâce à la redondance), la part de marché du System z d’IBM est largement supérieure à 90% dans cette catégorie : c’est LE mainframe par excellence. Le chiffre d’affaires généré par IBM sur la vente du seul matériel mainframe est estimé à environ 4,3 milliards de dollars par an1, auquel on peut ajouter les logiciels et les services. Ce chiffre d’affaires est resté à peu près constant au cours des dernières années alors que le nombre de MIPS livrées a considérablement augmenté, ce qui indique que le prix par MIPS a bien baissé durant cette période. En effet, cette tendance est clairement illustrée dans le graphique ci-dessous, qui indique par ailleurs une baisse encore plus marquée pour les MIPS à vocation spécialisée. CA du System z d’IBM (en milliards de dollars) et évolution du CA avec les lancements de produits majeurs - 2004 à 2010 - analyse glissante 4T $7 Croissance $6 Le graphique ci-contre publié par ITCandor montre qu’il existe un marché substantiel continu pour les systèmes mainframe qui a récemment connu une croissance significative. Cela s’explique par le fait que ceux pour qui le mainframe n’était pas adapté ont déjà pris leurs distances avec cette plate-forme et ceux qui y restent fidèles étendent leur utilisation en même temps que leurs activités. D’après le dernier rapport annuel d’IBM, “le chiffre d’affaires du segment systèmes et technologies s’élevait à 5,8 milliards de dollars pour le trimestre. Le chiffre d’affaires du mainframe System z a augmenté de 56% par rapport à la même période de l’exercice précédent ”. $5 20% 15% Taille zEnterprise z890 z9 2094 z9 2096 10% z10 2097 $4 5% $3 0% z10 2098 $2 -5% $1 -10% $0 -15% 2004 2005 2006 2007 2008 2009 2010 Source: ITCandor, January 2011 1. Start Planning for the Next Generation of IBM Mainframes, Gartner G00226761, January 2012 10 Mainframes en perspective, un classique plus moderne que jamais En résumé, les chiffres du mainframe évoluent dans le bon sens, même après toutes ces décennies. Coûts par MIPS IBM 120% 100% 80% 60% 40% 20% 0% 2001 2002 2003 Généraliste 2004 2005 2006 2007 2008 2009 Spécialisé Écosystème IBM zEnterprise System en pleine expansion System z total instaled capacity YE03 YE04 150+ Unités BladeCenter extension ; plus de 1 100 serveurs lames en service YE05 140+ YE06 YE07 96 YE08 YE09 2/3+ Nouveaux comptes depuis Les 100 premières banques le lancement de zEnterprise mondiales utilisent le au 3T2010, avec 1/3 sur les System z d'IBM marchés émergents Les 100 plus gros clients ont installé des IFLs YE10 2Q12 YE11 7,400+ 1,067 Les applications d'éditeurs de logiciels indépendantes (IVSs) s'exécutent sur System z d'IBM ; 45 nouveaux ISVs au 1S2012 Les écoles dans 67 pays participent au programme IBM Academie pour le System z (source: IBM2012) Mainframes en perspective, un classique plus moderne que jamais 11 3.2. Disponibilité, performances et utilisation Les mainframes offrent un niveau de disponibilité et de tolérance très élevé aux pannes. Ils sont conçus sans composant critique unique. Plus que toute autre plate-forme, ces systèmes intègrent des technologies et composants internes redondants : les IBM System z exécutent chaque instruction deux fois, en parallèle, puis comparent les résultats (“lock-stepping”). Les charges de travail peuvent être transférées à la volée vers des processeurs de secours, sans aucun impact sur les traitements en cours d’exécution. À l’heure où de nombreux fournisseurs parlent de disponibilité “five nine” (99,999%)2, il est bon de faire savoir que la plupart des mainframes installés affichent une disponibilité de 100% (bien que les heures de service garanties puissent être inférieures à cette valeur). Et ce avec des niveaux de performances élevés (il n’existe pas de notion de qualité de service (QoS) inférieure avec les services mainframe) et une durée de fonctionnement moyenne entre deux pannes (MTBF, Mean Time Between Failure) de plus de 20 ans. À vrai dire, la MTBF est sujet à débat : certains évoquent une durée de plus de 30 ans, voire 50 ans. Une enquête de l’institut Eagle Rock Alliance remontant à 2001 a identifié les coûts occasionnés par les temps d’arrêt pour un échantillon d’utilisateurs : plus de 50 000 $/heure pour plus de la moitié d’entre eux et plus de 1 000 000 $/heure pour 8% d’entre eux. Le caractère stratégique des systèmes a probablement pris encore de l’ampleur depuis, avec la généralisation de l’accès en temps réel et du commerce par Internet. Cette enquête illustre pourquoi il peut s’avérer judicieux de payer plus pour bénéficier d’un haut niveau de disponibilité. Par ailleurs, la plate-forme Z est sécurisée par nature car les risques de virus sont nuls et les menaces de piratage limitées. La structure architecturale des mainframes rend impossible toute infection virale. Cette plate-forme n’est pas aussi disponible ou connue du grand public que Windows ; c’est pourquoi les jeunes hackers ne peuvent s’y attaquer. Une attaque serait non seulement plus difficile à imaginer mais encore plus difficile à mettre en œuvre : les fournisseurs de services évitent de mettre en place des mainframes sans protection dans des environnements ouverts tels que le cloud, comme ils le font avec certains autres serveurs. Et même si le piratage était possible, l’impact serait très limité en raison de la conception architecturale et de la sécurité intrinsèque de la plate-forme : chaque processus s’exécute dans son propre espace, indépendamment des autres, grâce à des mécanismes hardware et du microcode. Le mainframe peut également offrir des niveaux de service élevés grâce à son architecture qui s’appuie sur des processeurs centraux CP (Central Processor) et des processeurs SAP distincts, tels que les processeurs d’entrée/sortie dédiés (IOP) et les processeurs pour les services de chiffrement (CryptoExpress) ; des processeurs de secours sont prêts à prendre immédiatement le relais en cas de panne des processeurs principaux. Les processeurs sont mis en oeuvre au moyen d’algorithmes de répartition qui leur évitent d’attendre la fin de l’exécution des E/S (ou d’autres processus secondaires tel que le chiffrement), contrairement à certaines autres plates-formes. Le mainframe se distingue également par sa capacité : volumes de données traitées (capacité de traitement pouvant atteindre 78,400 MIPS pour une machine), quantités de données stockées et transférées (jusqu’à 288 Go par seconde), jusqu’à 3 To de mémoire réelle et, depuis le lancement de zEnterprise, fréquence d’horloge la plus rapide (processeur de 5,5 GHz sur le zEC12). Dans le document “Triggers for refreshing servers” de juin 2005, et donc avant la virtualisation des systèmes distribués, Forrester indique que “le taux moyen d’utilisation pour les serveurs Wintel varie généralement entre 8 et 15%, et entre 28 et 45% pour les systèmes Unix/RISC. Pour un System z d’IBM, ce taux est compris entre 65 et 75%”. Les mainframes peuvent fonctionner sans problème à 100% pendant des périodes prolongées. Les performances du mainframe restent donc incontestablement les plus élevées. 3.3. Logiciels et normes Durant les 20 premières années d’existence du mainframe, IBM a inventé ses propres normes de facto. Mais depuis, avec l’arrivée de l’informatique distribuée et d’Internet, IBM assure la prise en compte des normes et standards du marché. Comme avec d’autres aspects du mainframe, vous pouvez cependant continuer à faire coexister anciens et nouveaux standards. Le mainframe prend en charge les protocoles réseau TCP/IP (ainsi que SNA et VTAM), les services d’annuaire LDAP (ainsi que ses propres catalogues d’annuaire et de sécurité), la technologie Open Source, les connecteurs DB2, le partage de fichiers, etc. 2. il faut être prudent face aux déclarations d’intention concernant les hauts niveaux de disponibilité; les coûts augmentent exponentiellement pour chaque 9 dixiéme supplémentaires ; ne pas oublier que 99,999% de disponibilité correspond à un arrêt de 5,26 minutes par an ou de 6 secondes par semaine https:en.wikipedia.org/wiki/High_availibility 12 Mainframes en perspective, un classique plus moderne que jamais Un environnement mainframe est polyvalent par nature et peut donc exécuter une grande variété de systèmes informatiques : anciens logiciels : les programmes écrits il y a plusieurs dizaines d’années en Cobol, PL/1, Fortran ou même Assembler fonctionnent toujours sur les systèmes les plus modernes plusieurs environnements applicatifs peuvent coexister : traitement par lots, en ligne, interactif et accès Web les plates-formes les plus modernes sont également prises en charge : Java, SOA (architecture orientée services, au moyen de Websphere), C++, XML, etc. Un mainframe peut exécuter les applications Cobol et CICS datant de 25 ans, ainsi que celles écrites récemment selon SOA etJava. Ceci malgré les évolutions majeures du matériel, de l’OS et des sous-systèmes logiciels. La compatibilité ascendante été assurée afin de protéger l’investissement dans les logiciels dits historiques. C’est pourquoi il existe autant d’anciennes applications “legacy” qui tracassent les gestionnaires d’applications. Etant en parfait état de fonctionnement, ils n’ont donc nécessité aucune réparation, parfois depuis plusieurs dizaines d’années. On compte plus de 1300 éditeurs de logiciels indépendants (ISVs) prenant en compte la plate-forme mainframe, et ce nombre est en augmentation d’après une analyse du Gartner. 3.4. Moteurs spécialisés La plupart des environnements multiprocesseurs se composent de processeurs qui accèdent tous aux mêmes ressources et exécutent des fonctions équivalentes : multitraitement symétrique ou SMP (pour Symmetric Multiprocessing). Cependant, un processeur peut parfois être configuré de manière à assumer des tâches particulières, comme c’est le cas des processeurs mathématiques ou graphiques dans un PC. L’un des avantages de ces moteurs spécialisés est qu’ils déchargent les moteurs généralistes de certaines tâches du système. Toutefois, la principale raison de leur succès est qu’ils sont de plus en plus avantageux en termes de prix, au niveau hardware mais aussi au niveau de la tarification des softwares. La facturation IBM repose en effet sur la puissance CPU ; la puissance de ces moteurs spécialisés n’est pas prise en compte dans le coût des licences des logiciels. IBM a développé un certain nombre de moteurs spécialisés pouvant être installés sur un System z. En voici la liste, dans l’ordre chronologique de leur commercialisation : IFL Integrated Facility for Linux Lancement en 2000 De 127 MIPS par processeur en 2000 à près de 1 550 MIPS en 2012. zAAP System z Application Assist Processor, pour Java et XML Lancement en 2004 Premier système z10, intégré depuis dans le zIIP. zIIP System z Integrated Information Processor Lancement en 2006 À l’origine seulement pour DB2, puis également pour d’autres processus liés aux bases de données. Mainframes en perspective, un classique plus moderne que jamais 13 3.5. Coûts de possession ou d’utilisation Certains aspects spécifiques de cette étude méritent qu’on s’y attarde : En dépit des coûts réputés élevés du mainframe, ses partisans (par exemple, le groupe de recherche Arcati) l’estiment très rentable par rapport à des systèmes Unix, Linux et Windows tournant dans des environnements distribués, selon un calcul coût par utilisateur : Un mainframe nécessite moins de puissance électrique et de climatisation qu’un grand nombre de serveurs en rack 1U exécutant la même charge. C’est un aspect très important dans les datacenters modernes où ces 2 facteurs constituent une contrainte plus lourde que l’encombrement Selon cette base de calcul, les coûts sont les suivants : Mainframe 4 500 $ Unix 5 400 $ Windows 8 000 $ La répartition des coûts a radicalement changé au cours des dix dernières années : – Les coûts de main-d’œuvre ont augmenté et sont passés de 14 à 29% Mais il faut comparer ce qui est comparable, ce qui n’est pas forcément le cas dans ce mode de calcul. Et des analyses divergentes donnent des résultats différents. Cette analyse favorable se vérifie notamment dans les cas où un grand nombre d’utilisateurs veulent utiliser les mêmes fonctionnalités, car les autres plates-formes ne sont pas aussi évolutives et parce que, sur une période de cinq ans, nous considérons des charges de travail stables. Par ailleurs, l’hébergement de services mainframe chez un prestataire de services (ESP /externalisation) favorise également le mainframe en permettant des économies d’échelle et des capacités d’évolution dans un environnement partagé. Le tableau ci-dessous, établi par Gartner, l’illustre bien avec l’indication du coût moyen par MIPS installées. Le coût par MIPS installées a considérablement baissé au cours des dernières années d’après les données chiffrées recueillies par Gartner. Les équipes IBM elles-mêmes ont réalisé des études, validées par Illuminata, qui révèlent que les coûts des mainframes sont plus avantageux de 50-60% par rapport aux solutions Unix, Linux et Windows. Ce n’est pas le résultat d’une comparaison “d’égal à égal ”, mais de la comparaison des coûts engendrés par l’exécution de 10-50 applications sur un seul mainframe, par rapport à 10-20 serveurs lames ou à un réseau de 50 serveurs. – Les coûts hardware matériel ont baissé et sont passés de 65 à 14%. La répartition des éléments de coûts du mainframe est affichée dans le diagramme ci-dessous, établi par le groupe Gartner. Des tests de performances ont montré qu’il revenait moins cher d’implémenter un environnement SAP comprenant de 1 500 à 2 000 utilisateurs sur un mainframe. Alors qu’IBM renforce son alliance avec SAP, en se positionnant d’abord face au SGBD Oracle avec DB2, SAP lui rend la pareille en mettant en avant la plate-forme DB2 d’IBM, avec l’installation de SAP sur le System z comme solution résiliente haut de gamme. Le seul point faible dans l’analyse des coûts des environnements mainframe est la composante logicielle. En effet, selon Gartner, celle-ci peut représenter 44% du coût de possession. Cela s’explique en partie par le fait que certains éditeurs de logiciels indépendants considèrent la plate-forme comme une “vache à lait”. Certaines évolutions telles que la mise à disposition d’un environnement Linux permettent de remédier au problème. Une autre solution est possible grâce à l’émergence d’entreprises spécialisées dans la migration des environnements à partir de packages ISVs réputés complexes vers des logiciels moins problématiques. Les coûts de migration doivent bien sûr être considérés avec attention. Le groupe Gartner a analysé qu’en dépit de la baisse du nombre total de clients détenteurs de System z (chaque année le nombre d’entreprises de taille moyenne délaissant le mainframe est supérieur au nombre de nouveaux clients), la plupart des grandes entreprises ont fait le choix que les applications existantes (généralement écrites en Assembler ou COBOL) restent dans l’environnement mainframe. Même s’il est possible d’obtenir le même niveau de performance sur d’autres plates-formes pour un prix moindre, le coût du portage ou de la reprogrammation nécessaire est souvent prohibitif. Coût annuel du mainframe par MIPS installées, 2009 - 2012 USD $6,000 $5,575 $4,496 $5,048 $4,000 $3,566 $2,000 $0 2009 2010 2011 2012 Source: Gartner IT key metrics data (December 2012) Taux d’utilisation du mainframe selon la taille de l’environnement Taille de l’environnement Nombre de MIPS installées Petit < 2 000 MIPS installées Moyen 2 000 - 6 000 MIPS installées Grand > 6 000 MIPS installées Moyenne 61.2% 65.1% 72.5% Source: Gartner IT key metrics data (December 2012) 14 Mainframes en perspective, un classique plus moderne que jamais Répartition des coûts du mainframe 14% 0% 44% 10% 20% 30% 29% 40% 50% 60% Matériel Logiciels Personnel Équipements/occupation Reprise après incident Non alloué 70% 3% 80% 5% 90% 3% 2% 100% Connectivité Source: Gartner IT key metrics data (December 2012) En outre, certains affirment qu’il est trop difficile de transférer un environnement mainframe de plus de 1500 MIPS (bien que le chiffre soit variable) vers une autre plate-forme3. 3.6. Considérations environnementales L’alimentation et le refroidissement des mainframes étaient auparavant des aspects problématiques (avant 1995) en raison du circuit de refroidissement par eau abandonné pour cette raison pour un circuit de refroidissement à air. Mais un mainframe à un taux d’utilisation élevé est bien plus performant qu’une pièce remplie de serveurs Windows sous-exploités (selon les estimations de Forrester). Le faible impact environnemental est aujourd’hui considéré comme l’un des points forts de la plate-forme z. Avec le lancement du système zEnterprise zEC12, IBM offre à nouveau la possibilité d’opter pour le refroidissement par eau, ce qui favorise l’informatique écologique (green IT). 3.7. Mainframe et cloud computing Le cloud computing a le vent en poupe dans la sphère informatique. Mais ce phénomène est-il aussi récent qu’on veut bien nous le laisser croire ? Ou le mainframe est-il une mise en œuvre classique d’un environnement de cloud computing ? Il y a 25 ans déjà, de nombreuses entreprises donnaient déjà dans l’ “informatique à la demande” avec les mainframes : Elles exécutaient une architecture standard (bien que propriétaire IBM) : S/370 Plusieurs unités opérationnelles traitaient leurs tâches dans le même environnement Les machines appartenaient souvent à des fournisseurs internes ou externes Ils se chargeaient de la gestion des capacités, ainsi que de la gestion des performances et de la disponibilité Ils utilisaient des outils sophistiqués d’automatisation, de facturation, de sécurisation et d’archivage. Puis vint l’ “informatique distribuée”, avec les effets suivants : Architectures propriétaires hétérogènes, chaque serveur était différent Serveurs dédiés par application, ce qui a donné lieu à leur prolifération Ressources de stockage dédiées par serveur, un vrai cauchemar pour les responsables de la planification, les administrateurs du stockage, etc. Les développements ultérieurs dans le domaine de l’informatique distribuée ont donné lieu à un phénomène de recentralisation et au lancement d’initiatives concernant cette informatique à la demande. De nouvelles technologies intègrent désormais les aspects nécessaires pour permettre à ces autres environnements d’utiliser certaines des mêmes configurations de service que le mainframe, par exemple : réseaux SAN fonctionnant sur plusieurs plates-formes, compatibilité architecturale entre systèmes, outils sophistiqués permettant de gérer la charge de travail et d’instancier les systèmes chargés de l’exécuter. Ces offres sont aujourd’hui enrichies grâce la généralisation de la virtualisation, qui sépare l’environnement applicatif logique des systèmes physiques sur lesquels il tourne et qui permet l’exécution de plusieurs applications sur le même serveur physique. La virtualisation est désormais bien établie dans la sphère Unix et est en net progrès pour les systèmes Windows. Cette approche, ou plutôt cette technologie, est présente dans le monde du mainframe depuis les années 1970. Ainsi, à bien des égards, les initiatives actuelles en faveur du cloud computing réinventent le mainframe. Après l’annonce récente du lancement de zEnterprise avec des fonctionnalités hybrides, le mainframe est très bien placé pour jouer un rôle majeur pour le cloud computing, et notamment dans les entreprises disposant déjà d’une expertise du mainframe en interne. 3. Proof Points For Mainframe Application Migration, Forrester Research September 2011 Mainframes en perspective, un classique plus moderne que jamais 15 3.8. Vieillissement de la main-d’œuvre Sur un tout autre plan, des craintes existent quant à la pénurie de main-d’œuvre spécialisée dans le mainframe en raison du vieillissement et du départ à la retraite des experts du SI. Mais les avancées ci-dessous permettent de relever ce défi : La maintenance des mainframes est beaucoup plus facile aujourd’hui. Auparavant, il fallait un grand nombre de spécialistes hautement qualifiés4, mais les outils de gestion des plates-formes z se sont considérablement améliorés. Les tâches routinières peuvent donc être exécutées par des ressources moins qualifiées avec beaucoup moins de risques : – Un outil de vérification de l’ état de fonctionnement (Health Checker) est intégré à z/OS. Il permet d’identifier automatiquement les problèmes potentiels avant qu’ils n’aient un impact sur la disponibilité du système La technologie Linux compte déjà un nombre important de partisans. Très largement adoptée dans les milieux universitaires, elle dispose de sa propre communauté de support. Associer cette approche Open Source à la plate-forme mainframe permet à la fois d’en tirer des gains importants et de bénéficier de compétences plus accessibles Avec le lancement d’architectures telles que SOA, ceux qui utilisent la plate-forme z comme composant de leur architecture applicative ont besoin d’une faible connaissance de la plate-forme sous-jacente. Ils peuvent même ne pas savoir sur quelle plate-forme un service donné est traité Avec des modèles de prestation tels que l’externalisation, l’infogérance et l’off-shore, les entreprises peuvent déléguer tout ou partie de la gestion de leur SI à un prestataire qui peut tirer profit d’économies d’échelle importantes, ainsi que de la mutualisation d’une main-d’œuvre qualifiée, locale et/ou à distance. –L es dump systèmes n’ont plus besoin d’être analysés en interne, le système vous indique auquel de vos éditeurs de logiciels l’envoyer en vue de la résolution du problème Le développement d’une communauté mainframe dans le cadre de la Charte mainframe (voir ci-après) permet notamment de mettre des systèmes z/ à la disposition des établissements d’enseignement supérieur à travers le monde, pour que les étudiants puissent acquérir une expérience pratique durant leur cursus de formation en informatique. Plus de 150 universités dans le monde entier (50% sur le continent américain, 30% en Europe et 20% en Asie) font désormais partie du programme Academic Initiative d’IBM 4. l’indicateur principal sur la taille des équipes est le total MIPS installé par ETP (Equivalent Temps Plein, ou FTE en anglais) mainframe; ce taux a augmenté de façon importante mais varie beaucoup en fonction de la puissance CPU(source Gartner) 16 Mainframes en perspective, un classique plus moderne que jamais 4. Les avancées dans le monde du mainframe 4.1. La charte mainframe d’IBM IBM semble reconnaître le fait que la plate-forme mainframe est peut-être injustement qualifiée de “dinosaure”. C’est injustifié si la technologie est jugée en toute objectivité ; mais cette réputation repose aussi en partie sur de réelles inquiétudes, par exemple : les entreprises seront-elles toujours en mesure de recourir aux services de techniciens compétents une fois la “première génération” de spécialistes du System z partie à la retraite. IBM a de bonnes raisons commerciales de maintenir et d’optimiser cette plate-forme aussi longtemps que possible : elle est très rentable et il y a très peu de concurrence directe. IBM a réagi à cette situation en 2003 avec la création de la Charte Mainframe. Il s’agit d’un ensemble de neuf principes (voir l’encadré) dans lesquels le constructeur s’engage à poursuivre les efforts d’innovation, à apporter une valeur ajoutée et à favoriser le développement d’une communauté de support. Cette démarche est louable même si IBM défend d’abord son propre intérêt. Les mainframes semblent en effet inspirer la fidélité. Il existe depuis longtemps un véritable sentiment d’appartenance à une communauté au sein de la sphère mainframe, qui n’est pas sans rappeler la communauté Open Source. De fait, avec Linux on z, ces deux communautés semblent être tout à fait compatibles. 4.2. Informatique hybride Avant le lancement du mainframe nouvelle génération en 2010 (nom de code “Griffon” : moitié lion / moitié aigle), les serveurs IBM System z ont fait leurs premiers pas dans le monde de l’informatique hybride. En réalité, cette ouverture s’est déroulée en trois phases : Nouvelle génération de mainframes zEnterprise - avec les caractéristiques types d’une nouvelle machine : plus performante, plus grosse, plus rapide zBX: System z BladeCenter eXtension capable d’intégrer des serveurs lames (blades) IBM Power7 (AIX et Linux) et x86 (serveurs et accélérateurs spécifiques) dans des racks à couplage étroit. En 2011, la prise en charge de Windows a été ajoutée Mainframes en perspective, un classique plus moderne que jamais Unified Resource Manager : assure la virtualisation des plates-formes zBX prises en charge dans un ensemble de gestion unique. Il permet également d’administrer les applications dans cet ensemble URM, peut surveiller les différentes composants afin de détecter les signes de goulets d’étranglement ou de défaillances, ainsi que gérer l’ensemble complet en vue de sa restauration, de manière à maintenir un niveau de qualité de service donné au niveau d’une charge de travail. Avec le lancement d’un nouveau système zEnterprise (zEC12) en 2012 est apparu l’accélérateur IBM DB2 Analytics Accelerator (IDAA). La vitesse d’exécution de requêtes SQL complexes a ainsi pu être multipliée jusqu’à 2 000 fois, tandis que la vitesse de recherche d’un seul enregistrement reste constante. C’est un moyen d’éliminer le coût d’optimisation des requêtes tout en allégeant le traitement de ce requêtes. ce dispositif est comparable aux solutions Oracle Exadata ou SAP HANA, intégré à zEnterprise. 4.3. Consolidation des systèmes distribués Linux est une option très intéressante pour l’environnement mainframe, à la fois en tant que solution de conversion des applications issues d’un environnement z/OS (MVS) et en tant que support pour la consolidation des systèmes distribués. Il est possible de consolider de nombreux serveurs Linux, de puissance variable sur un unique serveur Z, avec l’avantage supplémentaire de gain sur les vitesses de transfert inter-applications. Selon le groupe Gartner, Linux représente 33% des nouvelles ventes de MIPS, et 60% des utilisateurs de mainframe utilisent la technologie Linux sur la plate-forme. Bloor Research indique que “près de 225 éditeurs de logiciels fournissent à l’heure actuelle plus de 600 applications tournant sous Linux sur la plate-forme mainframe d’IBM”. Les compétences Linux, largement disponibles sur le marché, sont aisément mobilisables sur cette plate-forme. La charte mainframe d’IBM Nos objectifs sont les suivants : Favoriser l’innovation : Proposer les innovations nécessaires afin d’optimiser l’utilisation des systèmes IBM eServer zSeries, de manière à garantir la prise en charge de processus opérationnels de plus en plus intégrés et flexibles pour les activités à la demande Maintenir le positionnement de la gamme zSeries en tant que référence pour des plates-formes flexibles, performantes et réactives dans les environnements intégrés complexes traitant des charges de travail critiques hétérogènes Améliorer les fonctionnalités d’automatisation et d’autocontrôle de la gamme zSeries tout en s’efforçant de simplifier les processus utilisateur et les tâches d’administration système. Apporter une valeur ajoutée : Optimiser la valeur ajoutée et réduire les coûts informatiques liés aux solutions zSeries de manière convaincante, claire et cohérente Étendre les fonctionnalités à la demande de la gamme de serveurs zSeries en renforçant son modèle de tarification à la puissance consommée Renforcer les capacités d’accounting concernant l’affectation et l’utilisation des ressources zSeries dans un environnement à la demande. Favoriser le développement d’une communauté : Soutenir les initiatives visant à favoriser la vitalité de la communauté zSeries de façon à promouvoir un solide portefeuille d’applications à l’international Fournir les compétences et l’expertise nécessaires pour aider les clients à concevoir, développer et déployer des solutions à la demande dont la gamme zSeries constitue la clé de voûte Tirer parti des principaux standards ouverts et des structures communes pour optimiser l’utilisation des serveurs zSeries dans les environnements hétérogènes de grande taille. 17 4.4. Modernisation des applications Voici quelques exemples illustrant la mise en application de techniques de modernisation : Il existe un certain nombre de techniques de modernisation d’applications mainframe connues et éprouvées. Cela peut aller d’un simple “rafraîchissement” in situ à des conversions complètes vers une autre plate-forme, avec différents niveaux de changement pour les utilisateurs. 4.4.1. Mise en avant d’une nouvelle interface utilisateur graphique (GUI) Pour remplacer les terminaux 3270 (passifs) par une interface Web moderne. La plupart de ces techniques peuvent être employées dans le cadre de migrations “souples” : les environnements existants et nouveaux coexistent, les utilisateurs migrant par groupes et les applications fonction par fonction. On peut distinguer les approches générales suivantes : Mise à niveau : déploiement de nouvelles solutions logicielles sur la plate-forme existante Migration : transfert des applications existantes vers une nouvelle plate-forme plus justifiée Régénération ou re-enginering : génération de nouveau code sur la base du code source applicatif (par exemple : Cobol en Java) Remplacement : écriture développement d’un nouveau code et/ou achat de logiciels disponibles sur le marché. Il ne s’agit évidemment pas d’approches exclusives, étant donné la modularité et la complexité de la plupart des environnements applicatifs. Une combinaison d’approches est souvent plus judicieuse. 4.4.2. Interface SOA (architecture orientée services) Laisser en place une grande partie du code applicatif existant et “ouvrir” l’environnement avec une interface SOA. L’application peut ensuite trouver sa place dans un environnement multi-applications/ multi-plateformes plus complexe, connecté selon différentes méthodes (par exemple, via un bus ESB - Enterprise Service Bus). 4.4.3. Migration vers Java Typiquement pour les applications transactionnelles (par exemple, IMS ou CICS) écrit en COBOL. IBM propose le langage IBM Rational™ EGL (Enterprise Generation Language) qui peut être utilisé pour cette conversion. Similaire à bien des égards à des langages tels que COBOL et Java, il possède des capacités de modélisation avancées. Les programmes qui en résultent peuvent utiliser des moteurs spécialisés (par exemple, zAAP), ce qui permet de réaliser des économies de coûts importantes. Le code écrit dans des langages tels que COBOL est converti (automatiquement à 98% en général) en EGL, qui peut à son tour générer du code Java. Certains sous-programmes spécifiques (en Assembler par exemple) peuvent nécessiter une conversion manuelle. Le SGBD peut continuer à être utilisé tel quel ou être remplacé. Dans le cas d’un remplacement, une conversion des données peut s’avérer nécessaire (par exemple : EBCDIC en ASCII). De nombreuses entreprises fournissent des solutions similaires, certaines sous la forme de service, d’autres sous la forme d’un produit logiciel, par exemple MicroFocus, Bluephoenix ou PKS. 18 4.4.4. Réhébergement (rehosting) Il s’agit de déplacer les applications mainframe vers des plates-formes supposées moins coûteuses. En règle générale, il s’agit de plates-formes dédiées, parmi lesquelles Linux on z. Certaines entreprises envisagent de passer à des environnements de cloud computing, plutôt privés que publics. Diverses solutions globales prennent en charge cette approche, par ré-hébergement ou transformation du code. 4.5 Nouvelles charges de travail Pour contrer le rehosting d’applications hors mainframe et accueillir au contraire de nouvelles applications, IBM a lancé fin 2009 l’offre Solution Edition (SE) pour zEnterprise. Elle est constituée d’un package englobant le matériel (un serveur Z), les logiciels, middlewares, le support, et la maintenance, avec une forte remise, mais doit être dédié à une activité spécifique. Cette offre est réservée à des applications ou charges de travail particulières, notamment le développement d’applications, le cloud computing, Enterprise Linux et SAP. L’objectif de l’offre “SE for SAP” est de permettre aux entreprises de profiter à moindre coût des atouts du System z pour leurs applications SAP. Si elles utilisent déjà SAP dans un environnement distribué, elles peuvent l’intégrer au mainframe via l’offre. Il est possible de l’associer avec DB2 sur z/OS à un tarif spécial et (en option) avec Linux sur System z en tirant parti du programme “System z SE for Enterprise Linux”. Les environnements informatiques hybrides peuvent également être pris en charge dans le cadre du programme SE. Par exemple, lors de la mise en œuvre de SAP avec z/OS et DB2 sur zEnterprise, les entreprises peuvent choisir d’implémenter le serveur d’applications SAP sur zEnterprise avec Linux on z ou sur zBX avec les serveurs lames POWER7 et AIX. L’économie de coûts alors réalisée est plus élevée étant donné que zBX et Unified Resource Manager sont considérés comme des produits SE en option. Mainframes en perspective, un classique plus moderne que jamais 4.6. Mainframes and Cloud IBM a également fait de gros efforts pour positionner le mainframe comme un outil adapté au support des clouds privés, hébergés au sein d’une entreprise et pour son seul usage. Il repose sur un modèle d’évolution “scale-up” plutôt que sur le modèle “scale-out” habituel, qui présente par nature de gros avantages en termes d’évolutivité et de sécurité, avec une capacité d’intégration avec les autres plates-formes de plus en plus poussée. Les mainframes ont également trouvé leur place dans certains clouds publics, tels que celui de Amazon. Un modèle spécifique de machine, zEC12, a été créé. Elle peut gérer plusieurs milliers de serveurs Linux et être couplée à zBX pour assurer la prise en charge de Windows et AIX. 4.7. Architecture orientée services (SOA) Un grand nombre d’entreprises continuent à se fier au mainframe pour supporter leurs activités transactionnelles critiques. Mais elles doivent trouver le moyen d’ “ouvrir” cette plate-forme pour la faire sortir de son isolement et l’intégrer à l’ensemble plus large des applications et des systèmes de leur SI. L’architecture orientée services (SOA) est un modèle de traitement et de développement d’applications extrêmement modulaire. Elle permet de décomposer les fonctionnalités d’une application en composants “service” et de les présenter aux autres applications. Mainframes en perspective, un classique plus moderne que jamais Architecture SOA : Services normalisés réutilisés et combinés selon les besoins Auto-descriptive : format standard des requêtes et réponses Autonome : pas de couplage étroit Indépendante de la plate-forme: en termes de réseau ou de localisation. Le terme Web Services fait référence au mode de mise à disposition de ces composants de service SOA via une interface Web (intranet ou Internet), ce qui les rend accessibles à d’autres départements de l’entreprise ou même à d’autres entreprises. L’architecture SOA s’appuie sur la construction de groupes applicatifs fonctionnels : un ou plusieurs services accédant à des données spécifiques ou exécutant des tâches spécifiques, lorsqu’ils sont sollicités d’une certaine façon. Cette description succincte correspond à de nombreux traitements mainframe existants. C’est pourquoi ils se prêtent particulièrement bien à une intégration dans une architecture SOA. Les applications accédant à des d’applications préexistantes (legacy) “SOA compatible” (par exemple, CICS) peuvent utiliser Websphere comme interface. Websphere est la plateforme Java prédominante pour ce type de développement dans les environnements IBM. Si les applications legacy nécessaires à l’intégration des processus opérationnels peuvent être interfacées par un environnement SOA, il est alors possible de les regrouper avec l’ensemble du SI. 19 5. Plan de mise en œuvre du mainframe Plutôt que de la traiter comme support du legacy, la plate-forme mainframe peut simplement être considérée comme une autre plate-forme parmi d’autres disponibles aujourd’hui, avec ses propres caractéristiques de performances et de coûts. Plus précisément d’une plate-forme parmi d’autres qui continue par ailleurs à prendre en charge un nombre important d’applications stratégiques constituant son propre héritage. Par ailleurs, les utilisateurs d’environnements mainframe peuvent se préparer au mieux à l’avenir en abolissant les barrières entre les mainframes et les autres plates-formes. Cela implique notamment d’utiliser des technologies telles que Linux et SOA (voir ci-dessus), ainsi que des processus opérationnels standard tels qu’ITIL. Moins le mainframe est cloisonné dans un “silo” autonome, plus il a un rôle à jouer dans le SI de demain, et moins sa prise en charge future risque d’être problématique. Cela dit, le mainframe présente des caractéristiques exceptionnelles. Dans la majorité des cas, il garantit effectivement une disponibilité à 100% : il n’existe aucune notion de qualité de service inférieure avec les services mainframe, qui présentent une durée de fonctionnement moyenne entre deux pannes (MTBF) de plus de 20 ans. Pour utiliser efficacement un mainframe, il est toutefois nécessaire d’atteindre une certaine masse critique. Le niveau exact est discutable, mais il semble être de l’ordre de 7000 MIPS. À partir de cette taille, il est possible de tirer le meilleur parti de l’environnement Parallel Sysplex ainsi que de la pondération des coûts de licence. Ainsi, de nombreuses entreprises font le choix d’un prestataire externe pour héberger leurs mainframes; cette solution permet d’assurer la masse critique de systèmes et de compétences pour gérer et développer cet ‘environnement. Comme nous l’avons expliqué assez longuement, le “dinosaure qui sommeille” est bel et bien réveillé, prêt à défendre sa place légitime dans le portefeuille des solutions informatiques modernes. Faire une évaluation complète de l'infrastructure et des applications mainframe actuelles, portant en particulier sur la criticité et l'évolution probable Possibilité de remplacer les applications par des applications standard ou de les transférer versune autre plate-forme ? Comparer le coût total de possession avec celui prévu ou une autre plate-forme Rechercher une offre ou un processus de migration fiable et maîtrisable Possibilité de réaliser des 'économies réalistes ? Utiliser le mainframe comme cible de consolidation pour d'autres systèmes ? Conclusions : Si vous disposez déjà d’un environnement mainframe, vous trouverez sans doute que la meilleure approche consiste à le conserver et même à y intégrer d’autres systèmes. Vous pouvez éventuellement opter pour une solution externalisée, même si vous conservez vous-même d’autres plates-formes : nul besoin de détenir un mainframe pour pouvoir bénéficier de ses avantages. Optimiser et consolider l'environnement mainframe Ajouter d'autres systèmes adéquats à la combinaison à l'étude Vous-même Politique d'externalisation ? Externaliser La simplification est un aspect essentiel de la gestion des environnements informatiques. Grâce à la plate-forme z vous pouvez créer un environnement unique et cohérent. Vos systèmes distribués multiples et hétérogènes peuvent être consolidés à grande échelle : vous pouvez administrer et exécuter plusieurs centaines de serveurs Unix ou Linux sur un même serveur Z. Opter pour une combinaison matériel/logiciel moins coûteuse Systèmes modernes et à jour ? Par vous-même ? Déterminer la stratégie de gestion du cycle de vie de l'application et de la plate-forme 20 Mainframes en perspective, un classique plus moderne que jamais 6. Note finale 6.1. Références 6.2. Remerciements Architecture of the IBM System/360, Amdahl et al, IBM Journal of R&D, 1964 L’équipe de rédaction de ce livre blanc a été dirigée par Mick Symonds, avec la contribution d’Herbert Voskuil, de Paul Bles et d’autres membres du groupe Atos. IT Key Metrics Data 2013: Key Infrastructure Measures: Mainframe Analysis: Multiyear, Gartner Benchmark Analytics, G00246747, décembre 2012 Progress Report for IBM’s zBX, Gartner, G00231027, mars 2012 Rehosting Mainframe Workloads in the Cloud, Gartner, G00218073, novembre 2012 Pour plus d’informations, contactez votre interlocuteur Atos France, ou l’adresse email [email protected] ou visitez le site www.atos.net/mainframe Proof Points For Mainframe Application Migration, Forrester Research, septembre 2011 Server Sprawl And Cost Reduction Bring New Customers To Mainframe/Linux Platform, Forrester Research, juillet 2011 Comparing Virtualization Methods for Business, Solitaire Interglobal, 2012 Triggers for refreshing servers, Forrester Research, juin 2005 The Arcati Mainframe Yearbook 2013, Arcati Research, 2013 Shaping the Cloud, Atos, novembre 2011 Blog : Dancing Dinosaur (www.dancingdinosaur.wordpress.com). Mainframes en perspective, un classique plus moderne que jamais 21 Annexe A. Petite histoire du mainframe Petite histoire du mainframe 7 avril 1964 22 IBM annonce le lancement de la gamme System/360. Celle-ci regroupe cinq ordinateurs de puissances différentes qui exécutent le même système d’exploitation et peuvent utiliser l’ensemble des 44 équipements périphériques. 1968 Lancement du système CICS (Customer Information Control System) qui permet sur site de consulter, de mettre à jour et de récupérer les données en ligne. 1968 Le modèle 85 de la gamme S/360 introduit la mémoire cache à haut débit, avec une mise à disposition des données prioritaires 12 fois plus rapide. Cela pose ainsi les bases de la mémoire cache que l’on trouve dans une grande majorité des technologies informatiques d’aujourd’hui. 1970 Émergence du marché des PCM (Plug Compatible Manufacturer - constructeur d’équipements compatibles) : en 1970, plus de 80 entreprises disposent de plus de 200 produits compatibles avec l’architecture S/360 et ses équipements périphériques. 1970 Lancement de la gamme S/370 qui succède à la gamme S/360. Le modèle 145 de la gamme S/370 est le premier ordinateur doté d’une mémoire monolithique totalement intégrée (résistances, condensateurs et diodes sur une seule plaque de silicium). Avant la technologie des semi-conducteurs, on utilisait la technologie des tores magnétiques. 1971 Amdahl fait son entrée avec un clone de la gamme S/370. Gene Amdahl était ingénieur en chef sur le programme IBM S/360 avant de créer la société Amdahl. Les machines Amdahl sont refroidies à l’air, tandis que les machines IBM sont refroidies à l’eau. 1972 IBM annonce la virtualisation VM, avec le système d’exploitation VM/370. 1972 SAP développe un système ERP révolutionnaire pour la gamme S/370. Les entreprises peuvent pour la première fois passer des commandes et effectuer le suivi des stocks en temps réel. 1976 Les logiciels SAS apportent un nouvel avantage concurrentiel : la veille stratégique. Grâce à SAS, vous pouvez extraire des renseignements exploitables des données brutes. 1981 Le successeur de la gamme S/370 est le mainframe 3081, qui consomme moins d’énergie et d’espace que ses prédécesseurs. Il s’accompagne de la technologie eXtended Architecture (XA), avec les canaux dynamiques et l’adressage 31 bits (2 Go). 1983 Livraison de MVS/XA : un système d’exploitation permettant d’exploiter la nouvelle architecture. 1984 Amdahl présente MDF (Multiple Domain Feature), le premier outil de partitionnement hardware sur les mainframes Amdahl 470. 1988 IBM lance PR/SM, en réponse à la technologie MDF d’Amdahl. Le partitionnement hardware avec des partitions logiques (LPAR) est ainsi désormais possible sur les mainframes IBM. 1988 Lancement de DB2, le système de gestion de base de données relationnel d’IBM. 1988 Lancement des systèmes d’exploitation MVS/ESA et VM/XA qui libèrent des contraintes de mémoire limitant la taille des applications grâce à de nouveaux éléments architecturaux. 1994 Annonce du lancement de la technologie Parallel Sysplex qui permet de partager 32 partitions logiques (LPARs) dans un même cluster. 1994 Annonce du lancement d’Unix sur le mainframe. OpenEdition, rebaptisé par la suite Unix System Services, fait partie intégrante du système d’exploitation OS/390 (en 2000, le système d’exploitation est renommé z/OS) 1995 Les processeurs basés sur la technologie CMOS sont introduits dans l’environnement mainframe, établissant ainsi la nouvelle feuille de route pour la technologie mainframe moderne. Les machines CMOS utilisent 1/20e de l’énergie et 1/10e de l’espace qu’utilisent les machines plus anciennes. Mainframes en perspective, un classique plus moderne que jamais 1999 La fonction Capacity Upgrade on Demand (concept commercial similaire à un utilitaire) offre une capacité supplémentaire pouvant être activée en fonction des besoins opérationnels. 1999 La technologie Linux fait son apparition sur le mainframe, en combinant la flexibilité de l’informatique Open source à l’évolutivité et la fiabilité légendaires du mainframe. 2000 IBM lance la gamme de serveurs eServer avec le changement de dénomination des diverses sous-marques. IBM S/390 devient IBM eServer zSeries (z pour zéro temps d’arrêt). En parallèle, la version 64 bits du système d’exploitation z/OS est lancée. 2003 IBM présente la Charte mainframe. Celle-ci exprime l’engagement d’IBM à fournir des solutions innovantes, à accroître la valeur ajoutée de la gamme zSeries et à favoriser le développement d’une communauté zSeries afin de répondre aux besoins des clients en matière d’informatique à la demande. 2000 La technologie IFL (processeur Linux spécialisé) est introduite sur la gamme zSeries. 2004 Les processeurs zAAP (Application Assist Processor) sont intégrés à la gamme zSeries afin de les décharger de certaines tâches Java et XML spécifiques. 2005 IBM zSeries devient IBM System z, dans le cadre d’une stratégie de changement de dénomination des produits IBM. 2006 Lancement de la technologie zIIP (System z Integrated Information Processor) pour les serveurs System z. Initialement introduite pour soulager les processeurs centraux (CP) de certaines tâches de traitement DB2, elle est maintenant utilisée pour les décharger d’autres tâches z/OS également. 2010 Lancement de zEnterprise, zBX et Unified Resource Manager (URM) : début de l’informatique hybride : z/OS, Linux, IBM Power (AIX) et boîtiers. 2011 Extension de l’informatique hybride avec l’intégration de Windows. 2012 Mainframe IBM = System z = gamme zEntreprise offrant une modularité dans la taille des serveurs. Le lancement des systèmes zEC12 en 2012 permet d’installer entre 26 et 78 000 MIPS sur une même machine. Avec une vitesse de processeur de 5,5 GHz, ils sont à la pointe des serveurs haut de gamme. Annexe B. A propos des MIPS, MSU et Unités de service Les performances des mainframes sont traditionnellement décrites en millions d’instructions par seconde (MIPS), comme une simple indication de la vitesse. Mais ce n’est pas aussi simple que cela car le mainframe utilise une série d’instructions complexes. Ainsi, le contenu et l’effet d’une seule instruction peuvent énormément varier. En effet, le marché émergent des services généralistes et du cloud computing souffre de l’absence d’unité de mesure simple équivalente aux MIPS. Cette complexité est accentuée par des facteurs tels que la virtualisation et le multitraitement, ainsi que par la nécessité de trouver un équilibre entre le traitement des E/S et l’exécution des instructions. De son côté, le concept de MSU (Millions of Service Units - millions d’unités de service) a fait son apparition pour des besoins de facturation de licences logiciels. Contrairement à ce que l’on pourrait croire, il ne fait pas référence aux unités de service évoquées précédemment : il y a entre 5 et 8,5 MIPS par MSU. Ce chiffre évolue car IBM l’utilise pour inciter à la migration vers chaque dernière génération de mainframes. Le terme MIPS a souvent été parodié en “Meaningless Indicator of Processing Speed” (indicateur inutile de la vitesse de traitement). Mais aucune alternative simple n’a fait son apparition. Mainframes en perspective, un classique plus moderne que jamais Au sein du système, les unités de service servent à la répartition et à l’équilibrage des charges. Il y a environ 50 unités de service par MIPS. IBM a essayé de faciliter l’estimation des charges de travail et la planification des capacités en publiant les tables LSPR (Large System Performance Reference). Mais celles-ci sont beaucoup trop complexes pour permettre des comparaisons simples. Une analyste indépendante, Cheryl Watson, a trouvé la solution en 1965 avec la publication de tableaux présentant les performances de divers systèmes pour des charges de travail et des niveaux de systèmes d’exploitation différents, ainsi que des règles générales quant à la manière de les déployer. 23 A propos d’Atos Atos SE (Société Européenne), acteur international des services informatiques avec un chiffre d’affaires annuel de 8,8 milliards d’euros et 76.400 collaborateurs dans 47 pays, fournit à ses clients du monde entier des services transactionnels de haute technologie, des solutions de conseil et de services technologiques, d’intégration de systèmes et d’infogérance. Grâce à son expertise technologique et sa connaissance industrielle, il sert ses clients dans les secteurs suivants: Industrie, Distribution & Services, Services Financiers, Energie & Services Publics, Télécoms, Médias & Technologie, Secteur Public, Santé & Transports. Atos délivre les technologies qui accélèrent le développement de ses clients et les aident à réaliser leur vision de l’entreprise du futur. Atos est le partenaire informatique mondial des Jeux Olympiques et Paralympiques. Le Groupe est coté sur le marché Eurolist de Paris et exerce ses activités sous les noms d’Atos, Atos Consulting & Technology Services, Atos Worldline et Atos Worldgrid. Pour plus d’informations, contactez : [email protected] ou consultez le site : www.atos.net Pour plus d’informations, contactez : [email protected] ou consultez le site : www.atos.net atos.net Atos, the Atos logo, Atos Consulting, Atos Worldline, Atos Sphere, Atos Cloud and Atos Worldgrid are registered trademarks of Atos SE. May 2013 © 2013 Atos.