Les grands systèmes - Navigation du site[Passer]

Transcription

Les grands systèmes - Navigation du site[Passer]
Généralités
Les grands systèmes
Quand on parle de systèmes informatiques, on a tendance à penser aux PC et à Windows, parce
quʼils se trouvent sur la plupart des bureaux, mais cette suprémacie du
monde Microsoft ne concerne que les postes de travail.
Lʼinformatique
Les petits serveurs fonctionnent souvent sous Windows, mais ce nʼest
pas le cas des moyens et grands serveurs, dont le système dʼexploitation est plutôt Solaris (le Unix de Sun), HP-UX (le Unix de HewlettPackard), z/Linux, z/OS ou z/TPF (IBM). z/OS est un système très
particulier : il contient une version complète de Unix.
Lʼordinateur
Les grands systèmes
Les serveurs
Les serveurs sont le cœur des systèmes informatiques : les postes de
travail ne servent à rien sʼils ne sont pas connectés aux serveurs, qui stockent lʼensemble des
données des entreprises. Les postes servent seulement de moyens dʼaccès à ces données.
Historique
Les premiers ordinateurs de gestion datent des années 1950, mais ils coûtaient une fortune, si
bien quʼils ne se rencontraient quʼaux États-Unis et dans les grands pays européens. Seuls les
États et les grandes entreprises avaient les moyens de sʼéquiper.
Cʼest à partir des années 1960 que lʼinformatique sʼest démocratisée et quʼon a vu les premiers
ordinateurs de gestion apparaître dans les entreprises suisses.
Voici de quoi avait lʼair un système informatique des années 1970 (à gauche) et 1980 (à droite) :
Source : http://www-03.ibm.com/ibm/history/exhibits/mainframe/mainframe_album.html (cette page
contient des photos des principales mainframes IBM).
Sur la photo de droite, ce ne sont pas des PC qui se trouvent sur les tables, mais des terminaux
qui se composent uniquement dʼun écran et dʼun clavier. Les unités centrales sont dans les
armoires bleues. Ce sont elles qui contiennent les processeurs centraux et la mémoire vive (la
RAM). Les disques durs se trouvent dans leurs propres armoires.
Les grands systèmes informatiques
1
http://www.jaquet.org, septembre 2009
1837
LʼAnglais Charles Babbage conçoit le premier ordinateur universel, lʼAnalytical
Engine, mais il ne sera jamais construit.
1941
LʼAllemand Konrad Zuse construit le premier ordinateur universel, le Z3.
1948
Zuse met au point Plankalkül, le premier langage de programmation évolué.
1950
Le ERA 1101 dʼEngineering Research Associates est le premier ordinateur mis sur le
marché. Son tambour magnétique (lʼancêtre du disque dur) contient jusquʼà 1 million
de bits, lʼéquivalent dʼenviron 120ʻ000 octets.
1952
Le 701 est le premier ordinateur dʼIBM.
1960
Le COBOL (Common Business Oriented Language) est mis au point. Ce sera le
langage universel de lʼinformatique de gestion jusquʼaux années 1980-90.
1963
La table ASCII fait son apparition.
1965
Le PDP-8 de Digital Equipment Corp. est le premier mini-ordinateur à connaître le
succès commercial. Il ne coûte que 18ʻ000 dollars. Cʼest le début de lʼinformatique
dʼentreprise pour les entreprises de taille moyenne.
La même année, la programmation à objets fait ses débuts.
1969
Naissance de UNIX. Aujourdʼhui, cʼest le système dʼexploitation le plus utilisé sur les
moyens et gros serveurs.
1970
Débuts du réseau ARPANET, qui sera séparé en 1983 en un réseau militaire
(MILNET) et un réseau civil (ARPANET). Il deviendra lʼinternet en 1995.
1971
Le Kenbak-1 est le premier micro-ordinateur mis sur le marché. Il se vend en kit (il
doit être monté par lʼacheteur). Il coûte 750 dollars et a une mémoire vive de 256
octets. Seuls quarante exemplaires vont se vendre.
1972
Dennis Ritchie met au point le langage C. Avec ses descendants le C++ et le C#,
cʼest le langage le plus utilisé aujourdʼhui.
1974
LʼAlto est mis au point par Xerox au PARC (Palo Alto Research Center), mais il nʼest
pas commercialisé. Cʼest le premier ordinateur graphique. Il gère le multifenêtrage et
est doté dʼune souris.
1977
Les premiers micro-ordinateurs à connaître un vrai succès commercial sortent en
même temps : le PET (Personal Electronic Transactor) de Commodore, le TRS-80
de Tandy Radio Shack et surtout lʼApple II. Les petites entreprises commencent à
sʼéquiper.
1979
Dan Bricklin invente le tableur, quʼil appelle Visicalc. Cʼest cette application qui va
faire des micro-ordinateurs des outils utiles dans les entreprises.
Les grands systèmes informatiques
2
http://www.jaquet.org, septembre 2009
1980
Fabriqué par Seagate, le ST506 est le premier disque dur pour micro-ordinateurs. Il
a une capacité de 5 mégaoctets.
1981
Le PC dʼIBM donne un énorme élan à la micro-informatique. Il fonctionne sous MSDOS (Microsoft Disk Operating System). Cʼest le début de lʼère Intel-Microsoft.
1984
Le Macintosh dʼApple est le premier micro-ordinateur graphique à connaître le
succès commercial.
1985
Microsoft met sur le marché la première version de Windows. Cʼest seulement une
superstructure sur le système dʼexploitation MS-DOS.
1988
Robert Morris écrit un ver qui met à mal 6ʻ000 des 60ʻ000 systèmes informatiques
connectés à lʼARPANET. Cʼest le début de lʼinsécurité informatique.
1990
Le World Wide Web est mis au point par Tim Berners-Lee, un chercheur du CERN à
Genève. Le premier serveur du web est un NeXT.
1991
Naissance de Linux, un système dʼexploitation libre conçu par un étudiant finnois,
Linus Torvalds.
1993
Microsoft met Windows sur le marché. Ce nʼest plus une interface par-dessus MSDOS, cʼest un système dʼexploitation à part entière (la version 1 est numérotée 3.1).
1995
Java est mis au point avec un principe : WORA (Write Once, Run Anywhere). Un
programme doit fonctionner sans modification sur nʼimporte quelle plate-forme.
Vers
2000
Le web et la messagerie électronique deviennent un élément essentiel de la vie
économique, sociale et culturelle des pays riches et des pays émergeants.
Les grands systèmes actuels
Lʼavantage premier des grands systèmes nʼest pas leur vitesse de calcul — en faisant travailler
ensemble quelques milliers de serveurs
Intel, on peut créer un système au
moins aussi performant que les plus
grosses machines — mais leur
fiabilité. Ils sont conçus pour
fonctionner 24 heures sur 24, 7 jours
sur 7, 365 jours par an, cela pendant
des années, sans aucune interruption
de service. On nʼa même pas besoin de les arrêter pour changer un processeur central en panne
ou pour ajouter de la mémoire vive (ce quʼon appelle le hot-swapping).
De plus, il est plus facile dʼadministrer cinq grosses machines plutôt que six ou huit mille petits
serveurs.
La fiabilité des grands systèmes repose sur la redondance (redundancy) : chaque composant
matériel existe à deux exemplaires au moins et chaque instruction est exécutée deux fois, par
Les grands systèmes informatiques
3
http://www.jaquet.org, septembre 2009
deux éléments matériels différents ; les deux résultats sont ensuite comparés pour vérifier que tout
sʼest bien passé.
Lʼautre caractéristique essentielle des grands systèmes est leur capacité multi-utilisateur : ils
peuvent gérer des dizaines de milliers dʼutilisateurs sans se crasher. Chaque année, dans les jours
qui précèdent Noël, les systèmes centraux de Visa ou Mastercard font face à une crête dʼutilisation
énorme, avec des dizaines de milliers de transactions par seconde, et pourtant ils continuent de
fonctionner imperturbablement.
Cette capacité à fonctionner indéfiniment permet dʼutiliser ces machines pour les applications
critiques, cʼest-à-dire les applications vitales pour lʼentreprise.
IBM et Sun sont les deux fabricants principaux de grands ordinateurs. Chez IBM, on les appelle
mainframes.
Chez Sun, les plus grands serveurs sont les
Enterprise M9000 (http://www.sun.com/servers/
highend/m9000), qui fonctionnent sous Solaris.
Ils sont dotés de 32 ou 64 processeurs centraux
et dʼun maximum de 2 téraoctets de mémoire
vive. Le modèle à 64 processeurs pèse 1ʻ880
kilos. Il fait 1,8 mètre de hauteur, 1,7 de largeur et
1,3 de profondeur. En configuration minimale, il
coûte environ 300ʻ000 dollars, mais le prix peut
monter jusquʼà huit à dix millions selon la
configuration. Chaque unité de disques a une capacité maximale de 330 téraoctets.
Chez IBM, les grands systèmes sʼappellent z (http://www-03.ibm.com/systems/z). Le z10 est sorti
au début de lʼannée 2008 (photo ci-dessous). Il peut être équipé de 64 processeurs centraux, 1,5
téraoctet de mémoire vive et plus de 1ʻ000 canaux dʼentrée-sortie.
En chiffres ronds, ces valeurs sont mille fois plus élevées que sur un
PC. Le z10 mesure 2 mètres de hauteur et occupe près de 3 mètres
carrés au sol. Avec 64 processeurs, il pèse 2,3 tonnes. Le prix de
base est dʼun million de dollars, mais les processeurs centraux
supplémentaires, lʼextension de la mémoire et les périphériques
peuvent multiplier ce montant par dix.
Le z10 fonctionne le plus souvent sous une version de Linux
appelée Linux on System z, mais il accepte aussi les systèmes
dʼexploitation classique du monde des mainframes : z/OS, z/VM, z/
VSE et z/TPF. Plusieurs systèmes dʼexploitation peuvent coexister
sur une seule machine réelle. et chaque machine virtuelle peut ellemême gérer plusieurs partitions logiques. De cette manière, un seul
z10 réel peut abriter plusieurs milliers de serveurs Linux virtuels. Cela veut dire quʼun seul z10
peut fournir des services à des centaine de milliers de postes de travail.
Les grands systèmes sont utilisés pour des applications massives dans des domaines comme la
banque, les assurances, les services publics ou les réservations aériennes. Les plus grands
dʼentre eux sont capables de traiter plusieurs milliards de transactions par jour, ce qui représente
Les grands systèmes informatiques
4
http://www.jaquet.org, septembre 2009
des dizaines de milliers de transactions par seconde. Une transaction est un ensemble dʼopérations insécables (inséparables), comme, par exemple, les opérations consistant à débiter un
compte dʼune certaine somme et à virer ce montant sur un autre compte.
Lʼindice de performance est la tps (transaction par seconde).
Le budget informatique annuel dʼune très grande entreprise sʼexprime en milliards de dollars.
La sauvegarde
La sauvegarde des données pose évidemment des problèmes inconnus sur les serveurs
Windows : on ne copie pas dix téraoctets comme on copie dix gigaoctets. Cʼest mille fois plus.
Toutes choses égales par ailleurs, cela signifie que, sʼil faut 2 minutes suffisent sur un petit serveur
pour sauvegarder le travail des dernières 24 heures, il faudrait 2ʻ000 minutes, cʼest-à-dire 33
heures, sur une mainframe. Ça nʼirait évidemment pas. Les grands systèmes doivent donc
être équipés de systèmes de sauvegarde bien
plus performants que les petits serveurs.
Aujourdʼhui, les entreprises sauvegardent leurs
données sur des unités de disques. Dans une
petite entreprise, cʼest un disque dur externe
semblable à celui que possèdent les privés. Dans
une multinationale, cʼest une armoire qui contient
des centaines ou des milliers de disques durs.
Un exemple est le Storage Tek 9990V de Sun
(http://www.sun.com), qui est compatible, entre
autres, avec Solaris, TPF, z/OS, AIX, HP-UX, Linux et Windows. Sa capacité dépasse un pétaoctet
(un million de gigaoctets). Il mesure 1,9 mètre de hauteur, 65 cm de largeur et 92 de profondeur. Il
pèse 4 tonnes.
Les modes de traitement
On distingue trois modes de traitement :
1. le traitement interactif (interactive processing), où le traitement avance au fil du dialogue
entre lʼutilisateur et la machine ; cʼest le mode normal ;
2. le traitement par lots (batch processing), où le travail de la machine sʼeffectue sans aucune
intervention humaine, la seule opération possible étant lʼabort, lʼarrêt du travail avant sa
terminaison normale ; ce mode sʼemploie beaucoup la nuit ;
3. le traitement en temps réel (real-time processing ou RT), où le traitement sʼeffectue sous une
contrainte de temps : une tâche donnée doit sʼeffectuer en un laps de temps maximum. Ce
mode est typique de lʼindustrie et du secteur militaire.
Pendant la journée, on donne la priorité au traitement interactif. Les travaux batch se font en
arrière-fond et en priorité basse. Les gros travaux de ce type sʼeffectuent en général la nuit.
Les grands systèmes informatiques
5
http://www.jaquet.org, septembre 2009
Un centre de calcul avec des machines IBM (photo ibmphoto24, http://www.flickr.com/photos/
21317126@N04/2106501604/in/set-72157603323965583) :
Un supercalculateur Blue Gene dʼIBM (photo ibmphoto24, http://www.flickr.com/photos/
21317126@N04/2105723539/in/set-72157603323965583) :
Depuis 2009, sa puissance sʼexprime en petaFLOPS (millions de milliards dʼopérations en virgule
flottante par seconde). Il fonctionne sous Linux.
Les grands systèmes informatiques
6
http://www.jaquet.org, septembre 2009
Les moniteurs transactionnels
Sur les grands systèmes, le traitement interactif prend souvent la forme du traitement transactionnel ou OLTP (On-Line Transaction Processing).
LʼOLTP résout le problème de la saturation du système dʼexploitation : quand un utilisateur ouvre
une session sur un serveur, cela déclenche le lancement de plusieurs programmes et lʼouverture
de plusieurs fichiers, et ces ressources restent actives tout au long de la session. Si trop
dʼutilisateurs se connectent au serveur, son système dʼexploitation est submergé par le nombre, il
sature et cʼest le crash.
Pour éviter cela, les grands systèmes utilisent un moniteur transactionnel (transaction
processing monitor ou TP monitor). Cʼest un logiciel qui accueille les demandes dʼouverture de
session des utilisateurs et les canalise. Il les transmet ensuite au système dʼexploitation du
serveur, mais à un rythme compatible avec sa capacité dʼabsorption.
Chez IBM, TPF (Transaction Processing Facility) est à la fois un système dʼexploitation et un
moniteur transactionnel, avec la capacité de gérer plusieurs centaines de milliers de transactions
par seconde. Cʼest le moniteur le plus puissant. Parmi ses utilisateurs, il y a Visa, American
Express, Sabre, British Airways, KLM, Amadeus et la SNCF.
CICS (Customer Information Control System), également dʼIBM, est le moniteur transactionnel le
plus utilisé dans les grandes entreprises.
IMS (Information Management System), toujours dʼIBM, est un système de gestion de bases de
donnée hiérarchique couplé à un moniteur transactionnel appelé IMS TM (Transaction Manager). Il
est très répandu dans les banques. Quand on prélève de lʼargent sur un distributeur automatique
de billets, cʼest souvent IMS TM qui gère la transaction.
Pour UNIX, il existe un autre logiciel dʼIBM, TXSeries, ainsi que Tuxedo, un produit dʼOracle.
Les trois moniteurs les plus répandus sont CISC, IMS et Tuxedo.
Fiabilité, disponibilité et administrabilité
Les trois caractéristiques les plus importantes des serveurs sont la fiabillté, la disponibilité et
lʼadministrabilité. On parle de RAS (Reliability, Availability, Serviceability).
1. la fiabilité (reliability) concerne les pannes ; elles doivent être aussi rares que possible et durer
un laps de temps aussi court que possible ;
2. la disponibilité (availability) concerne le bon fonctionnement de la machine ; les données et
les autres ressources doivent être indisponibles aussi rarement que possible et le moins
longtemps possible ;
3. lʼadministrabilité, ou maintenabilité, ou aptitude au service (serviceability), est la capacité de
la machine à être entretenue dans les meilleures conditions possibles. Si, par exemple, un
processeur de grand système tombe en panne, une alerte est envoyée automatiquement, le
composant est expédié immédiatement et les techniciens le changent à chaud (sans arrêter le
système). Le tout est «gratuit» (cʼest-à-dire compris dans le prix de location).
Les grands systèmes informatiques
7
http://www.jaquet.org, septembre 2009
Trois autres caractéristiques sont également importantes mais elles dépendent moins du matériel :
4. lʼintégrité (integrity) est lʼabsence dʼaltérations non voulues ;
5. la confidentialité (confidentiality) est lʼabsence de fuites dʼinformations ;
6. la sûreté (safety) est lʼabsence de conséquences négatives sur la santé des utilisateurs et
lʼintégrité de lʼenvironnement physique du système.
En ce qui concerne la fiabilité, le MTBF (mean time between failures) mesure la fréquence des
défaillances. Il indique le temps moyen qui sépare deux pannes.
Le MTTR (mean time to repair) donne, lui, la durée moyenne dʼune réparation. Il est moins
important si le système offre un mécanisme de tolérance de pannes.
La tolérance de pannes (fault tolerance ou graceful degradation) est la capacité dʼun système à
continuer de fonctionner si un de ses éléments tombe en panne. Si les performances baissent à la
suite de la panne, on dit que le système fonctionne en mode dégradé (degraded mode).
La tolérance aux sinistres (disaster tolerance) est la capacité à continuer de fonctionner même
sʼil se produit un désastre, par exemple une coupure générale de courant ou une inondation. Elle
nécessite un mécanisme de réplication de données entre deux sites informatiques distants.
À la suite dʼune défaillance, la récupération peut prendre deux chemins. Soit elle reprend la tâche
en cours au moment de la panne et elle la termine, auquel cas on parle de repositionnement avec
restauration actualisée (roll-forward), soit elle ramène le système au dernier état stable connu et
elle repart de là, auquel cas on a affaire au repositionnement avec restauration non actualisée
(roll-back).
Pour permettre un roll-back ordonné, on jalonne le code des programmes de points de reprise
(checkpoints). Un point de reprise est un endroit dans un programme où aucun traitement nʼest en
cours. On peut donc repartir de là sans problèmes.
Les centres de calcul
Sauf dans les petites entreprises, les serveurs et les équipements centraux de réseaux se trouvent
dans une salle spéciale appelée centre de calcul (data center). Cʼest un lieu très protégé. On nʼy
entre pas sans autorisation, et, quand des personnes étrangères au service y rentrent, cʼest
souvent sous lʼescorte dʼun garde du service de sécurité. Cʼest le cas, par exemple, quand un
technicien vient intervenir sur un serveur.
Par sécurité, on doit passer par un poste de travail spécial pour effectuer les tâches dʼadministration critiques comme lʼarrêt dʼun serveur. Ce poste sʼappelle la console ou la console de
système (system console). On dit aussi serial console ou, dans le monde UNIX, root console, en
allusion avec le fait que lʼadministrateur sʼappelle root.
Les consoles ne sont pas reliées aux serveurs par les câbles de réseau normaux. La liaison passe
par des câbles particuliers. On évite ainsi tout risque quʼune personne extérieure parvienne à
accéder au système. On utilise aussi ce système pour administrer les équipements de réseaux.
Les grands systèmes informatiques
8
http://www.jaquet.org, septembre 2009
On utilise généralement plusieurs consoles. Dans la plupart des cas, ce sont de simples PC sous
Windows ou Linux réunis dans la salle de contrôle :
Les centres de calcul sont protégés contre lʼincendie. On emploie souvent le gaz, avec des
bonbonnes qui injectent dans la salle ou le rack où le feu a été détecté un gaz inerte qui a des
propriétés anti-feu. Le gaz remplace partiellement lʼoxygène, ce qui étouffe le feu. On utilise par
exemple lʼInergen ou lʼheptafluoropropane (voir lʼimage ci-dessous à gauche). Si ce premier
moyen échoue, les extincteurs à eau entrent automatiquement en fonction.
Les installations sont dotées de leur propre alimentation électrique. En cas de panne de courant,
des batteries prennent le relais pendant quelques dizaines de secondes, le temps quʼune
génératrice diesel se mette en marche et commence à générer un courant stable.
Les batteries et les génératrices diesel dʼun centre de calcul (photos Pierre Jaquet, http://
www.jaquet.org) :
Chacune des quatre génératrices de la photo de droite développe 1ʻ000 kVA avec une tension de
3 x 400 volts.
Un système de climatisation règle la température et le degré dʼhumidité pour éviter les problèmes
de fonctionnement liés à la chaleur ou à un air trop sec (électricité statique) ou trop humide
(condensation).
En règle générale, les équipements sont placés sur un faux plancher sous lequel un espace de 60
à 100 centimètres permet une bonne circulation de lʼair conditionné. Le câblage est parfois placé
sous le faux plancher, mais, pour des raisons pratiques, on préfère généralement le faire passer
dans des rails suspendus au plafond.
Les grands systèmes informatiques
9
http://www.jaquet.org, septembre 2009
Vue dʼun centre de calcul (photo jaxmac, http://www.flickr.com/photos/jaxmac/1492034758/in/
set-72157601605890223) :
Des mainframes IBM Regatta à gauche et une vue de lʼintérieur dʼun z9 à droite (photos pchow98,
http://www.flickr.com/photos/pchow98/sets/72157608546862745) :
Les grands systèmes informatiques
10
http://www.jaquet.org, septembre 2009
Les équipements de télécommunication dʼun petit centre de calcul (photo Gregory Maxwell, http://
commons.wikimedia.org/wiki/File:Datacenter-telecom.jpg) :
Les sous-sols dʼun centre de télécommunications (photo Pierre Jaquet, http://www.jaquet.org) :
Les grands systèmes informatiques
11
http://www.jaquet.org, septembre 2009
Les composants dʼun rack de serveurs et dʼunités de disques Hewlett-Packard (photo Cliff
Dwelling, http://www.flickr.com/photos/standorsett/2402296514) :
Un centre de calcul avec des machines IBM (photo ibmphoto24, http://www.flickr.com/photos/
21317126@N04/2072093556) :
Les grands systèmes informatiques
12
http://www.jaquet.org, septembre 2009
Un espace doit être ménagé devant et derrière les racks pour la maintenance. Cet espace est
typiquement de 30 pouces, soit 80 centimètres.
Références
EBBERS, M., KETTNER, J., OʼBRIEN, W., OGDEN, B. Introduction to the New Mainframe: z/OS Basics,
Vervanté, Huntington Beach, 2009 (version Pdf gratuite : http://www.redbooks.ibm.com/
Redbooks.nsf/RedbookAbstracts/sg246366.html?Open).
STEPHENS, David, What On Earth is a Mainframe ?, Lulu.com, Raleigh, 2008.
Il existe aussi des vidéos qui donnent une idée de ce quʼest un centre de calcul. Un exemple avec
les mainframes :
« IBM launches ʻSystem z10ʼ Mainframe », http://www.youtube.com/watch?v=B97p8AyeHn8.
Un exemple tout à lʼopposé avec un centre de calcul qui contient des dizaines de milliers de
simples PC :
« Google container data center tour », http://www.youtube.com/watch?v=zRwPSFpLX8I.
Les grands systèmes informatiques
13
http://www.jaquet.org, septembre 2009

Documents pareils

Chap1-extrait - Histoire de l`informatique

Chap1-extrait - Histoire de l`informatique 650 mais surtout plus fiable et moins coûteux. Ce nouveau "mainframe" fut annoncé en octobre 1959 et les installations commencèrent dès le début de 1960. Les prévisions de livraison dʼIBM pour ce m...

Plus en détail