Virtualisation GPU pour la mise à disposition d`applications 3D à l

Transcription

Virtualisation GPU pour la mise à disposition d`applications 3D à l
Virtualisation GPU pour la mise à
disposition d'applications 3D à
l’AIP-Primeca Dauphiné-Savoie
Thierry HENOCQUE
AIP Primeca DS/Grenoble INP
46 Avenue Felix Viallet
38000 Grenoble
Résumé
La première solution de virtualisation GPU, commercialisée en Juin 2013, a ouvert la voie à la
virtualisation des applications 3D !
L’AIP-Primeca Dauphiné-Savoie, qui est une structure inter-établissements de mutualisation de
ressources dédiées à la mécanique et à la productique et qui distribue des licences auprès des
établissements partenaires pour une trentaine de logiciels, a tout de suite investi dans une architecture de
virtualisation compatible avec les nombreuses applications 3D utilisées dans ces domaines. Après une
année de tests et d’acquisition de compétences sur différentes architectures, une solution a été mise à
disposition des enseignants dès la rentrée 2014.
Motivée par des problématiques techniques de gestion de parc liées à la quantité et à la complexité des
nombreux logiciels distribués, cette architecture novatrice, basée sur une solution Citrix, a
immédiatement répondu à nos attentes sur la gestion et le déploiement des différentes versions de
logiciels.
L’accès distant, indépendant du système d’exploitation et du type de poste client et ne nécessitant pas
d'installation, permet aux enseignants de préparer leurs cours sur la même configuration que celle
utilisée lors des formations. Cet accès permet également aux étudiants d’utiliser leur ordinateur
personnel pour accéder aussi bien aux logiciels qu’à leurs documents de travail.
Ce retour d’expérience apporte des informations techniques sur l'architecture choisie, son
dimensionnement, sa mise en œuvre et les tests de performance qui ont été réalisés pour en assurer son
bon fonctionnement.
Mots-clefs
Virtualisation d'application, accélération graphique, performances, expérience utilisateur, VDI, vGPU
1 Introduction
L’AIP-Primeca est un Groupement d’Intérêt Scientifique créé en 1993 par la fusion des Ateliers InterEtablissements de Productique et des Pôles de Ressources Informatiques pour la MECAnique. Ce réseau
est organisé en pôles régionaux dont la mission est de mutualiser et de mettre à disposition des
compétences et des ressources dans les domaines de la conception intégrée en mécanique et de la
productique au service de l’enseignement, de la recherche et de l’industrie.
Initialement, les plateformes Primeca ont été créées pour mutualiser des stations de travail puissantes type
SGI Octane pour mettre à disposition des établissements des logiciels très onéreux et gourmands en
ressources vidéo tels que CATIA.
JRES 2015 - Montpellier
1/10
L’AIP-Primeca Dauphiné-Savoie est reconnu pour ces ressources relatives au prototypage rapide, à la
fabrication additive (impression 3D) et au prototypage virtuel. Il a la particularité de distribuer un grand
nombre de logiciels métiers sous la forme de jetons de licences et de stations de travail puissantes.
1.1
Evolution du contexte
Avec l’évolution de la puissance des machines dans les composantes, la nécessité de mettre à disposition
des ordinateurs a diminué au profit d’une activité à distance de distribution de jetons de licences de
logiciels, ajoutant une lourde tâche de support à l’installation et de distribution des mises à jours, tant
auprès des enseignants que des informaticiens des établissements partenaires. Les salles informatiques de
l’AIP sont maintenant principalement utilisées pour tous les logiciels pour lesquels le nombre de licences
disponibles est faible et pour les activités de projets qui nécessitent d’être très proche des ressources
matérielles de prototypage.
Le nombre grandissant de logiciels installés pose des difficultés de gestion et de stabilité des postes.
Chaque logiciel arrive avec ses propres services destinés à en optimiser le démarrage, le fonctionnement
et les mises à jour ; il nécessite également ses propres versions de C++, GCC, Python, etc. Lorsque le
nombre de logiciels augmente, les performances de l’ordinateur sont affectées. De plus lors de l’usage
d’un logiciel, une part importante des ressources est consommée par l’ensemble des autres logiciels
installés sur la machine.
Les logiciels étant parfois interdépendants, l’ordre d’installation et de mise à jour est crucial. La mise à
jour d’un seul des logiciels peut nécessiter une réinstallation complète de l’ordinateur, sans garantie de
compatibilité des versions des logiciels entre eux ou pouvant avoir un impact sur le fonctionnement d’un
autre logiciel.
Pour résoudre ces problèmes de compatibilité, la solution consiste à faire tourner les logiciels sur des
systèmes d’exploitation dédiés. La solution qui consiste à virtualiser les bureaux ou les applications
semblait être la seule solution viable, malheureusement elle n’était pas disponible pour les applications
3D du fait de l’absence de carte graphiques sur les serveurs.
La première offre de virtualisation 3D est arrivée en juin 2013. Elle est basée sur un accord entre Citrix et
nVIDIA en apportant la possibilité d’adresser des segments de cartes vidéo Grid-GPU dans des machines
virtuelles installées dans une architecture XenServer et accessible via XenDesktop ou XenApp. Les
solutions basées sur VMware ou Hyper-V ont été disponibles un peu plus d’un an après que nous ayons
lancé le projet.
1.2
Objectifs
Les principaux objectifs du déploiement d’une solution de virtualisation étaient d’économiser du temps
homme sur les installations des logiciels, de fournir une installation fiable et d’augmenter la durée de vie
des ordinateurs par la diminution des besoins en performance.
2 Virtualisation de bureaux et d’applications
Il existe quelques confusions autour du vocable virtualisation qui a tendance à englober beaucoup de
choses. Nous distinguons deux concepts très différents et totalement indépendants qui sont la
virtualisation de système d’exploitation et la mise à disposition de ressources qui peuvent être des
bureaux ou des applications. La distinction est importante car les outils de mise à disposition de
ressources n’impliquent pas forcément qu’elles soient virtualisées. La virtualisation des machines est
parfois indispensable dans les systèmes qui déploient à la volée des machines identiques pour tous les
utilisateurs, mais c’est souvent pour des questions d’optimisation de ressources que l’on a recours à la
virtualisation.
JRES 2015 - Montpellier
2/10
On trouve aussi le terme d’applications virtualisées dans des systèmes qui mettent à disposition des
applications portables.
2.1
Principes de la mise à disposition de bureaux et d’applications
Les principes de mise à disposition de bureaux et d’applications sont utilisés depuis très longtemps. On en
faisait déjà à l’époque des architectures mainframe avec les « terminaux X » ou avec les machines
disposant d’un client X via les commandes « ssh –X » et « ssh –X application ».
La mise à disposition de bureaux consiste à fournir, via le réseau, dans une fenêtre un environnement
graphique complet de la session sur la machine distante alors que la mise à disposition d’applications se
contente de fournir les fenêtres de l’environnement graphique spécifique à l’application qui tourne à
distance dans une session minimale.
Dans un environnement Windows, la mise à disposition de bureaux correspond au service « Bureau à
distance ». Il est disponible en mode mono-utilisateur sur les systèmes d’exploitation clients et en mode
multi-utilisateurs sur les systèmes d’exploitation serveurs. La mise à disposition d’applications, qui n’est
disponible que sur les systèmes d’exploitation serveurs, correspond à la fonctionnalité « RemoteApp » du
même service.
2.2
Virtualisation et optimisation des ressources
L’intérêt majeur de la virtualisation est d’apporter une économie importante en mutualisant entre des
machines virtuelles les composants d’une machine physique (boitier, carte mère, alimentations électrique)
cependant certaines ressources ne sont que partiellement ou pas du tout mutualisables. C’est le cas, entre
autre, du lecteur DVD qui ne peut être affecté qu’à une seule machine virtuelle à la fois.
Les ressources CPU sont très bien mutualisées par le biais des mécanismes natifs de file d’attente d’accès
au processeur, ce qui fait qu’il est courant d’avoir beaucoup plus de processeurs déclarés sur l’ensemble
des machines virtuelles qu’il n’y a de processeurs physiques.
L’espace disque est bien mutualisé, notamment avec la possibilité d’augmenter à chaud les capacités et la
possibilité de partager entre plusieurs machines virtuelle une image partielle. Ces images (snapshot)
offrent aussi une grande souplesse dans la gestion des configurations et des capacités de restauration
d’une configuration antérieure particulièrement rapide.
La mémoire vive peut être partiellement mutualisée avec des mécanismes qui permettent de déclarer un
minimum et un maximum de ressource pour une machine virtuelle. L’usage de ce mécanisme n’est pas
préconisé car le risque en cas de débordement est très important et catastrophique pour la machine
virtuelle qui est supposée disposer d’une ressource qui est en réalité indisponible.
2.2.1
Impact du Système d’exploitation dans la virtualisation de bureaux
La virtualisation de bureaux est disponible sur les systèmes d’exploitation clients et sur les systèmes
d’exploitation serveurs. Dans le cas d’un système type client, il n’y a qu’un seul utilisateur par machine
virtuelle. Il a donc accès individuellement à toutes les ressources de la machine. Dans le cas d’un système
d’exploitation serveur, l’ensemble des ressources, y compris la mémoire vive et la carte graphique du
système, sont partagées entre tous les utilisateurs connectés. L’ensemble des ressources dédiées au
système d’exploitation, telles que l’antivirus ou la communication avec la carte GPU ne sont consommées
qu’une seule fois.
L’utilisation d’un OS serveur est donc un bon moyen d’optimiser et de mutualiser les ressources non
prises en charge par la virtualisation. En contrepartie, le risque qu’un utilisateur consomme toutes les
ressources CPU ou RAM du serveur existe, ce qui a pour effet de perturber le fonctionnement de tous les
autres utilisateurs.
JRES 2015 - Montpellier
3/10
2.2.2
Spécificités liées à la virtualisation des bureaux et des applications
Avec la virtualisation de serveurs, nous avons l’habitude de fonctionner avec des serveurs en cluster, le
plus souvent par grappes de trois serveurs physiques, largement dimensionnés en CPU et en RAM et
raccordés sur une baie réseau de disques pour stocker les machines virtuelles ; le mécanisme de haute
disponibilité se charge alors de migrer les machines virtuelles d’un serveur à un autre en cas de panne.
La virtualisation de bureaux nécessite une architecture différente liée à ces besoins spécifiques en accès
disque et en carte graphique.
2.2.3
Besoins en accès disques
La virtualisation des bureaux nécessite des accès disques rapides et importants lors du démarrage et de
l’exécution des applications. On observe très bien l’importance de ce paramètre depuis l’arrivée des
disques durs SSD. Cette contrainte fait que l’on va devoir travailler sur des disques locaux rapides.
2.2.4
Particularité de la virtualisation GPU
Le mécanisme de virtualisation GPU est en réalité un mécanisme de partage de ressources physiques par
des machines virtuelles. Il s’agit d’un découpage quasi physique d’une ressource (la carte vidéo) en
plusieurs cartes plus petites (qualifiées de vGPU) qui sont rajoutées aux machines virtuelles. C’est
pratiquement comme lorsqu’on affecte une clé USB à un serveur virtuel. La portion de carte vidéo une
fois attribuée n’est plus disponible et aucun remaniement « à chaud » n’est possible. Il est donc exclus de
pouvoir utiliser les mécanismes de haute disponibilité classiques sur une machine virtuelle utilisant une
vGPU.
Actuellement, seulement deux modèles de cartes GPU sont disponibles pour ce type d’architecture. Ce
sont les cartes nVIDIA GPU Grid K1, constituées de 4 cartes Kepler-GK107 avec 768 cœurs CUDA et
16G DDR3 et les cartes nVIDIA GPU Grid K2, constituées de 2 cartes Kepler-GK-104 avec 3072 cœurs
CUDA et 8G GDDR5 de RAM.
Les serveurs rack qui acceptent ce type de carte (PCIe 3.0) peuvent généralement recevoir 2 cartes GPU.
Chaque carte GPU interne peut être divisée en vGPU sans la possibilité de mixer pour un GPU donné des
vGPU de types différents. La figure n° 1 indique les types de découpages vGPU disponibles pour un GPU
GK-104
Figure 1 - Découpages en vGPU disponibles pour un GPU-GK104 (carte Grid-K2)
Il est néanmoins possible de mixer les types de vGPU à l’intérieur d’une carte, par exemple une carte
Grid K2 qui contient 2 cartes GPU-GK104 peut être divisée en 4 vGPU K240 et 2 vGPU K260.
JRES 2015 - Montpellier
4/10
3 Mise en œuvre
3.1
L’architecture de départ
Compte tenu du manque d’expérience sur le déploiement d’architecture de virtualisation d’applications,
l’architecture de départ a été calibrée pour de la virtualisation de bureaux orientés conception avec 2
serveurs d’une capacité de 8 utilisateurs simultanés avec chacun 2 CPU 16 cœurs, 64 Go de RAM et 2
cartes GPU Grid K2. L’investissement de 30K€ a été réalisé en lieu et place du renouvellement de 20
postes type CAO/FAO à 1,5K€.
C’est sur cette architecture que les premiers tests de configuration ont été menés avec une première
version sans virtualisation avec le service RemoteApp sous Windows2008R2. Ce serveur a été utilisé lors
de formations et cette configuration s’est avérée très intéressante, en particulier pour les temps de calcul
sur les logiciels de simulation. Elle a cependant montré quelques défauts, notamment des temps de
réponses un peu lents sur certaines actions telles que les zooms avec la molette de la souris.
L’autre serveur a servi pendant cette première phase de tests de configuration de la solution Citrix
XenServer + XenDesktop/XenApp (seule solution disponible à l’époque pour la virtualisation GPU) pour
la virtualisation de bureaux et d’applications.
3.2
Virtualisation de bureaux vs virtualisation d’applications
Le choix entre ces deux méthodes dépend fortement du contexte. La virtualisation de bureaux offre
l’énorme avantage de cloisonner les ressources et est tout à fait appropriée pour l’enseignement sur des
logiciels peu consommateurs de ressources et en particulier ne nécessitant pas de ressources vidéo. Elle
est aussi adaptée à la fourniture, pour des questions de mobilité, de machines virtuelles individualisées.
Elle résout le problème du nombre de logiciels installés lorsque les enseignements n’utilisent qu’un seul
logiciel spécifique à un moment donné. Elle l’est moins lors d’enseignement utilisant plusieurs logiciels
simultanément car il faudrait éventuellement prévoir une installation par enseignement et non une
installation par logiciel.
La virtualisation d’applications, non préconisée à cause des problèmes de monopolisation de ressources,
nous a semblé néanmoins indispensable pour optimiser les ressources RAM et GPU et pour résoudre les
problèmes liés au nombre de logiciels installés.
3.3
Architecture Citrix XenApp et XenDesktop
L’architecture Citrix peut se décomposer en trois parties.
3.3.1
La virtualisation
L’interface de virtualisation consiste en un système d’exploitation XenServer installé sur les serveurs
physiques et une console d’administration de l’architecture XenCenter. L’interface assez classique permet
de créer et d’administrer l’architecture et les machines virtuelles. Il est indispensable d’avoir un espace de
stockage partagé pour pouvoir créer un cluster.
3.3.2
Le frontal utilisateur
La brique de base est le StoreFront qui distribue les ressources aux utilisateurs authentifiés soit par
l’intermédiaire d’un portail WEB soit directement à partir d’un client lourd (Receiver)
JRES 2015 - Montpellier
5/10
https
ICA/HDX
Netscaler Gateway
https
Internet
Authentification
https
Autorisations
Ressources
Citrix StoreFront
ICA/HDX
Reciever
Clients
Figure 2 - Frontal utilisateur
Le frontal est chargé de récolter les paramètres d’authentification fournis par le client, de lui fournir des
liens vers les ressources auxquelles il est autorisé et de lui fournir les liens vers les sessions (protocole
ICA/HDX) auxquelles il demande l’accès. Ensuite, la communication entre le client Citrix Receiver et
l’agent Citrix Receiver installé sur la ressource est direct.
Pour accéder via internet, sans avoir à ouvrir l’accès aux protocoles d’accès aux ressources, il est possible
d’utiliser un portail supplémentaire (Netscaler Gateway) qui fait office de proxy. Nous n’utilisons pas
cette fonction car nous n’autorisons l’accès qu’aux utilisateurs locaux ou connectés via le VPN de
l’établissement.
3.3.3
Le contrôleur de ressources
Le contrôleur de ressource est l’endroit où l’on va gérer l’ensemble de la configuration de l’architecture
de mise à disposition. Il est totalement lié au système d’authentification Microsoft ActiveDirectory pour
la gestion des utilisateurs, leur authentification, leurs autorisations, mais aussi pour la gestion des
ressources qui doivent être intégrées au domaine. L’administration, constituée d’une MMC (CitrixStudio) pour la configuration et d’une interface WEB (Citrix-Director) pour la gestion de l’activité, peut
être déportée sur un poste d’administrateur.
Licences RDS
Licences KMS
Base MSSQL
Ressources
Frontal
Utilisateur
Serveur
Ordinateurs
Domaine
ActiveDirectory
Authentification
Autorisations
Delivery Controler
Citrix Director
Citrix Studio
Admin
Citrix-Studio
Licences
Citrix
Figure 3 - Le contrôleur de ressources
Une base de données MSSQL est utilisée pour stocker l’ensemble des configurations ainsi que les profils
des utilisateurs.
Les ressources (Windows uniquement) ne sont pas obligatoirement des machines virtuelles Citrix. Elles
peuvent être des machines physiques ou des machines virtualisées sur une architecture VMware ou
Hyper-V. Seules les machines virtuelles peuvent être déployées par clonage, mais là encore, l’architecture
n’est pas limitée par la solution de virtualisation.
JRES 2015 - Montpellier
6/10
3.4
Philosophie et bonnes pratiques de déploiement
Dans l’ordre, on commence par le cluster de virtualisation qui doit être intégré à ActiveDirectory pour
que le contrôleur puisse gérer les machines virtuelles. Ensuite on installe le contrôleur et on termine par
l’installation du frontal.
Des certificats valides sont nécessaires pour pouvoir travailler en HTTPS et certaines fonctionnalités
(comme l’accès direct par le client lourd) ne sont pas disponibles en HTTP.
L’installation des masters est faite en utilisant l’espace de stockage partagé. On y installe dans l’ordre le
système, les outils de communication avec le système de virtualisation, l’antivirus et la carte vidéo.
Attention, la résolution en mode console passe en 2560x1600 lorsque l’on installe les drivers vidéo, il est
donc préférable d’activer le bureau à distance avant de l’installer pour pouvoir accéder à la machine en
bureau à distance.
On installe ensuite les logiciels et l’agent Citrix et on fait un Snapshot de la machine.
Lors du déploiement à partir de la console, on crée un catalogue de machine dans lequel on définit le
nombre de machine à créer à partir du snapshot et d’un profil qui spécifie le vlan et la localisation des
disques. On peut à ce moment changer le nombre de processeurs et la quantité de RAM à affecter à
chaque machine, ainsi que l’OU dans laquelle on doit stocker les comptes d’ordinateur.
Les machines ainsi créées subissent, comme avec sysprep, des modifications destinées à leur déploiement
et à leur gestion par l’infrastructure. Attention, la configuration réseau est forcée en DHCP donc si l’on
désire affecter des adresses fixes, il ne faut pas que le master soit en DHCP, sinon on retrouve des traces
du bail dans la configuration et les machines peuvent prendre l’adresse IP qui lui avait été réservée.
On définit ensuite un groupe de mise à disposition qui va servir à déterminer pour une liste de machines
quelles applications sont disponibles. Le groupe ainsi créé n’intègre pas obligatoirement toutes machines
du catalogue et peut inclure plusieurs catalogues. Par contre, une machine n’appartient qu’à un seul
groupe de mise à disposition.
L’interface de gestion des applications distribuées est identique à la console RemoteApp de Windows
Server.
On peut rajouter des applications manuellement à partir du chemin de l’exécutable et préciser des
paramètres personnalisés.
On définit dans ce groupe de mise à disposition des droits d’accès à partir d’ActiveDirectory en autorisant
des groupes d’utilisateurs à y accéder. Il est possible d’affiner ensuite ces droits application par
application.
Lorsqu’un utilisateur se connecte sur le frontal, il y trouve toutes les applications qu’il est autorisé à
exécuter.
3.5
Gestion des licences
Trois serveurs de licences sont indispensables au fonctionnement de l’architecture (cf. figure 2).
Le serveur de licences Citrix distribue des jetons de licences XenApp ou XenDesktop. La solution Citrix
s’appuie entièrement sur les services Microsoft TSE et RemoteApp. De ce fait, il est nécessaire d’avoir un
serveur de licences RDS pour pouvoir les utiliser.
Etant donné que les machines sont générées à la volée (par clonage) il est nécessaire d’utiliser des
licences KMS, qui, pour les systèmes d’exploitation serveur peuvent être de type DataCenter.
JRES 2015 - Montpellier
7/10
3.6
Partage de charge et tolérance aux pannes
Du fait que nous utilisons des disques locaux et des vGPU, les mécanismes de haute disponibilité basés
sur la migration des VM d’un serveur physique à un autre ne sont pas disponibles. Le partage de charge
se fait par répartition des sessions sur les machines d’un même catalogue.
Les machines virtuelles qui fournissent le service sont des clones avec des disques locaux de « masters »
qui sont stockés et sauvegardés sur une baie externe. En cas de perte totale d’un serveur, on ne perd que
les clones et en cas de perte de la baie, le service continu de fonctionner sur les disques locaux le temps
de restaurer les masters.
4 Tests de performance
Il n’y a pas eu de protocole de tests mis en place, ni de rapports détaillés des résultats. Le principe utilisé
a été de mettre une machine surdimensionnée à disposition de diverses formations avec des enseignants
volontaires pour en étudier le comportement. La surveillance a été menée en direct pour avoir le ressenti
des utilisateurs parallèlement à l’usage des outils de métrologie disponibles sur la console Citrix Studio et
sur le système d’exploitation.
Des problèmes de saturation de la mémoire vidéo ont été observés avec 24 utilisateurs simultanés,
problèmes se traduisant par des bugs d’affichage (des déplacements de fenêtres intempestifs) et par des
temps de latence (images saccadées) importants.
Des problèmes de saturation mémoire et de saturation CPU ont également été observés avec parfois très
peu d’utilisateurs.
Certains logiciels sont capables de réserver la totalité de la mémoire disponible pour accélérer les calculs
d’optimisation. En cas de saturation de la mémoire, l’impact immédiat est un ralentissement pour
l’ensemble des sessions ouvertes et l’interdiction d’en ouvrir de nouvelles.
En cas de saturation CPU par des calculs qui ne rendent pas la ressource, on peut observer un blocage
complet de l’ensemble des sessions ouvertes.
Deux solutions pour résoudre ces problèmes sont possibles.
La première, à mettre en place impérativement, consiste à positionner des stratégies RAM et CPU via le
« Gestionnaire de ressources système Windows ».
La seconde consiste à déporter les calculs sur un serveur de batch dédié. La quasi-totalité des logiciels de
simulation intègrent ce type de configuration. Dans ce cas, l’architecture de virtualisation est là
uniquement pour fournir l’environnement graphique 3D.
5 Dimensionnement de l’architecture
Les résultats des tests ont montré qu’un système Windows2008R2 avec deux ou trois logiciels installés
consomme à vide moins de 1Go de RAM et jusqu’à 4 à 5 Go avec beaucoup de logiciels installés. Pour la
plupart des logiciels de conception en usage pédagogique de base, la consommation n’excède pas 1Go de
RAM par utilisateur.
Il faut réserver 1 CPU pour la communication avec la carte vidéo. La CPU moyenne par utilisateur
dépasse rarement 30%.
Côté GPU, on peut monter sans risque jusqu’à 16 utilisateurs simultanés sur une carte type K280Q
puisque les problèmes sont apparus aux alentours de 24.
Le tableau suivant fait le bilan théorique des ressources nécessaires en fonction des configurations de
cartes vidéo.
JRES 2015 - Montpellier
8/10
GPU
K280
K260
K240
Machines
max
Users Max
/ machine
RAM min /
machine
CPU min /
machine
User
max
RAM
totale
cpu
totale
4
8
16
16
8
4
18
10
6
7
4
3
64
64
64
72
80
96
28
32
48
Ce bilan est un bilan par serveur physique et ne tient pas compte d’une éventuelle réserve destinée à la
tolérance aux pannes. Il est donc important de considérer ce bilan comme étant le bilan en mode dégradé.
On remarque que notre configuration initiale, avec 32 cœurs et 64G de RAM est insuffisante vis-à-vis de
la mémoire vive et qu’il aurait été plus judicieux de partir sur une configuration avec 96 ou 128 Go.
Vu qu’il faut choisir et faire un compromis entre nombre de machines virtuelles (lié au nombre de
logiciels) et performances ou nombre d’utilisateurs, nous utilisons soit des configurations avec des cartes
K260 qui nous permettent d’avoir jusqu’à 8 utilisateurs simultanés, soit des configurations avec des cartes
K240 qui nous permettent d’avoir 4 utilisateurs simultanés.
Dans tous les cas, on crée le nombre de clones nécessaires pour fournir le service demandé au nombre
d’utilisateurs simultanés prévu en privilégiant pour les formations (avec beaucoup d’utilisateurs) des
configurations basées sur des cartes K260.
Notre configuration actuelle est composée de trois serveurs avec chacun 128 Go de RAM, ce qui nous
permet de configurer plus de mémoire vive par utilisateur et de pouvoir fonctionner en mode dégradé
avec potentiellement près de 128 utilisateurs simultanés.
6 Mobilité et enseignement
L’architecture déployée a ouvert des usages nouveaux.
Elle offre la possibilité aux enseignants de préparer leurs cours depuis chez eux, à partir de leur ordinateur
personnel, sur la même installation que celle qui sera utilisée par les étudiants lors de la formation. Il n’y
a donc pas de surprise liée à des paramétrages de menus ou à l’absence de modules ou de fonctionnalités
que l’on peut avoir lorsqu’on passe d’une installation à une autre. Les enseignants disposant d’ordinateur
sous Linux ou sous MacOs ne sont plus limités aux logiciels compatibles avec leur système
d’exploitation. Très rapidement, ceux-ci ont préféré utiliser leur propre ordinateur dans le cadre de cours
dans les salles informatique pourtant équipées d’un poste dédié à l’enseignant.
L’architecture a servi plusieurs fois pour dépanner lors de formations qui avaient été programmées dans
des salles dans lesquelles le logiciel prévu n’était pas correctement installé.
La période la plus intéressante reste le second semestre qui est essentiellement dédiée aux projets des
étudiants. Période pendant laquelle les étudiants conçoivent et réalisent en groupes des prototypes.
Période pendant laquelle ils utilisent fréquemment leurs ordinateurs personnels, ce qui leur permet de
continuer de travailler chez eux sur les documents d’études ainsi que sur leurs rapports.
Ils ont donc très rapidement utilisé l’architecture de virtualisation pour réaliser leurs travaux de
conception.
Grâce à cette architecture, ils ne sont plus limités aux salles informatiques spécialisées, et peuvent
travailler en Wi-Fi autour de grandes tables, plus pratiques pour le travail en groupe. Lorsqu’ils ont des
questions à poser à un enseignant concernant leur modèle, ils se déplacent avec leur portable jusqu’à
l’enseignant pour le lui montrer sans que celui-ci n’ait besoin de se déplacer jusqu’à l’ordinateur fixe sur
lequel l’étudiant aurait travaillé sans virtualisation.
JRES 2015 - Montpellier
9/10
7 Conclusion et perspectives
L’architecture a répondu tout de suite aux attentes en terme de stabilité et de simplification des
installations. Elle apporte une très grande réactivité sur les mises à jour des logiciels et permet lorsque
nécessaire de mettre à disposition plusieurs versions du même logiciel. En dehors du temps passé pour la
mise en place et l’acquisition des connaissances nécessaires au fonctionnement de l’architecture, le temps
économisé, notamment sur la période estivale qui était consacrée aux mises à jour, est très important.
Les salles informatiques qui n’ont pas été remplacées à cause de l’investissement associé à cette
architecture fonctionnent avec une installation minimale du système d’exploitation et d’un antivirus.
L’adhésion des enseignants est totale et l’architecture donne satisfaction lors des enseignements.
Ce type de solution est totalement en accord avec la tendance actuelle à l’usage de portables de plus en
plus légers qui est probablement liée à ce retour vers des architectures centralisées.
L’architecture déployée a été utilisée par l’AIP-Primeca de Nantes pour valider la faisabilité de la
virtualisation du client CATIA-V6. Elle peut servir pour d’autres établissements à en valider et en vérifier
les performances.
Son administration nécessite encore beaucoup d’interventions pour adapter les ressources des machines
aux besoins en fonction des réservations de ressources ; nous travaillons actuellement sur l’automatisation
de ces tâches.
JRES 2015 - Montpellier
10/10