Un réseau Debian GNU/Linux pour un centre de formation

Transcription

Un réseau Debian GNU/Linux pour un centre de formation
Un réseau Debian GNU/Linux
pour un centre de formation
Yves Potin
10 juin 2005
Résumé
Le logiciel libre, aujourd’hui au cœur de l’actualité de l’informatique, ne peut plus être ignoré des administrateurs
de réseau, en particulier dans des établissements d’enseignement ou de formation d’où sortiront les utilisateurs de
demain, du simple utilisateur à l’ingénieur système. Il incombe en effet aux responsables informatiques de mettre à
disposition des systèmes d’exploitation libres par respect du pluralisme de l’enseignement comme pour tenir compte
des évolutions à terme du monde de l’entreprise qu’ils peuvent ainsi anticiper et encourager.
Les documentations sur les divers services et systèmes sous GNU/Linux abondent, mais il manque peut être un
résumé de l’ensemble de la mise en place d’un réseau informatique libre dans le cadre d’une structure de formation.
Ce document résume l’installation d’un réseau Debian GNU/Linux complet, des serveurs aux machines clientes,
de l’achat du matériel aux derniers ajustements de l’interface graphique et des usages du multimédia. Il ne prétend
pas détailler tous les services réseau, mais servir de mémorandum et fournir des fichiers de configuration pour la
plupart d’entre eux. La majeure partie des services d’Internet est présentée sous l’angle d’un réseau local : DNS,
courriel, Web, ftp... Certains services sont présentés sous forme de didacticiels progressifs : Amanda, pour les sauvegardes sur bande, Nut, logiciel de surveillance des onduleurs, et l’utilisation avancée du chiffrage de l’authentification
par ssh.
Un script permet la réplication de contenus sur toutes les machines clientes en une seule ligne de commande,
simplifiant grandement les tâches d’installation et d’administration.
Si cette longue étude de cas est artificielle en ce qu’elle commence par les murs d’un local vide et l’argent pour
acheter le matériel, et s’achève par un réseau entier de machines homogènes, nous espérons néanmoins qu’elle sera
utile comme aide mémoire à ceux qui désirent offrir à leurs étudiants la pratique d’une informatique libérée du
carcan propriétaire qu’ils peuvent ainsi, chacun selon sa mesure, contribuer à faire reculer.
Cette documentation est placée sous Licence Documentaire libre (GNU/FDL)1
1 http
://www.gnu.org/copyleft/fdl.html
1
Table des matières
1 L’équipement matériel
1.1 Les serveurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Les machines clientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Matériel complémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
4
4
5
2 L’installation des systèmes d’exploitation
2.1 Partitionnement des serveurs . . . . . . .
2.2 Partitionnement d’une station de travail .
2.3 Conseils généraux pour l’installation . . .
2.4 Les sources des packages Debian . . . . .
2.5 Logiciels complémentaires . . . . . . . . .
.
.
.
.
.
6
6
7
7
8
9
3 Une session de travail d’un administrateur réseau
3.1 Conseils généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Un interpréteur de commandes confortable : zsh, le Z Shell . . . . . . . . . . . . . . . . . . . . . . . .
9
9
10
4 Sécuriser une machine Debian : les bases
11
5 Configuration et sécurité du routeur
5.1 Sécurité sur le routeur : première étape .
5.2 Sécurité sur le routeur : seconde étape . .
5.3 Fonctionnalités additionnelles du script de
5.4 Simulation d’intrusions : Nessus . . . . . .
5.5 Logiciels complémentaires de sécurité . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
firewall
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Premier serveur : les services réseau non authentifiés
6.1 Le DNS : Bind . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Le DHCP . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3 Limiter les téléchargemets de logiciels : un miroir Debian ou
6.3.1 Un miroir Debian partiel sur le réseau . . . . . . . .
6.3.2 Apt-proxy, proxy de packages Debian pour apt . . .
6.4 Squid, Proxy http et ftp . . . . . . . . . . . . . . . . . . . .
6.4.1 Squid . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.2 SquidGuard . . . . . . . . . . . . . . . . . . . . . . .
6.4.3 En conclusion . . . . . . . . . . . . . . . . . . . . . .
6.5 Xntpd, serveur de temps . . . . . . . . . . . . . . . . . . . .
6.6 CUPS, serveur d’impression . . . . . . . . . . . . . . . . . .
7 Second serveur : l’authentification
7.1 Courrier : SMTP et Pop3 . . . . . . . . . . . . . . .
7.1.1 Postfix : installation et configuration simple .
7.1.2 Sécuriser Postfix . . . . . . . . . . . . . . . .
7.1.3 Un serveur de messagerie sur le réseau : envoi
7.2 NIS . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 NFS . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4 Samba . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Web et FTP . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Apache . . . . . . . . . . . . . . . . . . . . .
7.5.2 ProFTPd . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
un
. .
. .
. .
. .
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
13
13
13
14
. . . . . . . . . . .
. . . . . . . . . . .
proxy de packages
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
14
14
16
17
17
18
19
19
21
22
22
22
.
.
.
.
.
. . . . . . .
. . . . . . .
. . . . . . .
et réception
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
8 Services réseau complémentaires
8.1 Nut : gestion des onduleurs . . . . . . . . . . . . . . . . . . . .
8.1.1 Configuration de nut en mode maître . . . . . . . . . .
8.1.2 Démarrage du service et test de son bon fonctionnement
8.1.3 Configuration d’un client sur le réseau . . . . . . . . . .
8.2 Amanda : sauvegarde en réseau sur bande . . . . . . . . . . . .
8.2.1 Configuration d’une sauvegarde : le serveur . . . . . . .
8.2.2 Configuration d’une sauvegarde : les clients . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
24
25
27
27
28
29
30
30
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
30
31
32
33
34
34
37
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
38
39
40
41
42
9 L’installation de la première station de travail
9.1 Rappels sur l’installation d’une machine cliente . . . . . . . . .
9.1.1 Debian Sid . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2 Paramétrage d’un environnement français . . . . . . . .
9.2 Un kernel linux pour machines multimédia . . . . . . . . . . . .
9.3 Intégration de la machine au réseau . . . . . . . . . . . . . . .
9.3.1 Clients NIS et NFS . . . . . . . . . . . . . . . . . . . . .
9.3.2 Clients LDAP . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Installation d’un environnement graphique et de logiciels divers
9.5 Les droits sur les périphériques : carte son, webcam, etc... . . .
9.6 Le problème des logiciels et composants propriétaires . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
43
43
43
43
44
44
44
44
45
47
47
10 Installation automatisée de toutes les autres machines
10.1 Le principe de la réplication de fichiers . . . . . . . . . . . . . .
10.2 Ssh en mode agent . . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Dupliquer la première machine : adapter le script de réplication
10.4 Extraire la liste des logiciels installés et la reproduire . . . . . .
. . . . . .
. . . . . .
- premiers
. . . . . .
. . .
. . .
tests
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
48
48
48
50
52
11 Jouer avec le réseau
11.1 Déporter l’affichage . . .
11.2 Déporter le son . . . . .
11.3 Wims . . . . . . . . . .
11.4 La diffusion vidéo : vlc .
11.5 Partager un scanner . .
11.6 Un cluster de calcul . .
11.7 Quelques jeux en réseau
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
52
52
53
53
53
53
54
55
8.3
8.4
8.5
8.2.3 La première sauvegarde et restauration . . . . . .
8.2.4 Paramétrage de la sauvegarde hebdomadaire . . .
Partimage : sauvegarde des machines . . . . . . . . . . . .
Webmin, administration simplifiée et création de comptes
Les statistiques d’usage du réseau et des serveurs . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12 Remerciements
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
56
3
1
1.1
L’équipement matériel
Les serveurs
Au moins deux ordinateurs serveurs vont faire fonctionner notre centre de formation :
Un petit ordinateur servant de pare-feu / routeur pour la gestion de la connexion ADSL de notre centre. Un
Pentium 75 muni de 16 ou mieux 32 Mo de mémoire vive et au moins 600 Mo de disque dur IDE suffit amplement
pour du matériel fiable, encore en bon état de fonctionnement. On lui adjoindra deux cartes réseau, de préférence PCI
et non ISA par souci de simplicité, et un onduleur.
Les « vrais » serveurs seront convenablement dimensionnés tant en mémoire qu’en capacité de disque SCSI. Si le
budget le permet, on choisira deux serveurs en configuration en RAID 5, au moins pour le serveur qui va héberger les
données. Les serveurs récents sont souvent munis d’un Gigaoctet de mémoire vive, et de disques de large capacité.
Un serveur hébergera les données de chacun et les services demandant authentification : NIS (ou LDAP), NFS,
Samba, serveur SMTP, serveur POP, ainsi qu’un serveur Web et un serveur FTP. Dans notre cas, deux disques de
70 Go, un pour les formateurs, un pour les données des stagiaires, suffisent amplement. L’autre serveur hébergera un
certain nombre de services réseau sans authentification : DHCP, DNS, Proxy (Web et apt), impression (via CUPS et
Samba), serveur de temps, sauvegardes (Amanda et partimage).
Pour les sauvegardes, on prévoira beaucoup d’espace disque pour les images des stations. Pour les données, on
adjoindra un lecteur DAT externe qui pourra servir ainsi à d’autres usages comme l’enregistrement numérique de
productions multimédia.
Ce matériel sera placé dans un local séparé des salles de formation, fermant à clef et normalement aéré. Tous les
éléments actifs (switchs, routeurs, modems mais aussi les écrans et le commutateur écran /clavier partagé entre les
serveurs) seront ondulés au moyen d’une prise en kit fournie. Il s’agit d’une prise à l’apparence peu habituelle livrée
avec chaque onduleur du marché. Pour l’utiliser, on coupera la prise mâle d’une multiprise ordinaire dont on reliera
les fils à la prise en kit ; on peut alors brancher cette multiprise sur l’onduleur. Ceci est essentiel dès lors que :
– Tout le matériel du local serveur doit être ondulé pour ne pas lui faire subir de violentes coupures de courant et
maintenir la disponibilité de fonctionnement.
– S’il y a coupure de courant, le switch qui relie plusieurs ordinateurs partageant le même onduleur doit continuer
à être alimenté, sinon le contrôle par réseau ne fonctionnera plus, occasionnant la chute des serveurs esclaves qui
auraient pu continuer à fonctionner pendant une coupure courte.
La configuration du logiciel de surveillance d’onduleur Nut est décrite dans la section 8.1. De nombreux tests
aboutiront à un fonctionnement normal en cas de coupure courte ; on obtiendra une chute et remontée normale des
serveurs en cas de coupure longue et rétablissement du courant. Fréquemment, il faudra déclarer dans le BIOS des
ordinateurs le comportement à adopter en cas de retour du secteur, qui n’est souvent pas par défaut le redémarrage
pourtant requis. On doit pouvoir l’âme tranquille débrancher l’alimentation générale du secteur et observer tout
l’équipement continuer à fonctionner normalement avec un message d’alerte dans les logs de chaque serveur (et sur les
consoles ouvertes) avertissant que l’onduleur est sur batterie.
Dans la mesure du possible, compte tenu de l’évolution du matériel dont seront équipés demain par défaut les
ordinateurs, on choisira des switchs embarquant au minimum un port au Gigabit. Les usages d’applications multimédia
modernes, en particulier en vidéo, rendront bientôt un tel débit non plus confortable, mais nécessaire.
Règles élémentaires de sécurité : tous les ordinateurs du centre de formation, à commencer par les serveurs, seront
verouillés par mot de passe dans le BIOS et il ne sera pas possible d’amorcer les ordinateurs sur autre chose que
le disque dur une fois le système installé. Les cassettes DAT des sauvegardes seront rangées dans un autre local en
prévision d’une détérioration des serveurs (incendie, inondation...). La sécurité informatique comporte une limite : elle
est inexistante dès lors qu’il y a accès physique au matériel, mais on peut tout de même prendre quelques précautions.
1.2
Les machines clientes
L’idéal pour la maintenance est de disposer de machines strictement homogènes, mais il est clair que cette homogénéité n’est simple ni à obtenir ni à conserver dans le temps.
Quand à l’achat de matériel, une règle simple s’impose qui doit guider tout choix : se renseigner au préalable sur
la compatibilité Linux de tout composant en identifiant très précisément celui ci. Un devis très détaillé demandé
au fournisseur doit permettre de taper le nom de chaque composant et périphérique, à commencer par la carte mère,
dans un moteur de recherche pour étudier les problèmes qu’ont pu rencontrer les utilisateurs. Moins on parle d’un
certain matériel, mieux il est supporté... Le matériel de marque SiS pose les plus grands problèmes de compatibilité,
outre ses performances relativement douteuses quel que soit le système d’exploitation.
Une station de travail aujourd’hui requiert le plus de mémoire vive possible, 512 Mo ne coutant pas beaucoup
plus cher que 256 Mo. Pour des applications particulièrement gourmandes en ressources, en particulier l’usage de
synthétiseurs virtuels ou de logiciels de montage vidéo (comme Cinelerra, les auteurs recommandant une machine
4
bi processeur), on prévoira 1 Go de RAM. Il est faux de croire que les environnements graphiques modernes sous
GNU/Linux sont moins gourmands en ressource que les environnements propriétaires. Un système rapide, agréable à
utiliser, qui fasse fonctionner en même temps de nombreux logiciels et environnements de bureau récents requiert une
machine puissante.
Les cartes vidéo sont quelque peu difficiles à choisir puisque les principaux constructeurs ne livrent plus entièrement
les spécifications de leur matériel : il est donc impossible de les exploiter entièrement avec des pilotes libres. Toutefois,
le problème ne se pose qu’avec les applications 3D, principalement les jeux, encore relativement rares et peu pertinents
dans un contexte éducatif ou de formation, à l’exception notable du logiciel Celestia2 . Les cartes graphiques du
constructeur ATI, modèles Radeon jusque 9300, fonctionnent très bien, y compris en 3D, avec les pilotes libres standard
sans téléchargement de driver, compilation de modules, etc... Il n’en va pas de même des cartes de type GForce de
Nvidia. Enfin pour le pur travail en 2D, les cartes du constructeur Matrox restent une référence de qualité, en particulier
pour travailler sur plusieurs écrans.
L’environnement graphique X Window est d’autant plus confortable et agréable à l’usage que la résolution de
l’écran est grande, 1280x1024 constituant un strict minimum. On appréciera de travailler en 1600x1200 avec de nombreuses applications ouvertes à l’écran, ce qui est normal avec un système d’exploitation de type Unix pleinement
multitâches. Aussi, des écrans CRT de grandes dimensions (19 pouces ou plus) seront préférés à des écrans TFT dans
la limite du même budget. Ceci sera encore plus vrai pour les postes des formateurs dont l’affichage sera redirigé sur
vidéoprojecteur : si l’on doit montrer des manipulations en ligne de commande avec des stagiaires assis un peu loin
de l’écran, grossir considérablement la police de caractères, et donc la taille du terminal, peut rendre une résolution
1280x1024 difficilement utilisable.
1.3
Matériel complémentaire
Pour se connecter à Internet par l’ADSL, tout modem Ethernet est parfait, aucun modem USB ne convient. Le
firewall / routeur que nous préconisons permet de se passer de routeur dédié, intégré ou non au modem.
Les imprimantes seront simples à choisir : un modèle PostScript réseau ne demandera aucun pilote d’impression
particulier, fonctionnera dans tous les cas de figure avec n’importe quel système d’exploitation et donnera toute
satisfaction pendant de longues années. Une imprimante jet d’encre couleur de bonne qualité sera plus difficile à
choisir, on se demandera en premier lieu si les stagiaires ont réellement besoin de ce type d’impression, eu égard
au coût des consommables. Le site linuxprinting.org3 recense tous les problèmes de compatibilité matérielle (très
importante base de données d’imprimantes).
Les scanners peuvent poser bien plus de problèmes de compatibilité que les imprimantes, on identifiera très
exactement le matériel avant tout achat. Le logiciel standard s’appelle Sane4 , et dispose d’une interface graphique
uniforme pour tous les scanners, un avantage par rapport à la diversité de logiciels de pilotage propriétaires qui
imposent d’utiliser une interface différente par type de scanner. Le site mentionné ci dessus intègre une très importante
base de données qui expose le degré de compatibilité de la plupart des matériels connus, classés par fabricants ou par
pilote. D’une manière générale, un scanner véritablement SCSI (c’est à dire sans carte propriétaire mal identifiable)
fonctionnera partout sans problème, mais ce type de matériel devient rare. Un très grand nombre de scanners USB sont
compatibles, on sera donc très circonspect quand au matériel imposant des manipulations complexes et hasardeuses
dont on peut se dispenser aujourd’hui.
Les cartes sons s’organisent autour de « standards » industriels qui correspondent dans la réalité à des chipsets
fort différents. Néanmoins les cartes normalisés AC 97 sont aujourd’hui les plus répandues et fonctionnent en général
de manière satisfaisante, mais on ne cherchera pas autre chose avec ce type de matériel que l’écoute de CDs audio
ou fichiers OGG Vorbis ou mp3 sur des enceintes bas de gamme. Pour un véritable travail multimédia, on s’orientera
vers un matériel de bonne qualité voire professionnel, la marque RME constituant une référence. Cette fois, le projet
ALSA5 (Advanced Linux Sound Architecture) fait autorité ; le site intègre une base de données des cartes son qui tend
à l’exhaustivité. Une section entière6 de notre site est consacrée aux logiciels de musique et audio sous GNU/Linux,
qui sont pléthoriques.
Les appareils photos numériques sont, eux, encore loin de présenter tous le même degré de compatibilité, en
particulier ceux de marque Canon qui, quelles que soient les qualités de leurs optiques et boîtiers, embarquent un
matériel aux spécifications très peu ouvertes. Les appareils récents fonctionnent toutefois souvent selon le protocole
PTP qui permet une détection et une communication aisée avec un ordinateur. La base de données du matériel supporté
2 http
://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=7
://www.linuxprinting.org/
4 http ://www.sane-project.org/
5 http ://www.alsa-project.org/
6 http ://logiciels-libres-cndp.ac-versailles.fr/rubrique.php3 ?id_rubrique=16
3 http
5
se trouve sur le site du logiciel standard de pilotage de ce type de matériel : Gphoto7 . Un article8 du présent site expose
l’interface graphique la plus courante pour communiquer avec un appareil photo numérique sous GNU/linux et traiter
les images obtenues.
Le matériel d’acquisition vidéo numérique est le terrain ou GNU/Linux possède le plus de retard par rapport
aux offres propriétaires. Le site Funix.org9 donne des informations complètes à propos des configurations matérielles
et logicielles pour l’acquisition et le montage.
Enfin, le noyau Linux 2.6 sera systématiquement préféré à la version 2.4 dès qu’on se proposera de travailler le
multimédia, d’utiliser des périphériques USB ou Firewire, de toucher à la gestion avancée de l’énergie (ACPI)... Un
article10 sur le présent site expose en détail la procédure de compilation d’un noyau 2.6 avec toutes les options et
pilotes.
2
L’installation des systèmes d’exploitation
Note préliminaire Cet article concerne particulièrement un centre de formation, mais pourquoi pas d’autres structures (établissement scolaire, espace public numérique, etc...). Il présuppose des connaissances en réseau relativement
solides. Cependant, des solutions packagées libres existent qui simplifient grandement l’installation des serveurs et des
services réseau et offrent des interfaces graphiques simplifiées d’administration qui ne requièrent pas de compétences
Unix particulières, au premier rang desquelles Slis et Sambaedu. Une liste des solutions serveurs pour l’Éducation
Nationale est en ligne sur le présent site11 .
De manière générale, le choix Debian, systématique dans cette étude, ne doit pas faire oublier que la plupart des
conseils et fichiers de configuration seront identiques dans d’autres distributions puisque les logiciels sont les mêmes.
Pour les machines clientes, si nous préconisons Debian Sid, mentionnons tout de même la distribution Ubuntu12 , très
simple d’installation, particulièrement bien finie et basée sur Sid. Quelques manipulations sont cependant nécessaires
pour disposer vraiment de tous les logiciels de Debian, qui ne sont pas supportés de la même manière.
Nous ne détaillerons pas outre mesure l’installation de Debian GNU/Linux sur un ordinateur, serveur ou non, dans
la mesure où celle ci est aujourd’hui tellement simplifiée, décrite et documentée qu’elle ne pose pas de problème en
dehors de l’étape toujours délicate du partitionnement des disques.
Debian comprend aujourd’hui trois distributions principales :
– Woody, ancienne distribution stable. Elle n’est aujourd’hui plus actualisée que pour des mises à jour de sécurité
et peut maintenant être abandonnée ; toutefois, une mise à jour d’une machine Woody vers Sarge doit être bien
préparée et vérifiée à l’avance. 13 .
– Sarge est la version stable, sortie le 6 Juin 2005 après une longue attente. Elle convient pour tout usage, station
de travail comme serveur, et dispose d’un installeur très confortable.
– Sid (Still in developpement) est la version unstable. Recommandée si l’on désire les dernières versions des logiciels
au fur et à mesure de leur sortie, elle présente le risque relativement mineur de rencontrer parfois un certain
nombre de choses qui ne fonctionnent pas, ou mal, en particulier le système de dépendances qui empêche parfois
l’installation ou la mise à jour d’un plus ou moins grand nombre de choses à cause d’un seul package. Néanmoins,
l’utilisation de Sid au quotidien depuis plusieurs années est tout à fait confortable. On prendra simplement garde
de ne pas se ruer immédiatement sur les tous derniers packages disponibles dès leur sortie, et d’installer l’utilitaire
apt-listbugs qui prévient des problèmes avant installation ou mise à jour effective de tel ou tel logiciel.
2.1
Partitionnement des serveurs
Le principe de tout partitionnement est simple : séparer rigoureusement le système des données. Le reste peut
donner lieu à de nombreux débats confinant à la théologie :), concernant en particulier les partitions pour /var et
/tmp.
Nous avons retenu le partage des services réseau sur deux serveurs (outre le petit routeur) et avons donné dans
la section précédente leur répartition sur chaque ordinateur, mais on peut très bien concevoir de tout placer sur un
seul serveur si on n’a pas de problème de charge ou de débit sur le réseau local. Nous conseillons le partitionnement
suivant pour le serveur devant héberger les données et les comptes :
7 http
://www.gphoto.org/
://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=171
9 http ://www.funix.org/
10 http ://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=180
11 http ://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=103
12 http ://www.ubuntulinux.org/
13 Par souci de compatibilité, de nombreux services sont décrits dans cet article pour leurs anciennes versions pour Woody comme pour
les versions récentes disponibles en Sarge.
8 http
6
sda1 : /boot : 15 Mo 14
sda2 : Swap : 1,2 Go pour 1 Go de Ram.
sda3 : / : 5 Go (si l’on prévoit vraiment l’installation de très nombreux logiciels)
sda4 : /home : le reste du disque
sdb1 : /data : le second disque du serveur, que l’on pourra affecter à autant de partages réseau que de besoin pour
le stockage de données, exportées ou non sur le réseau.
Le second serveur n’héberge pas à proprement parler de données mais plutôt des sauvegardes (on y place donc le
lecteur DAT), ainsi que divers spools de proxy et d’impression.
sda1 : /boot : 15 Mo (avec la réserve ci dessus)
sda2 : Swap : 1,2 Go pour 1 Go de Ram.
sda3 : / : 5 Go (si l’on prévoit vraiment l’installation de très nombreux logiciels)
sda4 : partition étendue
sda5 : /var/spool : au moins 6 Go, pour les spools de squid, d’apt-proxy, de l’impression et d’Amanda.
sda6 : /data : le reste du disque, environ 50 Go, pour les images des disques des stations générées avec le logiciel
partimage 15 .
Ces partitions seront formatées avec le système de fichiers ext3 si l’on désire une sauvegarde simple avec Amanda.
Reiserfs ne peut pas être sauvegardé ni surtout partiellement restauré simplement et XFS demande un
logiciel spécifique de backup, outre la complexité de sauvegarde des ACLs. Normalement, un centre de formation avec
des utilisateurs occasionnels n’a pas besoin d’un système de fichiers aussi complexe que XFS. Si l’on envisage la mise
en place d’un serveur de news avec un feed extérieur, cela se traduira par la prolifération de petits fichiers extrêmement
nombreux dans le spool, il sera donc recommandé d’augmenter la densité des inodes de la partition /var/spool au
formatage (voir man mke2fs, option -i. Cette option est à fixer au formatage, il n’est plus possible de la modifier par
la suite).
Par contre il est possible d’ajouter la journalisation à un système ext2, donc passer en ext3, de manière très simple :
« tune2fs -j /dev/sdax », en rajoutant bien sur dans le fichier /etc/fstab que la partition est maintenant en ext3. La page
de man de tune2fs donne toutes les précisions voulues, également pour modifier le pourcentage d’espace disque alloué
au super utilisateur par partition. Cela sera utile après redimensionnement d’une partition avec le logiciel parted 16 ,
qui fonctionne très bien, dans la mesure où l’usage peut révéler une partition chroniquement sur dimensionnée au
détriment d’une autre.
2.2
Partitionnement d’une station de travail
Le partitionnement d’une station de travail est beaucoup plus simple et beaucoup moins sensible que celui d’un
serveur, dans la mesure où les stations n’hébergent absolument aucune donnée ; la partition /home est montée au
boot par NFS et n’occupe donc aucun espace sur le disque local. On pourra faire une petite partition /boot, puis une
partition de swap plus large que la RAM dont on prévoit de doter a terme la machine, le reste du disque contenant
la partition racine /. Une installation complète de Gnome 2.8, KDE 3.3, Enlightenment, Windowmaker, Mozilla,
Firefox, Thunderbird, Gimp 2.2, LATEX, OOo 1.1, Gcompris et la majeure partie des logiciels éducatifs ou transversaux
référencés sur le présent site17 occupe moins de 3 Go sur le disque. En comptant large, une partition de 6 Go est donc
amplement suffisante.
2.3
Conseils généraux pour l’installation
Qu’il s’agisse d’un serveur ou d’une station de travail, l’installation de Debian demeure simple mis à part le moment
du partitionnement qui requiert une grande attention. Les machines clientes et l’environnement français sont détaillées
dans la section 9. Voici quelques conseils complémentaires :
– le mot de passe root des stations ne doit pas être le même que celui des serveurs et autres machines
« sensibles ». Par simple bon sens, mais aussi parce qu’on fera parfois installer des logiciels par les stagiaires.
– l’installeur Sarge sera démarré avec l’option linux26 pour le kernel 2.6.8.
– Le gestionnaire d’amorçage (lilo ou GRUB) doit toujours être installé dans le MBR (master boot record) du
disque principal. L’installer ailleurs, sur une partition du disque ou sur une disquette, est le meilleur moyen
d’avoir des problèmes par la suite.
14 Taille conseillée si l’on ne recourt pas aux images de kernel officielles qui intègrent un initrd de large taille, avec tous les modules de
gestion du SCSI, RAID, IDE, file systems, etc... En ce cas, prévoir une petite centaine de Mo par sécurité.
15 A l’usage, il s’avère que seuls les systèmes MS-Windows ont vraiment besoin de ce genre de sauvegarde
16 http ://www.gnu.org/software/parted/parted.html
17 http ://logiciels-libres-cndp.ac-versailles.fr/
7
– Dans le cas de machines en double amorçage avec un système d’exploitation MS-Windows, toujours commencer
par installer ce dernier et installer GNU/Linux ensuite.
– La configuration de Debian s’achève par la configuration du serveur SMTP qui permet au système de prévenir
son administrateur de tel ou tel problème en lui envoyant un mail. Root n’a aucune raison de lire, et encore
moins de rédiger, du courrier. On redirigera donc tout le courrier de toutes les machines vers un utilisateur du
réseau, typiquement le compte de la personne en train de lire ce document :-). Ceci se corrige en éditant le fichier
/etc/aliases pour placer un alias ainsi : « root : [email protected] » (où cette adresse est celle de l’administrateur
du réseau), puis en mettant a jour la base d’alias au moyen de la commande newaliases et en relançant le serveur
SMTP (dans le cas de Postfix, régénérer la base d’alias au moyen de la commande « postmap /etc/aliases »). On
vérifiera au moyen de la commande « echo coucou|mail root » que l’utilisateur « yves » reçoit bien les messages
de root sur son compte, sur l’ordinateur qui centralise les messages du domaine (voir plus loin, section 7.1.3).
– Le serveur SMTP exim, choix par défaut de Debian, convient bien pour une machine qui ne fait qu’envoyer les
mails du système vers un compte du réseau. Pour le serveur SMTP principal, qui doit traiter tout le courrier des
utilisateurs, on préférera Postfix dont la configuration est détaillée dans la section 7.1.
2.4
Les sources des packages Debian
Un principe de Debian est que tous les logiciels reposent sur des packages qui définissent leurs dépendances : ainsi,
on ne va jamais à la pêche à telle ou telle version d’une librairie très précise qui elle même en demande une autre qu’il
faudra laborieusement compiler, cette « aventure » s’achevant par une réinstallation et mise à jour à la main de la
moitié du système. Au contraire, l’installation d’un package conditionne la mise en place de tout ce qui est nécessaire
pour qu’il fonctionne, en passant par internet pour obtenir les dernières versions des logiciels
Tout passe ainsi par l’utilitaire apt-get dont on trouvera sur ce même site18 une description sommaire. le HOWTO
d’apt19 exposant beaucoup plus complètement ce logiciel qui fait une grande partie du confort, comme du succès, de
Debian.
Apt possède son fichier de configuration : /etc/apt/sources.list qui décrit les serveurs et sources sur lesquels il
va aller chercher ses packages. Un proxy de packages permettant d’économiser de la bande passante et du temps de
téléchargement pour tous les ordinateurs de notre réseau sera installé plus tard (section 6.3), mais dans un premier
temps, pour partir de quelque chose, nous retiendrons cette configuration :
– Pour un serveur :
#Securite
deb http://security.debian.org/ stable/updates main
#Serveur principal
deb ftp://ftp.fr.debian.org/debian stable main contrib
– Pour une station de travail, on prendra les mêmes sources mais avec la section unstable ou sid au lieu de stable
ou woody , en rajoutant certains serveurs qui proposent des logiciels en plus, selon les besoins (voir par exemple
apt-get.org20 , les serveurs proposés ne sont en rien officiels) :
#Securite
deb http://security.debian.org/ testing/updates main
#Source principale
deb ftp://ftp.fr.debian.org/debian sid main contrib
#Agnula, logiciels de création musicale et multimedia
deb http://apt.agnula.org/demudi/ unstable main local extra
#Acrobat Reader, Mplayer, logiciels non libres
deb ftp://ftp.nerim.net/debian-marillat unstable main
##Cinelerra, logiciel de montage video professionnel
deb http://www.kiberpipa.org/~minmax/cinelerra/builds/sid/ ./
18 http
://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=20
://www.debian.org/doc/manuals/apt-howto/index.en.html
20 http ://www.apt-get.org/
19 http
8
2.5
Logiciels complémentaires
Au sortir de l’installation de Debian, on dispose d’un système fonctionnel mais tellement minimal qu’on ne peut
presque rien faire avec. Même pour une telle installation, il manque un certain nombre de logiciels qu’on installera de
suite, généralement parce qu’ils seront nécessaires pour identifier certains problèmes dans des situations où il ne sera
plus possible d’installer quoique ce soit :
– lsof, List Open Files, permet de savoir quels sont les fichiers ouverts et quel process les ouvre 21 .
– less affiche les pages de man de manière beaucoup plus confortable que le pager par défaut, more.
– manpages-fr, pour disposer de ce qui est traduit
– tcpdump, capteur de trames réseau.
– nmap, scanner de ports pour s’assurer de ce qui est ouvert localement ou sur une autre machine .
– ssh, permettant de prendre a distance le contrôle de la machine en mode texte. Il y a peu de raisons de ne pas
installer ssh sur une machine. On prendra les choix par défaut lors de la configuration sous peine d’introduire
une faille de sécurité.
– rsync, dont nous ferons un usage intensif pour distribuer des fichiers sur tout le réseau à la fin de cet article.
– ntpdate, pour mettre les machines à l’heure sur le serveur de temps du réseau (voir section 6.5).
– localepurge (voir 9.1.2).
Bien entendu, apt-get installera tout cela en quelques instants.
3
Une session de travail d’un administrateur réseau
3.1
Conseils généraux
Pour organiser son travail de manière efficace, ne pas répéter toujours les mêmes taches et conserver une visibilité
maximale de ce qui se passe sur un ordinateur au fur et à mesure que l’on installe des logiciels et qu’on modifie leur
configuration, un certain nombre d’habitudes de travail, de simple bon sens, sont à prendre. Trois points essentiels :
Comprendre ce que l’on est en train de faire en consultant systématiquement les pages de man et la
documentation présente dans /usr/share/doc/<nom du package>, en particulier les fichiers README.Debian 22 . Un
service réseau ne démarrera pas ou ne fonctionnera pas correctement si l’on ne fait pas ce qui est indiqué dans ces
fichiers rédigés très clairement, hélas en anglais.
Se familiariser avec un éditeur en mode texte qui permet d’ouvrir simplement plusieurs fichiers en même
temps, et se familiariser pendant une ou deux heures avec ses raccourcis clavier.
– Jed constitue de notre point de vue un excellent choix : cet éditeur, léger, n’impose pas de manipulation particulière pour saisir du texte ou en modifier, ni pour revenir à un mode permettant de sauvegarder son travail,
ce qu’attend a priori un être humain normalement constitué. Il présente des menus qui rappellent les raccourcis
clavier les plus usuels, offre une coloration syntaxique par défaut et peut être utilisé à de nombreuses autres
fins, introduisant ainsi à un environnement complet de programmation, de courrier, de lecture de forums et
bien d’autres choses, connu sous le nom d’Emacs. Un didacticiel en français est proposé avec Emacs, lancé avec
le raccourci clavier C-h t 23 . Une heure passée avec ce didacticiel permet de bien comprendre la logique très
claire des raccourcis clavier et de commencer à être opérationnel. On trouve facilement sur le Web des tableaux
récapitulatifs24 des raccourcis d’emacs.
– Mc est un gestionnaire de fichiers en mode texte très apprécié, qui propose un éditeur plus sommaire que jed
mais qui reste de manipulaton aisée.
– Vi, ou ses clones, sont présents par défaut sous tout système Unix comme un mal nécessaire. On se doit de
connaître un minimum ses raccourcis clavier, en particulier ceux permettant d’en sortir rapidement ( :q !) :-).
Un appui sur la touche escape permet en principe de saisir cette commande si les lettres :q ! apparaissent encore
dans le corps du texte. La fonction M-x doctor d’emacs offre secours et compassion après une session, même
brève, de « travail » dans vi.
Organiser sa session de travail en ouvrant quatre consoles textes (ou quatre xterm si l’on travaille sous X à
travers ssh). Sur ces 4 consoles, on maintiendra :
1. Un éditeur ouvert, qui permet d’ouvrir plusieurs fichiers en même temps25
21 en
particulier lsof -i :<n◦ _de_port>
commande zless permet de visualiser un fichier sans le décompresser
23 Control h suivi de t
24 http ://asi.insa-rouen.fr/˜lfallet/informatique/emacs.php
25 Raccourcis claviers utiles pour travailler sur plusieurs fichiers en même temps :
– C-x C-f pour ouvrir un nouveau fichier
– C-x b pour naviguer entre les fichiers ou tampons déjà ouverts, la complétion fonctionne classiquement au moyen de la touche de
tabulation
22 la
9
2. Un simple shell pour taper des commandes, en particulier redémarrer le service réseau dont on vient de modifier
la configuration (/etc/init.d/nom_du_service start|stop|restart).
3. Le contenu d’un fichier de log qui consigne l’activité du système en temps réel (/var/log/syslog) ou l’activité
plus spécifique d’un service (par exemple /var/spool/squid/access.log) et par là ce que signale le service réseau
lors de son redémarrage et pendant son fonctionnement (commande tail -f <nom du fichier de logs>).
4. La documentation de ce qu’on est en train de faire.
Quelqu’un cherchant de l’aide sur les newsgroups ou les listes de diffusion se voit souvent répondre : « que disent
les logs ? », et ensuite RTFM26 ou man. Avoir donc la doc et les logs présents à l’écran permet de gagner du temps et
surtout de l’autonomie.
3.2
Un interpréteur de commandes confortable : zsh, le Z Shell
La plupart des manipulations décrites dans ce document se font en mode texte, en dehors de toute interface graphique qui a très fortement tendance à diminuer la compréhension des choses et réduire l’autonomie de l’administrateur
système. Cependant, le shell (ou interpréteur de commandes) standard Bash présente de nombreuses limitations, même
dans ses dernières versions. Nous préconisons ainsi l’usage de Zsh en version 4, shell très évolué permettant divers
modes de complétion27 programmable et fonctionnalités très étendues parmi lesquelles on notera :
– Complétion pour ssh tenant compte des machines connues ( /.ssh/known_hosts). Il devient superflu de taper le
nom entier des machines qu’on désire joindre, les premières lettres suffisent.
– Complétion distante pour scp permettant de naviguer à la complétion dans le système de fichiers d’une
machine distante, ce qui permet aux clefs et agents ssh de présenter un intérêt encore accru (voire section
10.2).
– Complétion sur les options des commandes et non plus seulement sur les commandes elles mêmes, ce qui
facilite la découverte de logiciels mal connus. Par exemple, la commande gphoto2 suivie de deux appuis sur la
touche de tabulation montrera clairement comment piloter un appareil photo en mode texte.
– Complétion sur les cibles des commandes, particulièrement pratique avec apt-get install et apt-cache show puisque
la complétion proposera les packages disponibles. Un système de cache permet d’optimiser les performances de cette fonctionnalité.
– Navigation dans le système de fichiers, dans des archives (tar, zip...) et plus généralement dans tous les choix de
complétion au moyen d’un menu dans lequel les touches fléchées du clavier permettent de naviguer. Ce menu est
colorisé de la même manière que la commande ls.
– Prompt grandement personnalisable, la configuration ici proposée teste la charge machine et colorise le prompt
en fonction de celle ci, ce qui permet de remarquer tout de suite un problème éventuel au login.
– Navigation dans un historique partagé entre les divers shells ouverts, permettant d’obtenir des informations sur
la date et la durée d’exécution d’une commande. Pour retrouver une commande, Esc-p permet une navigation
standard et Ctrl-r une recherche incrémentale (comme bash).
Zsh est lancé temporairement en l’appelant par son nom, mais le changement de shell définitif s’effectue dans le
système au moyen de la commande chsh. On prendra garde au bon fonctionnement de la configuration avant de changer
le shell de root, mais même en ce cas la commande su - -s /bin/bash permet de récupérer un shell fonctionnel.
Le Z Shell demande un travail de configuration afin de disposer de tous ces avantages, nous proposons une configuration complète28 dont la mise en place est détaillée dans le fichier README. L’installation des logiciels complémentaires
indiqués, totalement indispensables (en particulier cowsay), offrira un plaisir animalier toujours renouvelé à chaque
ouverture de session :).
Il existe assez peu de sites en français concernant Zsh, et la version 4 diffère très sensiblement de la version 3.
Signalons, en anglais, parmi des ressources très nombreuses :
– Un bref didacticiel29 chez IBM.
– Zsh-lovers30 , nombreux trucs et astuces.
–
–
–
–
C-x
C-x
C-x
C-x
5
o
k
1
2 pour scinder la fenêtre d’édition en deux
pour naviguer d’une fenêtre à l’autre (par exemple pour faire des copier-coller)
pour tuer le tampon courant
pour n’afficher qu’une seule fenêtre
26 http
://www.catb.org/˜esr/jargon/html/R/RTFM.html
appelle complétion l’utilisation d’une touche, généralement la tabulation, pour compléter ce qui est saisi sur la ligne de commande
au lieu de tout saisir manuellement. Ceci offre un confort certain, mais surtout évite de taper des erreurs, aussi faut-il utiliser cette
complétion systématiquement.
28 http ://logiciels-libresècndp.ac-versailles.fr/debianinstall/fichiers/zsh
29 http ://www-106.ibm.com/developerworks/linux/library/l-z.html ?dwzone=linux
30 http ://grml.org/zsh/zsh-lovers.html
27 On
10
– Un guide de l’utilisateur31 sur le site officiel.
4
Sécuriser une machine Debian : les bases
Chacun mesurera, en fonction du public auquel est destiné son réseau, quels sont ses besoins en matière de sécurité,
en dehors du routeur / Firewall que nous exposons dans la section suivante. Il y a un monde entre une salle où ne
passent que des enseignants qui, dans le cadre d’un plan académique de formation, viennent apprendre le traitement
de textes et les rudiments d’internet sous la responsabilité d’un formateur, et un local qui accueille des élèves sans
contrôle pendant leurs heures de permanence. Mais la première priorité d’un administrateur réseau doit être la sécurité,
condition première de la haute disponibilité des machines.
Au sortir de l’installation, une machine GNU/Linux n’est pas nécessairement aussi sécurisée qu’elle peut l’être, si
l’on part de ce principe : d’abord, on ferme tout et on ouvre ensuite selon des besoins mûrement réfléchis.
1. Commenter toutes les entrées du fichier /etc/inetd.conf, sauf celles qui servent explicitement à un usage réel
(normalement il n’y en a aucun, lorsque l’installation de notre réseau sera complète il y aura pop et ftp sur le
serveur principal, et Amanda sur toutes les machines sauvegardées). Inetd est ce « super daemon » qui lance des
services à la demande, leur évitant ainsi de tourner en permanence pour ne pas surcharger la machine. Certaines
entrées comme time, discard, parfois finger, etc... sont actives par défaut.
2. Placer la directive ALL : ALL dans le fichier /etc/hosts.deny et redémarrer inetd. Man 5 hosts_access indique
des exemples très clairs de configuration des tcp wrappers qui autorisent ou non certains services à telle ou telle
machine.
3. Le fichier /etc/lilo.conf contient une ligne commentée « password=tatacounter » qui permet de démarrer la
machine en mode « single user » et d’avoir ainsi un accès root sans authentification. On évitera cela en décommentant cette ligne, en changeant le mot de passe, en sécurisant ce fichier 32 et enfin en réinstallant lilo
(commande lilo).
Il est indispensable de s’abonner à la liste de diffusion d’alertes de sécurité de Debian dès lors que l’on administre une
machine, a fortiori un serveur connecté jour et nuit à Internet. Il suffit de cliquer ici : http ://lists.debian.org/debiansecurity-announce/33 et d’entrer son adresse.
5
Configuration et sécurité du routeur
Cet ordinateur n’a pas besoin de beaucoup de puissance ou ressources matérielles, par contre il doit faire l’objet de
l’attention la plus grande en matière de sécurité car il est relié en permanence par une IP publique au monde extérieur
et va donc subir des tentatives d’intrusion et attaques diverses venues de pirates qu’il sera toujours difficile d’identifier.
Insistons : il est très maladroit de se demander « vais-je subir des attaques ? ». La question pertinente est : « comment
mes services réseau ont-ils réagi aux tentatives d’intrusion qui ont eu lieu depuis que je les ai mis en place il y a une
demi heure ?».
Pour cette raison, on suivra le principe suivant : le pare feu ne doit héberger aucun service réseau en plus de lui
même et du moyen éventuel d’entrer depuis l’extérieur (ssh). On sera particulièrement attentif à la consultation de ses
journaux (logs).
Note importante Les services réseau présentés dans ce document ne sont pas considérés comme ouverts sur
Internet mais réservés à un usage interne ; aucune translation de port n’est active par défaut dans la configuration de
firewall proposée. On ne redirigera surtout aucun port vers le serveur hébergeant les données des utilisateurs, même
pour le courrier ou le Web. Pour ouvrir certains services au monde extérieur, on se renseignera sur la notion de DMZ
où l’on placera un serveur dédié.
Une installation minimale de Debian stable suffira pour le routeur ; un partitionnement très simple conviendra
puisqu’il n’y aura ni compte ni donnée sur cet ordinateur.
5.1
Sécurité sur le routeur : première étape
Aucun ordinateur ne doit être connecté à Internet sans être protégé par Firewall, qu’il n’y a aucune raison de
désactiver, même pour un instant.
31 http
://zsh.sunsite.dk/Guide/zshguide.html
moyen de la commande chmod 600 /etc/lilo.conf
33 http ://lists.debian.org/debian-security-announce/
33 il va de soi qu’aucun client NIS ou LDAP ne sera installé.
32 au
11
Ce script de firewall34 est à placer dans le répertoire /etc/init.d. Le rendre exécutable (chmod 700 iptables.sh) et
exécuté au boot du routeur par la commande update-rc.d iptables.sh start 15 2 3 4 5 . (attention au . final, voir man
update-rc.d ). Redémarrer l’ordinateur pour vérifier que les règles iptables sont bien appliquées au boot, la commande
iptables -L -v devant montrer que les tables INPUT et FORWARD ont une policy de DROP, et que n’est accepté en
entrée sur ppp0 que ce qui est ESTABLISHED ou RELATED (une chaîne supplémentaire est affichée pour les logs).
Chain INPUT (policy DROP 0 packets, 0 bytes)
pkts bytes target
prot opt in
out
source
\destination
287 16748 ACCEPT
tcp -- any
any
localnet/24
\anywhere
tcp dpt:ssh
2
168 ACCEPT
icmp -- any
any
anywhere
\
anywhere
144 12183 ACCEPT
all -- any
any
anywhere
\
anywhere
state RELATED,ESTABLISHED
3
483 ACCEPT
all -- eth0
any
anywhere
\
anywhere
state NEW
0
0 ACCEPT
all -- lo
any
anywhere
\
anywhere
state NEW
8
400 LOG_AND_DROP all -- any
any
anywhere
\
anywhere
Chain
pkts
\
207
\
176
\
FORWARD (policy DROP 0 packets, 0 bytes)
bytes target
prot opt in
out
source
destination
14731 ACCEPT
all -- eth0
any
anywhere
anywhere
23867 ACCEPT
all -- any
any
anywhere
anywhere
state RELATED,ESTABLISHED
Chain OUTPUT (policy ACCEPT 4200K packets, 327M bytes)
pkts bytes target
prot opt in
out
source
\
destination
Quelques observations sur cette configuration :
– Tout est ouvert en sortie puisque nous n’avons pas de raison particulière d’interdire tel ou tel usage à l’intérieur
du centre de formation. On réfléchira soigneusement, dans un établissement à vocation éducative, à mettre
en place un tel filtrage, comme toute forme de censure qui est vite contre-productive sans un accompagnement
pédagogique consistant déjà en la mise au point d’une charte des usages, adjointe au règlement intérieur, adoptée
en conseil d’administration et signée par les élèves.
– Filtrer ICMP en entrée de manière brutale doit être proscrit, mais un filtrage réfléchi permet d’éviter d’être
visible aux scans les plus grossiers. Aucun filtrage d’ICMP ne protège réellement contre un pirate compétent et
décidé.
– Les logs de Netfilter sont fastidieux et guère passionnants à lire. Le logiciel fwlogwatch, disponible dans Debian,
permet entre autres d’auditer les logs du Firewall et propose des rapports au format HTML35 ; il dépasse le cadre
de cet article.
Nous pouvons maintenant ouvrir la connexion ADSL ; elle se paramètre avec la commande pppoeconfig, les fichiers
de configuration se trouvant dans le repertoire /etc/ppp. La ligne est ouverte avec « pon dsl-provider », fermée par «
poff » et une option à la configuration permet de la rendre persistante, ce qui est recommandé.
Ce script36 permet de tester basiquement la ligne et de la remonter, on pourra le placer en crontab pour l’éxécuter
tous les quarts d’heure.
34 http
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/iptables.sh
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/report.html
36 http ://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/internet.sh
35 http
12
5.2
Sécurité sur le routeur : seconde étape
Mettons tout de suite à jour la machine pour installer les derniers correctifs de sécurité : « apt-get update ; apt-get
dist-upgrade ». Installer la dernière version du kernel, ou mieux le compiler soi même37 pour l’optimiser et n’y mettre
que ce qui est nécessaire, reste une excellente idée.
Cette mise à jour sera suivie de l’installation des packages Logcheck et ssh.
Logcheck audite tous les journaux, ou logs, du système et envoie son audit par mail à l’administrateur (voir ci
dessus comment déporter ces messages vers un compte effectivement lu), ceci selon une périodicité définie dans le
fichier /etc/cron.d/logcheck. Le niveau de sécurité « server » permet un audit suffisant, mais le niveau « paranoid »
est disponible :-).
le démon sshd permet de prendre la main à distance sur le routeur, mais surtout de parcourir le réseau et de se
logguer sur les machines depuis l’extérieur : très commode, ceci permet à l’administrateur du réseau de continuer à
travailler chez lui, le soir ou le week end :-).
Réalisons mantenant un premier et très sommaire audit de sécurité. Depuis l’extérieur du réseau, sur une
machine disposant de Nmap38 (le standard en matière de scanner de ports), la commande « nmap -O ip_du_routeur
» permet de s’assurer que seul le port 22 (ssh) est ouvert39 . En cas contraire, reprendre depuis le départ la sécurisation
de cette machine et la mise en place du pare-feu. Voici le résultat d’un scan de port satisfaisant :
Starting nmap 3.81 ( http://www.insecure.org/nmap/ ) at 2005-03-16 16:47 CET
Warning: OS detection will be MUCH less reliable because we did not find
at least 1 open and 1 closed TCP port
Interesting ports on mpsoa.net4.nerim.net (62.212.122.37):
(The 1662 ports scanned but not shown below are in state: filtered)
PORT
STATE SERVICE
22/tcp open ssh
Device type: general purpose
Running: Linux 2.4.X|2.5.X
OS details: Linux 2.4.0 - 2.5.20, Linux 2.4.10 - 2.4.18, Linux 2.4.19 (x86)
Uptime 66.351 days (since Sun Jan 9 08:23:22 2005)
Nmap finished: 1 IP address (1 host up) scanned in 30.075 seconds
5.3
Fonctionnalités additionnelles du script de firewall
Notre script permet de facilement ouvrir et translater des ports, les lignes permettant de le faire étant commentées.
Il suffira donc, par exemple pour que la machine 192.168.28.50 sur lequel on a placé un serveur Web soit consultable
de l’extérieur sur le port 80, de commencer par ouvrir ce port sur le firewall :
$IPTABLES -A INPUT -p TCP -s 0/0 --dport 80 -j ACCEPT
Puis de faire en sorte que toutes les requêtes arrivant sur l’ip publique du firewall à destination du port 80 soient
redirigées sur le port 80 de cette machine :
$IPTABLES -t nat -A PREROUTING -p tcp -i ppp0 -d 62.212.122.37
\ --dport 80 -j DNAT --to 192.168.28.50:80
$IPTABLES -A FORWARD -d 192.168.28.0/24 -p tcp --dport 80-j ACCEPT
Bien évidemment, on se sera soigneusement renseigné sur la sécurité du service réseau que l’on met ainsi à disposition
de manière à ne pas se le faire pirater ! La même procédure pourra ainsi être utilisée pour tester la sécurité du serveur
SMTP Postfix lorsque nous procéderons à sa configuration (section 7.1).
5.4
Simulation d’intrusions : Nessus
Nessus40 est un simulateur d’intrusions et scanner de vulnérabilités avec lequel auditer la sécurité de manière poussée
à partir d’une machine cliente, sur le réseau ou à l’extérieur. Il est toujours bon d’auditer plus finement qu’avec un
scan de ports grossier la sécurité de ses serveurs, aussi devrait-on considérer Nessus avec beaucoup d’attention. Voici
quelques liens :
37 http
://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=180
://www.insecure.org/nmap/
39 avec ICMP non filtré, sinon ajouter l’option -P0. Ce type de scan est très long.
40 http ://www.nessus.org/
38 http
13
– Un didacticiel rapide d’installation et de configuration41 sur Trustonme.net.
– Une description plus élaborée42 exposant les options de scan, sur linuxfrench.net.
– Un autre article similaire très détaillé43 offert par linuxfocus.org.
Notons enfin que Nessus est tout sauf discret lors de ses scans, il faut être aveugle pour ne pas voir ses traces dans
les logs des machines scannées...
5.5
Logiciels complémentaires de sécurité
Ces logiciels dépassent le cadre de cette étude et ne sont pas strictement indispensables, en particulier si le seul
port ouvert est ssh. Ils complètent toutefois utilement l’installation d’un lien permanent à Internet, même si l’on n’est
pas spécialement paranoïaque :).
Tripwire44 permet de prendre l’empreinte d’une machine juste après son installation et de contrôler périodiquement
son intégrité.
Snort45 , classique IDS (système de détection d’intrusion), permet d’auditer très finement ce qui se passe sur le
réseau. Il existe un outil similaire mais beaucoup plus avancé, prelude-ids46 .
Chkrootkit47 permet de tenter de détecter la présence d’un rootkit48 sur la machine, trace indubitable d’un piratage.
Une machine piratée ne peut être fiablement auditée à partir d’elle même, ce qui restreint la pertinence
des mails que chkrootkit propose d’envoyer quotidiennement, et a fortiori un audit réalisé post mortem.
Pour de plus amples détails, de nombreux sites sur la sécurité informatique et l’excellente revue MISC49 peuvent
servir de référence.
Tous les logiciels ci dessus sont disponibles dans Debian et installables via APT. Il est bien entendu tout à fait
superflu d’installer un antivirus sur notre routeur.
Enfin, il est très fortement déconseillé de réagir automatiquement à un scan de ports ou une tentative
d’intrusion par une action (de filtrage ou bannissement en particulier) sur l’IP présumée de l’attaquant. Outre que le
pirate ne provient pas necessairement de l’IP que l’on croit avoir identifiée, il sera toujours tentant, pour la personne
se rendant compte qu’elle est victime d’une action de ce genre, de spoofer son attaque en se faisant passer pour un
serveur DNS, racine ou faisant autorité pour notre classe d’adresses IP, ce qui coupera notre réseau du reste du monde.
Nous serons ainsi responsables d’un joli déni de service dont nous serons nous mêmes victimes. C’est ce que propose
le logiciel Portsentry dont nous déconseillons absolument l’usage.
6
Premier serveur : les services réseau non authentifiés
Nous allons mettre en place dans cette section le premier serveur, dont la tâche sera essentiellement de nous relier à
internet, en plus de ce que fait le Firewall. Nous étudierons les services suivants : DNS, DHCP, proxy http et ftp, proxy
apt, miroir Debian, serveur de temps, serveur d’impression. D’une manière générale, nous configurerons les services
réseau de manière autonome, sans dépendre en rien du fournisseur d’accès (DNS, SMTP, etc..), pour nous affranchir
de tout dysfonctionnement de ce dernier et être certains que si quelque chose ne marche pas, nous avons la main sur
ce dysfonctionnement, mis à part les tuyaux, la connexion, qui est en fin de compte la seule chose à demander au
fournisseur d’accès.
6.1
Le DNS : Bind
Packages requis : bind, dnsutils, et leurs dépendances.
Le DNS établit un lien entre noms et adresses d’ordinateurs et constitue le coeur d’Internet. De fait, bind devient
vite le cœur d’un intranet et la première chose à installer dès que l’on sait s’en servir. Nous démontrerons sa puissance
lors de l’installation des stations de travail, où la distribution de fichiers à l’identique sur toutes les machines en une
seule ligne de commande reposera sur un DNS fonctionnel.
Lire et mettre en pratique le DNS HOWTO50 permet d’acquérir les bases du DNS et surtout de beaucoup mieux
comprendre Internet. Cette section présente un récapitulatif des fichiers de configuration d’une zone et d’un reverse,
elle ne remplace pas cette introduction au DNS, présupposée connue.
41 http
42 http
43 http
44 http
45 http
46 http
47 http
48 http
49 http
50 http
://www.trustonme.net/didactels/201.html
://www.linuxfrench.net/article.php3 ?id_article=938
://www.linuxfocus.org/Francais/November2001/article217.shtml
://www.tripwire.org/
://www.snort.org/
://www.prelude-ids.org/
://www.chkrootkit.org/
://en.wikipedia.org/wiki/Rootkit
://www.miscmag.com/sommaire.php
://www.freenix.fr/unix/linux/HOWTO/DNS-HOWTO.html
14
Avant de présenter la configuration détaillée, précisons que le serveur DNS maître a pour adresse 192.168.28.2 et
l’esclave 192.168.28.1.
Le fichier de configuration de bind est /etc/bind/named.conf. Commentons ce qui se trouve dans la section forwarders, pour résoudre nous mêmes les noms sur internet sans passer par le serveur du fournisseur d’accès, en interrogeant
directement les serveurs racines. 51
Ensuite, notre zone, qui va définir les noms de nos machines, s’appelle mp-soa.net ; nous allons donc y déclarer
notre zone et son reverse :
// add entries for other zones below here
zone "mp-soa.net" in {
type master;
file "db.mp-soa";
allow-transfer {192.168.28.1;};
};
zone "28.168.192.in-addr.arpa" in {
type master;
file "db.28.168.192";
allow-transfer {192.168.28.1;};
};
La section « allow-transfer » interdit à toute autre machine que 192.168.28.1 de faire un transfert de zone qui révélerait une bonne part de la structure de notre réseau, tout en déclarant une seconde machine comme DNS secondaire.
Nous avons déclaré deux fichiers dans /var/cache/bind qu’il va falloir créer et renseigner :
– db.mp-soa52 qui contient les machines de la zone mp-soa.net : tous les ordinateurs de notre réseau.
– db.28.168.19253 : la zone inversée ou reverse, associant des adresses à des noms. Cette zone est indispensable au
fonctionnement normal du DNS et par là de la majeure partie des services réseau. En particulier, le montage
NFS de la section suivante ne peut se faire que si la requête sur le reverse de la machine cliente qui opère le
montage réussit. Il en va de même pour nombres d’autres services (FTP, SMTP...) qui ne fonctionneront pas
normalement sans cette zone inversée.
Le DNS HOWTO mentionné ci dessus permet de comprendre la signification du caractère @ en début de fichier,
ainsi que la présence de points qui terminent les noms de machines dans le fichier de reverse, alors qu’il n’en va pas de
même dans la zone « droite ».
Lorsque les fichiers seront remplis correctement, on redémarrera bind en observant soigneusement les modifications
du fichier /var/log/syslog : toute erreur apparaît très clairement avec le nom du fichier et le numéro de la ligne qui
contient un bug. Bind indique explicitement que les zones sont chargées et qu’il est prêt à répondre aux requêtes
lorsque tout est correct. Pour rajouter, enlever ou modifier des machines du DNS, on incrémentera le serial number
après modification du fichier, puis on rechargera la zone au moyen de la commande ndc reload <nom de la zone>. Il
est en effet absurde de redémarrer bind si on a simplement modifié une zone, ce redémarrage vidant le cache mémoire
de bind qui contient toutes les requêtes DNS déjà effectuées sur Internet. Elles seront donc refaites, occasionnant trafic
réseau, délai d’attente pour les utilisateurs, etc...
On pourra dans la suite de ce document ajouter un alias portant le nom de chaque service du réseau dès que celui ci
fonctionne. Par exemple, lorsque la messagerie sera en place, il sera élégant de rajouter deux entrées de type « smtp IN
CNAME abraracourcix » et « pop IN CNAME abraracourcix », comme chez le fournisseur d’accès :), ce qui simplifie
la vie des utilisateurs et surtout permet de déplacer un service d’une machine à l’autre sans que rien ne change sur le
reste du réseau. C’est un plaisir de voir ces alias répondre au ping dès que la zone est rechargée.
Le serveur DNS secondaire, ou esclave, sera configuré très simplement ainsi (fichier /etc/bind/named.conf auquel
on enlèvera les éventuels forwarders) :
zone "mp-soa.net" in {
type slave;
file "slave/db.mp-soa";
masters {192.168.28.2; };
};
51 Si le fournisseur d’accès est Wanadoo, il est hélas requis d’utiliser ses DNS comme forwarders pour pouvoir envoyer du courrier, sauf à
installer soi même un serveur SMTP autonome comme expliqué ci après, section 7.1.
52 http ://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/db.mp-soa
53 http ://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/db.28.168.192
15
zone "28.168.192.in-addr.arpa" in {
type slave;
file "slave/db.28.168.192";
masters {192.168.28.2; };
};
Au redémarrage de l’esclave, le fichier de zone arrive depuis le maître dans le répertoire /var/cache/bind/slave. Des
tests avec nslookup (ou mieux dig) vérifieront que tout notre DNS est bien correct. A la fin de ce document, chaque
machine du réseau sera jointe par son nom, en particulier les machines clientes.
On donnera à chaque machine, y compris les serveurs, cette configuration dès l’installation (/etc/resolv.conf ) :
search mp-soa.net
nameserver 192.168.28.2
nameserver 192.168.28.1
6.2
Le DHCP
Packages requis : dhcp
Le Dynamic Host Configuration Protocol distribue automatiquement des adresses ip, ou plus exactement une
configuration réseau complète avec DNS et passerelle, à des machines dont la configuration est automatique. Service
extrêmement commode, DHCP évite de déclarer sur chaque machine une configuration qui peut changer : si l’adresse
du serveur DNS change, il suffit de modifier un fichier sur un serveur plutôt que devoir passer sur toutes les machines
qui peuvent être très éloignées les unes des autres, voire difficilement accessibles. La configuration de dhcpd est très
simple, ceci suffit amplement :
authoritative;
# Importante durée des baux
default-lease-time
259200;
max-lease-time
2592000;
# Nom de domaine, qui complète le DNS (directive search de /etc/resolv.conf
option domain-name
"mp-soa.net";
# Passerelle
option routers
192.168.28.254;
option domain-name-servers
192.168.28.2,192.168.28.1;
# Plage d’adresses distribuées par le serveur,
# ne pas empiéter sur les adresses fixes du DNS
subnet 192.168.28.0 netmask 255.255.255.0 {
range 192.168.28.80 192.168.28.150;
}
Le protocole DHCP ne prévoyant pas de bail d’adresses illimité dans le temps (selon la rfc213254 ), les adresses
des machines risquent donc de changer de manière inopinée, or nous avons déclaré des adresses fixes pour les stations
clientes, de manière à les retrouver facilement avec ssh et à distribuer des fichiers de manière automatisée sur tout ou
partie d’entre elles. La solution, si on ne souhaite pas renseigner fastidieusement chaque adresse sur chaque station, est
de déclarer les machines selon l’adresse matérielle (MAC) de leur carte réseau dans la configuration du serveur DHCP
de cette manière :
host majipoor { hardware ethernet 00:0F:1F:C2:BD:4B; fixed-address 192.168.28.50; }
La commande ifconfig donne l’adresse MAC d’une carte réseau. Il suffit de ne placer que ce type de déclaration dans
la configuration de dhcpd (donc omettre la section subnet ci dessus) pour que seules les machines déclarées selon leur
adresse MAC puissent obtenir une adresse ip (et ainsi introduire un début de sécurité dans les montages NFS). Cette
déclaration des adresses physiques est aussi pratique pour les ordinateurs portables dont les propriétaires souhaitent
rarement déclarer une configuration ip statique mais qui apprécieront de pouvoir retrouver leur laptop en l’appelant
par son nom, pour y copier des fichiers par scp, etc...
Enfin, il est très peu recommandé de faire tourner plus d’un serveur DHCP sur un même réseau, ce qui n’est pas
sans poser problème lors de stages où l’on enseigne le DHCP.
54 http
://www.faqs.org/rfcs/rfc2132.html
16
6.3
Limiter les téléchargemets de logiciels : un miroir Debian ou un proxy de packages
Nous sommes en train d’installer tout un réseau de machines clientes sous Debian à travers Internet au moyen de
packages mis à disposition sur des serveurs publics. Cette mise à disposition présente une limite, qui est celle de la
courtoisie : une, voire deux machines peuvent solliciter le serveur en même temps, mais pas une vingtaine provenant du
même réseau. Il faudrait donc installer les machines les unes à la suite des autres, ce qui est d’autant moins élégant qu’il
faudra à chaque fois télécharger rigoureusement les mêmes centaines de logiciels, outre que l’on triche avec l’occupation
des miroirs Debian qu’on solliciterait ainsi beaucoup plus qu’il n’est correct de le faire.
6.3.1
Un miroir Debian partiel sur le réseau
Packages requis : debmirror, rsync, apache, un DNS fonctionnel pour le virtualhost.
La première solution est de construire un miroir Debian au moins partiel. C’est la solution la plus élégante,
puisqu’elle rend le réseau presque entièrement autonome, les stations clientes n’ayant pas besoin de connexion extérieure
pour installer des logiciels ou les mettre à jour 55 . La première contrainte est de disposer d’un espace disque suffisant : il
faut prévoir une partition d’au moins 15 Go pour un miroir de Sid et Sarge (Mai 2005) ne comprenant pas les sources
des logiciels, avec en plus les packages mis à disposition par Christian Marillat (mplayer notamment). La seconde
contrainte consiste à télécharger environ 13 Go de fichiers qui seront très partiellement utilisés, ce qui se fera aisément
en moins de 24 heures à travers une connexion ADSL ; si l’on met à jour le miroir toutes les nuits, la ligne sera occupée
le temps de télécharger quelques centaines de Mo de données (quantité évidement constamment variable), soit moins
d’une demi heure sur une ligne à 2 Mbits. La dernière contrainte est de pouvoir mettre les packages à disposition des
stations du réseau au moyen d’un serveur Web ou FTP qu’il sera élégant d’appeler par un virtualhost dans le fichier
sources.list de chaque machine.
La mise en place du miroir peut se faire, dans le répertoire /var/spool/mirror, au moyen de l’utilitaire debmirror
de la manière suivante :
/usr/bin/debmirror /var/spool/mirror/debian --nosource --passive
\ -d sarge -d sid --getcontents -e rsync -r :debian/
\--host=ftp.fr.debian.org -v --ignore-release-gpg
\ --ignore-small-errors
– /var/spool/mirror/debian indique le répertoire ou se trouvera le miroir, on pourra ensuite utiliser par exemple
/var/spool/mirror/marillat pour une autre source
– –nosource indique de ne pas rapatrier les sources des logiciels
– –passive permet l’accès à un serveur FTP alors que nous sommes derrière un firewall (même si nous utilisons
rsync).
– –getcontents rapatrie la description du contenu des archives (fichiers contents.arch.gz ).
– -e rsync -r :debian/ permet de mirrorer avec rsync 56 , qui vérifie ce qui manque et ne rapatrie que les différences,
compressées, entre fichiers au lieu de tout télécharger, ce qui est infiniment plus élégant qu’un brut téléchargement
par ftp. L’option "–bwlimit=x" permet de limiter l’occupation de la ligne. -r :debian précise le répertoire racine
du serveur distant, option requise pour la méthode rsync.
– –host=ftp.debian.org indique la source du miroir.
– -v indique le mode explicite ou verbeux.
– –ignore-releases-gpg permet de poursuivre le téléchargement si la vérification des paquets par clefs GPG n’a pas
pu avoir lieu, ce qui est fréquent mais ne pose pas de problème sur un site de confiance.
– –ignore-small-errors poursuit le téléchargement si quelques fichiers sont manquants.
Pour initialiser le miroir, la commande ci dessus peut être lancée manuellement, mais la mise à jour quotidienne se
fera bien entendu avec une entrée crontab. Il faut ensuite mettre à disposition les packages du miroir sur le réseau local,
la solution la plus élégante consistant à utiliser les logiciels standard pour télécharger un fichier en http ou ftp. Nous
avons retenu Apache, et pouvons noter que les téléchargements locaux de fichiers se font très sensiblement
plus rapidement lorsque Apache sert les fichiers que lorsque apt-proxy le fait.
Il faut bien entendu une entrée DNS pour le miroir, ainsi qu’un virtual host pour le serveur web qui précisera quelle
est la racine du répertoire où trouver les packages. On ajoutera une entrée de ce type dans /etc/apache/httpd.conf :
<VirtualHost debian.mp-soa.net>
ServerAdmin [email protected]
55 Il va de soi qu’on ne mettra ce miroir à disposition du monde extérieur que si l’on a la chance de disposer d’une bande passante
en émission tout à fait considérable. La documentation pour mettre en place un miroir complet est disponible sur le site officiel :
http ://www.debian.org/mirror/ftpmirror.fr.html
56 A propos de rsync, on consultera la section 10.
17
DocumentRoot /var/spool/mirror/
ServerName debian.mp-soa.net
</VirtualHost>
Où debian.mp-soa.net constitue un alias DNS du serveur qui héberge le miroir, et où /var/spool/mirror est le
répertoire où nous téléchargeons depuis les serveurs dont nous faisons un miroir (sous répertoires debian et marillat).
On indiquera ensuite dans le sources.list des stations ces deux simples entrées :
deb http://debian.mp-soa.net/debian sid main
deb http://debian.mp-soa.net/marillat unstable main
6.3.2
Apt-proxy, proxy de packages Debian pour apt
Packages requis : apt-proxy
L’autre solution consiste en un proxy de packages. Ainsi, comme avec tout proxy, seule la première machine qui
installe un package donné provoque un téléchargement sur Internet, le proxy fournissant lui même ensuite ce dont il
dipose déjà aux autres machines qui le demandent. Ainsi, on verra les ordinateurs télécharger l’ensemble de la suite
Open Office.org en quelques secondes, le débit étant de 100 Mbits... Le logiciel permettant de faire cela s’appelle aptproxy, il est disponible sous forme de package installable par apt-get. Notons que les packages stockés dans le proxy
n’ont absolument pas besoin d’être installés sur la machine qui le fait tourner, ce même proxy pouvant héberger des
packages de différentes versions de Debian. Installons donc tout de suite ce proxy, qui sera défini comme source Debian
pour toute machine que l’on installera par la suite si l’on ne retient pas la solution du miroir Debian. Répétons que
cette solution représente à tous les niveaux un important gain de preformances (plus aucune connexion extérieure
provoquée par les stations, rapidité bien supérieure d’Apache pour les téléchargements locaux) par rapport à un proxy.
Sans surprise, le fichier /etc/apt-proxy/apt-proxy.conf contient la configuration d’apt-proxy. Deux options importantes :
– La variable APT_PROXY_CACHE détermine le répertoire de stockage des packages, pour nous /var/spool/aptproxy en raison de la partition réservée pour /var/spool. Ce répertoire, crée à la main, a besoin des permissions
suivantes :
drwxr-xr-x
8 aptproxy root
4096 Mar 9 13:53 /var/spool/apt-proxy
– La variable WGET="wget –passive-ftp", est essentielle puisque nous nous trouvons derrière un firewall ; aucun
téléchargement par ftp n’est possible sans ce classique mode passif.
On définit ensuite des backends, ou serveurs, où notre proxy s’alimentera automatiquement selon les requêtes que les
machines vont lui soumettre :
add_backend /debian/
$APT_PROXY_CACHE/debian/
http://ftp.fr.debian.org/debian/
+ftp.fr.debian.org::debian/
add_backend /marillat/
$APT_PROXY_CACHE/marillat/
ftp://ftp.nerim.net/debian-marillat/
add_backend /agnula/
$APT_PROXY_CACHE/agnula/
http://apt.agnula.org/demudi/
\
\
\
\
\
\
\
Il est très important, dans les versions 1 d’apt-proxy, de déclarer un backend sur une seule ligne. Par souci de clarté,
les divers composants d’un backend sont ici mis sur plusieurs lignes terminées par un \ qui, selon la syntaxe Unix,
indique que la ligne suivante est en fait la continuité de la première. Si cette syntaxe n’est pas respectée, le backend
ne fonctionnera pas et le proxy non plus.
Dans ses versions 2, la syntaxe de ce fichier, qui s’appelle apt-proxy-v2.conf est devenue considérablement plus
claire. Les backends se déclarent maintenant de la manière suivante :
[debian]
backends =
http://ftp.fr.debian.org/debian
[marillat]
18
backends =
ftp://ftp.nerim.net/debian-marillat/
En version 1, apt-proxy est un service d’inetd lancé à la demande, en version 2 il fonctionne de manière autonome.
Mais les deux cas, la syntaxe des sources Debian sur les clients est la même, dans le fichier /etc/apt/sources.list :
deb http://apt-proxy.mp-soa.net:9999/debian sid main
deb http://apt-proxy.mp-soa.net:9999/marillat unstable main
–
–
–
–
apt-proxy.mp-soa.net est une entrée de notre DNS
le port 9999 est le port d’apt-proxy, que personne ne change par fainéantise :)
debian et marillat sont le nom des backends déclarés dans le fichier de configuration du proxy
sid, main, unstable sont les noms des répertoires disponibles sur le serveur distant qu’il ne faut pas déclarer sur
le proxy lui même : il gérera très bien tout seul la multiplicité des répertoires sur une même source.
On pourra être amené à utiliser l’une ou l’autre de ces versions dans la mesure où la version 1 est présente en
woody, et la version 2 en sid. Si, pour une raison ou une autre, on souhaite se servir d’une station de travail allumée
en permanence comme proxy de packages, apt-get installera la version 2.
La gestion de l’occupation disque se fait de manière très transparente, apt-proxy s’occupant seul de nettoyer les
packages obsolètes (seul semble influer le paramètre spécifiant le nombre de versions concurrentes à conserver). Un
maximum de deux Go d’espace disque suffit pour de très nombreux packages sur les machines clientes.
L’utilitaire, apt-proxy-import permet de copier dans le cache du proxy l’ensemble des packages déjà téléchargés par
la même machine auparavant avec apt-get, ce qui peut représenter une taille considérable. Il faut initialiser le proxy
avant cette importation avec un simple apt-get update, le fichier sources.list pointant bien évidemment maintenant sur
le proxy.
Restent à installer quelques logiciels sur une station pour observer notre proxy initialiser son cache et se remplir,
en indiquant ce qui se passe dans son fichier de logs /var/log/apt-proxy.log. On y verra bien sûr tous les problèmes de
configuration éventuels qui expliqueront pourquoi quelque chose ne marche pas.
6.4
Squid, Proxy http et ftp
Packages requis : squid, squidguard (nombreuses dépendances)
Une implémentation complète de Squid et SquidGuard ne demandant aucune compétence Unix particulière, développée pour les établissements scolaires et mise à jour très régulièrement est disponible sous le nom de Slis 57 , « Serveur
Linux pour l’Internet Scolaire », installée dans des milliers de sites en France. Le développement est réalisé par une
communauté interne à l’Éducation Nationale et piloté par le CARMI Internet de Grenoble. Slis demande un serveur
dédié et s’insère en principe dans une politique académique : chaque Slis est relié à une base centrale de supervision
et mise à jour. Ainsi, l’administrateur local d’un Slis est rarement root sur son serveur. Cette section s’adresse aux
administrateurs de réseau qui souhaitent contrôler entièrement leur proxy http.
6.4.1
Squid
Un proxy http et ftp sert à économiser la bande passante et à fluidifier la consultation du Web ; il devrait être
installé systématiquement, même avec une bande passante importante. D’autre part, ce proxy permet de filtrer, on
pourra aussi dire censurer, un certain nombre de contenus jugés indésirables selon tel ou tel critère. Comme nous
l’avons dit à propos de la fermeture de certains ports en sortie du firewall, il ne peut être pertinent de procéder à une
telle censure sur un réseau, en particulier dans un établissement scolaire, que dans le cadre d’une charte des usages
dont les utilisateurs ont pris connaissance.
Squid58 constitue le standard quasiment absolu en matière de cache proxy. Il est livré avec un fichier de configuration
qui le fait fonctionner de manière tout à fait satisfaisante ; il est déconseillé de toucher à ce fichier (clairement
autodocumenté) sans réellement comprendre ce que l’on fait. Les risques d’altérer voire casser le disque dur du serveur
sont réels si l’on modifie inconsidérément certaines options.
Il est bon de savoir que toute modification de la configuration de Squid demande, comme tout autre service,
redémarrage, mais Squid peut être particulièrement long à s’arrêter (quelques minutes dans le pire des cas). Ceci est
« normal », ne doit pas donner lieu à inquiétude et permet d’aller consommer une boisson en attendant :).
Il y a simplement deux options à modifier :
– Dans la section ACLs (access control list), placer en haut de la liste une règle autorisant le réseau local à utiliser
le proxy :
57 http
58 http
://slis.ac-grenoble.fr/
://www.squid-cache.org/
19
acl localnet src 192.168.28.0/255.255.255.0
http_access allow localnet
– L’espace disque occupé est déclaré de la manière suivante :
cache_dir ufs /var/spool/squid/cache 1500 16 256
Seul le premier chiffre est à modifier, il précise ici une taille de 1,5 Go d’occupation disque dans /var/spool/squid
(le défaut est de 100 Mo). Les deux autres chiffres sont relatifs à l’arborescence des sous répertoires du cache,
les valeurs par défaut convenant complètement.
Un proxy possède trois modes de fonctionnement : le mode standard, sans configuration additionnelle particulière,
le mode transparent qui est une règle de firewall redirigeant tous les accès sur un port vers un autre port, rendant
superflu de déclarer le proxy dans les navigateurs mais le rendant ainsi incontournable, et le mode authentifié qui
impose aux utilisateurs de saisir leurs nom et mot de passe pour utiliser squid, permettant ainsi de consigner tous les
accès dans des journaux. Ces deux derniers modes sont exclusifs l’un de l’autre : un proxy est soit transparent, soit
authentifié.
1. Le mode « standard » : Il suffit de déclarer dans un navigateur que le proxy utilisé est proxy.mp-soa.net sur le
port 3128 et le fichier /var/spool/squid/logs/access.log indiquera toutes les requêtes http et ftp traitées.
2. Le proxy transparent : solution confortable puisqu’aucun paramétrage n’est requis sur les stations clientes. Il
suffit de faire en sorte, dans le câblage du réseau, que le routeur qui redirige vers Squid soit incontournable pour
qu’il soit matériellement impossible d’éviter le proxy et son éventuel filtrage59 .
La configuration d’un Squid transparent :
http_port 8080
httpd_accel_host virtual
httpd_accel_port 80
httpd_accel_with_proxy on
httpd_accel_uses_host_header on
Et la configuration du firewall :
$IPTABLES -t nat -A PREROUTING -i eth0 -s ! 192.168.28.2 -p tcp --dport 80
\ -j DNAT --to 192.168.28.2:8080
$IPTABLES -t nat -A POSTROUTING -o eth0 -s 192.168.28.0/24 -d 192.168.28.2
\-j SNAT --to 192.168.28.254
$IPTABLES -A FORWARD -s 192.168.28.0/24 -d 192.168.28.2 -p tcp
\ --dport 8080 -j ACCEPT
Le réseau local a ici pour adresse 192.168.28.0/24, le Squid tournant sur 192.168.28.2 et le routeur / Firewall
ayant l’adresse 192.168.28.254.
3. Le proxy authentifié : la solution la plus lourde, qui impose à chaque utilisateur une nouvelle saisie de son nom
et de son mot de passe, déjà saisis à l’ouverture de session, pour chaque utilisation du proxy, donc d’internet,
et à chaque lancement d’un navigateur. Cette solution est très discutable d’un point de vue juridique car elle
consigne toutes les traces et tous les accès de tout le monde de manière extrêmement précise et surtout nominale. Pour bien faire les choses, on branchera Squid sur le serveur d’authentification de cette manière (ici LDAP) :
Squid sur woody :
authenticate_program /usr/lib/squid/ldap_auth -b <base_dn>
authenticate_children 50
Squid version 2.5 (Sarge) :
auth_param basic program /usr/lib/squid/ldap_auth -b <base_dn>
auth_param basic children 50
Et ajouter dans les ACLs :
acl identification proxy_auth REQUIRED
http_access allow identification
59 une
règle de firewall pourra autoriser certaines adresses IPs à contourner Squid, pour le proxy apt par exemple
20
Le logiciel Sarg permet de générer des rapports complets indiquant qui est allé sur quel site avec quelle machine, à
quelle heure, pendant combien de temps et pour faire transiter quel volume de données. Un proxy authentifié n’a
de sens que pour exploiter de tels rapports afin de « fliquer » les utilisateurs, ce que certains peuvent souhaiter
et qu’un cadre juridique permet dans certaines limites, à propos desquelles il serait judicieux de s’informer au
préalable.
Les rapports de Sarg peuvent très vite occuper un espace disque extrèmement important, plusieurs dizaines de
Go par mois ( !), avec certaines options comme l’enregistrement d’URL longues pour suivre très précisément
toutes les connexions. Sarg crée des dizaines de milliers de petits fichiers, ce qui justifie un formatage de la
partition /var/spool avec une haute densité d’inodes (voir section 2.1).
6.4.2
SquidGuard
SquidGuard est un plugin pour Squid, qui permet de filtrer des URLs de manière extrêmement puissante à partir
de bases de données que l’on trouve facilement sur Internet, constituant autant de politiques de censure établies selon
des critères toujours discutables. L’Éducation Nationale préconise les bases de données de l’Université de Toulouse60 ,
qui sont aussi utilisées par Slis 61 .
La configuration de Squid doit être modifiée pour indiquer la présence d’un programme de redirection. Comme
précédemment avec l’authentification LDAP, on affinera le nombre de process redirecteurs lancés simultanément en
fonction du nombre de clients sur le réseau de manière à ne pas trop surcharger le serveur :
redirect_program /usr/bin/squidGuard -c /etc/squid/squidGuard.conf
60 http
61 http
://cri.univ-tlse1.fr/documentations/cache/squidguard.html
://slis.ac-grenoble.fr/
21
redirect_children 50
Nous proposons une configuration on ne peut plus simple de SquidGuard, qui permet un filtrage très efficace d’un
type de données omniprésent sur le Web et dont les gens acceptent souvent avec plaisir de se passer : la publicité.
Outre les a priori légèrement publiphobes qui animent ce type de démarche :-), filtrer la publicité représente encore
une économie certaine de bande passante et se justifie complètement en milieu scolaire.
Notre fichier de configuration est disponible en téléchargement62 ainsi que les expressions régulières63 permettant
le filtrage de publicités. Pour activer ce filtrage, on placera le fichier regexps dans le répertoire /var/squidGuard/db
auquel on donnera les permissions suivantes :
drwxrwx---
4 root
proxy
4096 Oct
2
2003 /var/squidGuard
On redirigera enfin les requêtes filtrées vers une image quelconque disponible sur un serveur Web installé sur le
réseau.
Le site officiel64 de SquidGuard détaille de manière poussée et progressive, à la manière d’un didacticiel, la configuration de filtrages extrêmement complexes selon les heures, les utilisateurs, les machines, etc etc...
Les paramètres authenticate_children redirect-chidren demandent un ajustement en fonction du nombre de clients
susceptibles de faire des requetes simultanées et selon les capacités du serveur. Tous ces paramètres seront affinés à
l’usage, une configuration réellement optimisée de Squid permettant une économie substantielle de bande passante.
6.4.3
En conclusion
En imposant un filtrage tellement draconien et une surveillance nominale de tous les instants, on peut réellement
arriver à dissuader les gens d’utiliser ce fabuleux outil qu’est Internet. Cette possibilité existe et comble peut être
certains egos, avec de jolis graphiques générés sans effort pour parfaire cette activité de « surveillance ». Chacun étant
maître de ce qu’il fait sur un réseau dont il est responsable, insistons au moins sur l’existence d’une législation qui
encadre ce qui ressemble quelque peu à une dérive à forte connotation totalitaire...
6.5
Xntpd, serveur de temps
Packages requis : ntp, ntp-simple, ntpdate pour les clients
Un serveur de temps est indispensable sur un réseau car il fournit une source locale unique de synchronisation
horaire pour toutes les machines. Si celles ci sont à l’heure, on peut être assuré que ce qui est consigné dans les logs
de n’importe quel ordinateur se produit exactement au même moment que sur n’importe quel autre, ce qui permet
une analyse précise de tout dysfonctionnement ou incident. D’autre part, la synchronisation avec une source extérieure
de temps sera la première chose demandée en cas de problème venant de l’extérieur (spam, intrusion, etc...) par le
responsable du site distant.
Nous avons donc besoin d’un serveur de temps sur notre réseau. Il s’appelle Xntpd, son installation et sa configuration sont extrêmement simples pour l’usage basique auquel nous le destinons : dans son fichier de configuration
/etc/ntp.conf, on indiquera simplement l’adresse ip (pas le nom) du serveur distant sur lequel nous allons nous synchroniser. Des listes de serveurs Ntp publics65 sont disponibles sur le Web.
Il est à noter que Ntpd se synchronise sur sa source de temps en continu, il est impossible de lui préciser à quelle
heure il doit le faire. Une liaison permanente est donc nécessaire. Il faudra à chaque démarrage du serveur une durée
assez longue avant qu’il s’estime capable de fournir l’heure aux clients (compter une petite heure), délai avant lequel
ceux ci répondront qu’aucun serveur de temps n’a pu être trouvé. Ce délai est tout à fait normal.
Tous les clients vont venir se synchroniser au boot et au début de chaque heure sur notre serveur (alias DNS
chronos), sans connexion à l’extérieur, au moyen de cette entrée dans leur crontab :
0 * * * * /usr/sbin/ntpdate chronos > /dev/null
6.6
CUPS, serveur d’impression
Packages requis : cupsys (nombreuses dépendances), gs en cas d’absence d’imprimante PostScript.
Le Common Unix Printing System constitue aujourd’hui un standard dans le monde de l’impression sous Unix. Son
installation dans Debian est aussi simple que le reste, et il s’administre au moyen d’une interface Web très conviviale
que nous ne commentons pas. Elle écoute sur le port 631.
62 http
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/squid/squidGuard.conf
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/squid/regexps
64 http ://www.squidguard.org/
65 http ://ntp.isc.org/bin/view/Servers/WebHome
63 http
22
Ghostscript consiste en une suite d’outils et de filtres qui permettent de transformer du PostScript en langage
compréhensible par une imprimante non PostScript. Son installation n’est requise que si on ne dispose pas d’une telle
imprimante, le package Debian gs-gpl étant bien adapté. Le serveur d’impression appellera automatiquement le bon
filtre de Ghostscript selon la configuration de l’imprimante.
Les clients pourront venir s’accrocher sur le serveur CUPS au moyen des utilitaires variés de configuration des
imprimantes tels qu’ils existent aujourd’hui dans Gnome ou KDE. On veillera à ce que les fichiers temporaires soient
bien effacés du spool après traitement des tâches d’impression pour ne pas encombrer le disque, mais CUPS gère en
principe cela très bien.
7
Second serveur : l’authentification
Notre second serveur va héberger les comptes des utilisateurs et donc permettre de les authentifier lorsqu’ils veulent
utiliser un ordinateur ou une ressource du réseau. Nous étudierons la mise en place des fonctionnalités suivantes :
courriel (SMTP et pop), authentification proprement dite (NIS), partage de répertoires du serveur (NFS), mise à
disposition de documents et consultation de ceux ci dans un espace personnel (Web et FTP).
La gestion des utilisateurs, leur création, suppression et définition de leurs droits sera succintement abordée dans
la section 8.4 traitant de Webmin.
7.1
Courrier : SMTP et Pop3
Packages requis : postfix, qpopper
Le SMTP n’est pas à proprement parler un service authentifié (bien que Postfix supporte cela), mais il est plus
simple de placer ce service sur le même serveur que la base de comptes. D’autre part, pour éviter les mauvaises surprises
comme la désinstallation de la moitié des logiciels qu’on a passé du temps à configurer, il est préférable de changer le
serveur SMTP immédiatement après installation de Debian. Le serveur SMTP constitue en effet un composant central
du système d’exploitation qui peut ainsi envoyer des mails à son administrateur pour le prévenir ou l’alerter à propos
de telle ou telle chose. Il est impossible de désinstaller cette fonctionnalité, et changer ce serveur suppose de toucher
au cœur d’un système équilibré.
23
Exim, le serveur SMTP par défaut de Debian, fonctionne bien pour des besoins extrêmement modestes. Postfix
donnera satisfaction pour des besoins plus évolués et n’est pas complexe à mettre en place, au contraire de sendmail
qu’il a de plus en plus tendance à remplacer partout. Quelle que soit la solution retenue, il faut tout de même se
montrer vigilant en mettant en place ce type de service :
– Soit le serveur n’est là que pour des besoins strictement internes de formation et d’acheminement de messages
entre utilisateurs locaux, et en aucun cas il n’est ouvert sur Internet. Auquel cas on peut supposer que personne
ne va spammer...
– Soit le serveur est ouvert sur Internet. Un serveur SMTP mal configuré, qu’on appelle relai ouvert, va servir très
rapidement pour spammer, de la part de nuisibles qui recherchent activement aux quatre coins d’internet ce type
de « service ». Il faut être bien conscient que c’est l’administrateur de ce serveur qui sera tenu pour responsable
de la dizaine de milliers de messages acheminés, pourtant à son insu, en quelques instants par un inconnu ayant
utilisé le Postfix pour répandre ses nuisances. Il importe donc, par défaut, de sécuriser le plus possible un serveur
SMTP.
– Dans tous les cas de figure, root ne doit pas faire de courrier pour des raisons de sécurité. La procédure pour
rediriger ses messages figure dans les conseils généraux d’installation d’un système d’exploitation (section 2.3).
7.1.1
Postfix : installation et configuration simple
Postfix s’installe par apt-get en l’appelant tout simplement par son nom. L’interface debconf propose une pré configuration qui conviendra pour un usage basique et strictement interne. L’unique fichier /etc/postfix/main.cf renferme
l’essentiel de la configuration.
Voici un fichier simple généré par debconf :
# appending .domain is the MUA’s job.
append_dot_mydomain = no
myhostname = abraracourcix
alias_maps = hash:/etc/aliases
alias_database = hash:/etc/aliases
myorigin = /etc/mailname
mydestination = mp-soa.net, abraracourcix.mp-soa.net,
\abraracourcix, localhost.localdomain, localhost
relayhost =
mynetworks = 127.0.0.0/8
mailbox_command =
mailbox_size_limit = 0
recipient_delimiter = +
Deux paramètres fondamentaux sur lesquels repose Postfix :
– mynetworks : définit ce que Postfix considère comme réseaux dont il a la charge.
– mydestination : définit les domaines pour lesquels Postfix s’estime serveur de courrier (suppose une entrée MX
dans le DNS, voir 7.1.3), et pour lesquels il va accepter les messages à destination de ses utilisateurs.
Relayhost définit un serveur intermédiaire se chargeant de router les messages à notre place ; il est ici volontairement
laissé vide pour router nous mêmes nos messages sur internet, afin d’avoir la trace dans /var/log/mail.info. On peut
ainsi savoir si le serveur SMTP distant du destinataire a accepté ou non le message, et donc avoir la preuve de son
bon acheminement. Ceci est impossible avec un relai.
Vérifions tout de suite ce qui se passe lorsque quelqu’un tente d’utiliser notre serveur de courriel de l’extérieur, puis
de l’intérieur du réseau ; nous l’utilisons en ligne de commande au moyen des commandes SMTP66 . Le lecteur non
familier avec celles-ci pourra les reproduire sur le serveur SMTP de son fournisseur d’accès en attendant de s’installer
son propre serveur. Commençons par une connexion telnet depuis l’extérieur :
[yves@shalmaneser[ttypts/2]~]$ telnet mpsoa.net4.nerim.net 25
Trying 62.212.122.37...
Connected to mpsoa.net4.nerim.net.
Escape character is ’^]’.
220 abraracourcix ESMTP Postfix (Debian/GNU)
helo abraracourcix
250 abraracourcix
mail from:<[email protected]>
66 http
://www.commentcamarche.net/internet/smtp.php3
24
250 Ok
rcpt to:<[email protected]>
554 <[email protected]>:
\ Recipient address rejected: Relay access denied
quit
221 Bye
Connection closed by foreign host.
Il ne se passe pas du tout la même chose depuis la machine « arrakis » qui se trouve à l’intérieur du réseau :
arrakis% telnet abraracourcix smtp
Trying 192.168.28.6...
Connected to abraracourcix.mp-soa.net.
Escape character is ’^]’.
220 abraracourcix ESMTP Postfix (Debian/GNU)
helo abraracourcix
250 abraracourcix
mail from:[email protected]
250 Ok
rcpt to:[email protected]
250 Ok
data
354 End data with <CR><LF>.<CR><LF>
grouik
.
250 Ok: queued as 4A69A63920
quit
221 Bye
Connection closed by foreign host.
Nous avons dans les deux cas tapé exactement les mêmes commandes, ce qui prouve deux choses :
1. Par défaut, Postfix livré avec Debian est sécurisé et interdit de relayer quoi que ce soit depuis l’extérieur dans la
mesure où seule une machine locale est autorisée à poster hors de notre domaine (on vérifiera que n’importe qui
peut poster à destination d’un de nos utilisateurs locaux).
2. La ligne mynetworks contenant uniquement notre adresse de loopback, les machines du réseau local sur lequel le
serveur dispose d’une adresse ip sont considérées comme faisant implicitement partie de mynetworks puisqu’une
machine du LAN a le droit de poster. Ceci est pratique si notre serveur se trouve sur un sous réseau en adressage
privé (ici 192.168.28.0/24). Cependant, si notre routeur est serveur SMTP, comme il dispose d’une adresse ip
publique sur le réseau de notre fournisseur d’accès, nous relayons donc toute la classe d’adresses dans laquelle
nous avons obtenu une adresse à la connexion. On interdira alors toute autre machine à utiliser le serveur avec
cette ligne :
mynetworks_style = host
7.1.2
Sécuriser Postfix
Nous disposons d’un serveur SMTP qui offre le minimum vital de sécurité, nous pouvons maintenant le « blinder
» davantage puisque nous avons vu que depuis l’extérieur, n’importe qui peut adresser un message à nos utilisateurs
locaux. On ne peut interdire cela si nous souhaitons recevoir du courrier, le problème majeur du spam est là. Il est
cependant possible de prendre certaines précautions dans le fichier main.cf. Toute modification de la configuration
du serveur implique un redémarrage au moyen du script idoine de /etc/init.d, tandis qu’une simple modification des
bases de données (fichiers access, canonical, aliases, etc...) ne demande qu’une relecture par Postfix au moyen de la
commande postfix reload.
Voici les directives à placer dans le fichier main.cf :
smtpd_client_restrictions = permit_mynetworks, reject_unknown_client,
hash:/etc/postfix/Access
Cette ligne permet de « jeter » à la connexion les machines sans DNS inverse (voir section 6.1) de même que ce
qui vient des domaines définis dans le fichier /etc/postfix/access dont voici un petit exemple :
25
aol.com REJECT
hotmail.com REJECT
msn.com
REJECT 550 MSN c’est MAL
cloudyweather.net DISCARD
emailisfun.com DISCARD
std-up.com
DISCARD
L’action REJECT provoquera un bounce (renvoi à l’expéditeur par rebondissement) avec un message d’erreur plus
explicite éventuel (ici pour les utilisateurs de MSN), tandis que l’action DISCARD fera partir le message dans le trou
noir sans qu’il en reste la moindre trace ailleurs que dans les logs du serveur.
Ce fichier complété, on reconstruira la table access.db au moyen de la commande postmap /etc/postfix/access et on
fera relire cette base à Postfix par la commande postfix reload. Ce simple script67 permet de « discarder » simplement
un nouveau domaine que l’on considère comme ne produisant que du spam et dont on ne veut absolument plus lire
aucun message ni en informer l’expéditeur.
smtpd_sender_restrictions = reject_non_fqdn_sender,
reject_unknown_sender_domain, reject_maps_rbl
Nous nous occupons ici du champ From : du mail, qui permet de rejeter les expéditeurs présentant des noms de
domaines incomplets ou inconnus, ou encore inscrits dans les listes noires RBL68 . On évitera de multiplier ce type de
listes noires, en particulier la DUL qui cherche de manière un peu vaine voire stupide à stopper les messages émanant
directement d’abonnés de fournisseurs d’accès ne passant pas par les serveurs SMTP de ceux ci.
smtpd_recipient_restrictions = permit_mynetworks, check_relay_domains
N’autorise à personne d’envoyer des mails à l’extérieur hors des domaines que nous relayons, sauf nos utilisateurs
qui, eux, peuvent écrire à qui ils veulent.
smtpd_helo_required = yes
Impose la commande SMTP HELO pour initier une session.
disable_vrfy_command = yes
Inactive la commande vrfy permettant de vérifier qu’un utilisateur existe. Il est superflu de faire la même chose
pour les commandes expn (vérification de l’existence de listes) qui ne sont pas implémentées dans Postfix.
mailbox_command = /usr/bin/procmail
Il est toujours pertinent de prévoir l’utilisation de procmail, par exemple pour Spamassassin.
Il manque la réécriture de l’adresse de certains expéditeurs dans le cas ou notre domaine est strictement local, ou si
nous avons besoin de transformer « [email protected] » en « [email protected] ». C’est la fonction du fichier
/etc/postfix/canonical à déclarer ainsi dans le main.cf :
canonical_maps = hash:/etc/postfix/canonical
Ce fichier contient ce type d’entrées :
yves [email protected]
On reconstruira la base de données avec « postmap /etc/postfix/canonical » et on fera relire cette base au serveur
par la commande habituelle « postfix reload ».
67 http
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/spam
est préférable de ne jamais signaler à un spammer qu’une adresse existe d’une manière ou d’une autre, car cela valide notre existence
de son coté et fait prendre de la valeur à nos coordonnées qu’il revendra ensuite. Chacun choisira entre REJECT et DISCARD, cette
dernière réduisant les erreurs et la charge réseau.
68 http ://www.mail-abuse.com/
67 il
26
7.1.3
Un serveur de messagerie sur le réseau : envoi et réception
Envoyer des messages
La dernière manipulation permet de disposer vraiment d’un serveur de mail sur le réseau que les utilisateurs peuvent
déclarer dans un client classique de messagerie (Thunderbird, Evolution, Sylpheed, Kmail, etc...). Pour le moment,
toute tentative en ce sens se traduit par un message d’erreur, puisque notre serveur Postfix n’est déclaré nulle part
ailleurs que dans sa propre configuration (ligne mydestination), que personne ne peut deviner tant que cela ne figure
pas dans le bon service réseau : le DNS. C’est le sens de l’entrée MX à placer de cette manière dans le fichier de la
zone mp-soa.net 69 :
localhost
IN
IN
IN
NS
MX
A
andromede
10 abraracourcix
127.0.0.1
Dès que la zone est actualisée dans bind, la commande dig mx mp-soa.net renvoie enfin quelque chose de satisfaisant :
;; ANSWER SECTION:
mp-soa.net.
86400
IN
MX
10 abraracourcix.mp-soa.net.
Important : Une entrée MX ne doit jamais pointer sur une entrée CNAME, c’est à dire un alias, mais toujours
sur une entrée A. Ce n’est pas le cas, par contre, d’entrées comme smtp, pop, imap, alias qui simplifient et stabilisent
la configuration des logiciels clients.
En incrémentant le numéro de série de la zone et en la rechargeant dans Bind, nous aurons l’agréable surprise de
voir le répertoire /var/mail du serveur se remplir de fichiers au nom du login des utilisateurs vers lesquels nous faisons
des tests. Mais ces utilisateurs ne peuvent toujours pas aller chercher les messages en attente....
Recevoir des messages
Un serveur SMTP sert à transporter des messages sur un réseau, y compris internet. A ce titre, il assure deux
fonctions :
1. Envoyer un message à un MX distant
2. Jouer à son tour le rôle de MX et accepter des messages en les plaçant là où les utilisateurs peuvent venir les
chercher.
Mais en aucun cas le serveur SMTP n’est là pour servir de boite à lettres aux utilisateurs : son rôle se limite à faire
le facteur. La boîte à lettres est assurée par un serveur pop, dans notre cas le classique qpopper. Ce service, installé
par apt-get, ne demande pas de configuration particulière en raison du caractère extrêmement déterminé du protocole
pop. Il s’agit généralement d’un service d’inetd, sauf charge particulière, qui se met à fonctionner immédiatement dès
qu’un client l’interroge et s’authentifie. Mais il nous faut mettre en place un vrai serveur d’authentification, c’est la
fonction majeure du serveur que nous sommes en train de configurer.
7.2
NIS
Packages requis : Nis (le même package pour le serveur comme les clients), portmapper.
Les services principaux de notre second serveur vont permettre l’authentification et le partage de répertoires sur le
réseau. Nous utilisons le couple NIS / NFS, standard on ne peut plus classique même si les administrateurs de réseau
r n’en ont guère entendu parler.
familiers des environnements Microsoft °
NIS et NFS reposent sur le portmapper, démon qui leur attribue dynamiquement un numéro de port car ils
n’écoutent pas sur un port dédié. Son installation est automatique par le jeu des dépendances de NIS et NFS. La
commande rpcinfo permet d’obtenir les informations concernant les services du portmapper disponibles.
Network Information Service est un service d’annuaire, aussi appelé yellow pages, développé à l’origine par Sun
Microsystems ; c’est le standard historique dans le monde des stations de travail Unix. Aujourd’hui, il a tendance à
être supplanté de plus en plus par LDAP, mais demeure relativement simple et léger à mettre en place et remplit
parfaitement sa tâche d’authentification dans le cadre d’une petite structure qui, avec relativement peu d’utilisateurs,
n’a pas besoin de brancher sur un annuaire des applications complexes. Si l’authentification se fait à travers plusieurs
applications (clients Unix, Samba, un logiciel de publication de type spip, un serveur de mail, etc etc...), on considérera
69 Il est possible de déclarer un MX secondaire, recommandé en cas de coupures fréquentes ou de charge importante, avec la ligne « IN
MX 20 mail.toto.com ». Avec l’accord de son administrateur, ce serveur pourra prendre le relai en cas d’indisponibilité du MX principal.
Les chiffres n’ont pas d’importance en eux mêmes mais indiquent simplement un ordre de priorité (on aurait tout aussi bien pu indiquer
1000, 1001 et 3000 pour un éventuel autre MX).
27
LDAP avec plus d’intérêt mais nos besoins excèdent ici très peu la synchronisation d’un fichier de mots de passe Unix
avec une application réseau d’authentification pour l’ouverture de session sur les machines clientes.
Un serveur NIS maître est relativement simple à configurer si l’on suit bien rigoureusement la procédure indiquée
dans le NIS HOWTO Debian70 dont nous donnons une traduction française. Pour mémoire :
1. Déclarer dans /etc/hosts le FQDN du serveur de cette manière :
192.168.28.6
abraracourcix.mp-soa.net
abraracourcix
2. Placer le nom du domaine NIS dans /etc/defaultdomain (pour nous mp-soa.net).
3. Déclarer le serveur comme maître (master) dans /etc/default/nis
4. Déclarer le couple netmask/network dans /etc/ypserv.securenets
5. Préciser dans /var/yp/Makefile que nous fonctionnons en shadow passwords71 en dé-commentant les lignes
appropriées :
MERGE_PASSWD=true
MERGE_GROUP=true
Consulter le HOWTO à propos des différentes options, de sécurité en particulier.
6. Démarrer nis : /etc/init.d/nis start
7. Initialiser le serveur : /usr/lib/yp/ypinit -m
Après l’ajout d’un utilisateur, la commande make (invoquée dans le répertoire /var/yp où se trouve le Makefile)
permet de compiler la base de comptes et permettre à l’utilisateur de s’authentifier sur une station configurée comme
cliente NIS 72 .
On pourra vérifier le fonctionnement du serveur NIS (ici abraracourcix) depuis un ordinateur quelconque de cette
manière :
[yves@ash[ttypts/6]~/temp/tex]$ rpcinfo -p abraracourcix
program no_version protocole no_port
100000
2
tcp
111 portmapper
100000
2
udp
111 portmapper
100009
1
udp
805 yppasswdd
100004
2
udp
803 ypserv
100004
1
udp
803 ypserv
100004
2
tcp
807 ypserv
100004
1
tcp
807 ypserv
600100069
1
udp
808 ypxfrd
600100069
1
tcp
810 ypxfrd
100024
1
udp 32768 status
100024
1
tcp 32768 status
100007
2
udp
817 ypbind
100007
1
udp
817 ypbind
100007
2
tcp
820 ypbind
100007
1
tcp
820 ypbind
On consultera le NIS HOWTO73 en complément de ce HOWTO Debian.
7.3
NFS
Packages requis : nfs-kernel-server (support du serveur NFS compilé dans le kernel, sinon nfs-user-server). Le
package nfs-common, indispensable, sera installé par dépendances.
Network File System partage des répertoires sur un réseau. Il est très facile à configurer, on peut mettre en service
des failles de sécurité béantes en quelques instants avec ce protocole. Il est donc recommandé de se documenter
soigneusement à son sujet, à commencer par le NFS HOWTO74 (en français). NFS n’est de toute manière pas un
70 http
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/nis.debian.howto.fr
mots de passe contenus dans le fichier /etc/password posent un gros problème : ce fichier est lisible par tout le monde même si les
mots de passe sont cryptés. La solution, assez ancienne, consiste donc à placer le mot de passe dans un fichier lisible uniquement par root,
/etc/shadow. Quasiment toutes les distributions modernes fonctionnent ainsi.
72 la section 9.2 montrera que cette configuration est tout à fait triviale par rapport à un client LDAP
73 http ://www.freenix.fr/unix/linux/HOWTO/NIS-HOWTO.html
74 http ://www.freenix.fr/unix/linux/HOWTO/NFS-HOWTO.html
71 les
28
protocole sécurisé, il suppose un minimum de confiance entre les utilisateurs qui accèdent aux données partagées.
N’importe qui pouvant être root sur une machine Unix peut opérer le montage NFS si cette machine y est autorisée
(par son adresse ip), puis prendre l’uid de n’importe quel utilisateur et ainsi s’approprier toutes ses données si /home
est exporté via NFS. Ceci, dans un centre de formation où ne viennent que des utilisateurs passagers, ne pose pas de
problème majeur. Il en ira de même dans un établissement où les utilisateurs pouvant être root sous GNU/Linux sur
leur portable sont encore relativement rares (comme dans un collège). On observe de vastes sites où les risques sont
potentiellement plus importants, comme des universités, recourir à NFS pour le home des utilisateurs, l’administrateur
réseau étant conscient de ce risque.
Précisons tout de même qu’une installation de NFS où l’on prend les précautions indiquées dans ce document et
surtout dans le HOWTO NFS ne met absolument pas en péril la sécurité du serveur lui même, mais, répétons le, la
confidentialité des données des utilisateurs.
L’exportation classique de /home permettra à chacun de retrouver l’intégralité de ses données, son courrier, les
préférences de ses logiciels, etc etc... à l’identique quelque soit l’ordinateur utilisé. Ceci est particulièrement bien adapté
au contexte de l’Éducation Nationale où les utilisateurs sont par défaut mobiles et ne possèdent pas un poste de travail
dédié : si un utilisateur bouge une icône sur son bureau de quelques centimètres, il la retrouvera à cette nouvelle
position sur un autre ordinateur, ceci n’ayant rien à voir avec des « profils errants ». Cette déportation d’un répertoire
est tout à fait transparente pour l’utilisateur, qui ne se rend pas compte que ses données ne se trouvent pas sur la
machine locale.
La configuration de NFS est très simple. On commencera par définir ce que nous exportons dans le fichier
/etc/exports :
/home
192.168.28.0/255.255.255.0(rw, root_squash)
/data/stagiaires 192.168.28.0/255.255.255.0(rw, root_squash)
On autorisera ensuite les machines du réseau local à opérer le montage dans la configuration des tcp wrappers :
/etc/hosts.deny : portmap : ALL
/etc/hosts.allow : portmap : 192.168.28.0/255.255.255.0
Redémarrer le serveur NFS, puis vérifier son fonctionnement au moyen de la commande déjà utilisée avec NIS
rpcinfo -p abraracourcix :
program vers proto
port
100000
2
tcp
111
100000
2
udp
111
100024
1
udp
964
100024
1
tcp
966
100003
2
udp
2049
100003
3
udp
2049
100021
1
udp 32768
100021
3
udp 32768
100021
4
udp 32768
100005
1
udp 32770
portmapper
portmapper
status
status
nfs
nfs
nlockmgr
nlockmgr
nlockmgr
mountd
Le montage se fait avec la comande mount abraracourcix :/data/stagiaires /mnt sur une machine cliente ; la commande showmount, sur le serveur cette fois, affichant la liste des machines ayant réalisé des montages. La section 9.2
consacrée au paramétrage des stations expliquera quelle ligne rajouter dans /etc/fstab pour automatiser le montage
du répertoire personnel importé au boot.
7.4
Samba
Packages requis : samba (nombreuses dépendances et outils conseillés).
Par hypothèse, nous exposons ici l’installation d’un réseau complet de machines clientes sous environnement Unix.
r même dans un contexte de double
Il n’est donc pas question d’envisager le cas de clients Microsoft Windows °,
amorçage des stations où deux systèmes d”exploitation seraient présents.
La documentation sur Samba, qui permet à un serveur Unix d’émuler le protocole SMB d’ouverture de session,
r NT/2000 est très
de partage de fichiers et d’imprimantes, et ainsi de se faire passer pour un serveur MS-Windows °
abondante sur Internet. D’autre part, le logiciel libre SambaEdu 375 développé par et pour l’Éducation Nationale sans
r
compétence Unix particulière de disposer d’un serveur Samba pour gérer ses clients MS-Windows °.
75 http
://www.crdp.ac-caen.fr/se3/
29
7.5
Web et FTP
Packages requis : apache, proftpd, puis php4, mysql-server et phpmyadmin selon les besoins
7.5.1
Apache
L’intérêt d’un serveur Web couplé à un serveur FTP accroché à la base de comptes du serveur est évident. L’installation d’Apache, PHP et MySQL pour mettre en place des sites dynamiques est documentée un peu partout, nous
y renvoyons 76 . Insistons simplement sur quelques fonctionnalités confortables pour les utilisateurs.
On placera dans /etc/skel un répertoire public_html avec les permissions 755 et on donnera aux répertoires personnels eux mêmes les permissions 711, de manière à ce que ce public_html puisse être consulté par tout le monde avec un
navigateur Web à l’intérieur du réseau. Chacun peut ainsi déposer des pages Web ou des documents aisés à consulter,
en particulier si l’on forme à la réalisation de contenus pour le Web. Apache intègre dans sa configuration par défaut
le répertoire ˜/public_html comme chemin du répertoire des utilisateurs. On consultera simplement ce répertoire à
l’adresse http ://serveurweb.domaine/˜utilisateur, non seulement pour voir les pages de chacun mais également en
tant que moyen simple d’accéder à un fichier partagé (cours, devoir, corrigé...).
7.5.2
ProFTPd
Nous présentons le protocole FTP dans le contexte un peu particulier d’un serveur auquel les utilisateurs accèdent
de toute manière en écriture par le biais de leur compte personnel en ouvrant une session. L’intérêt est de pouvoir
montrer, voire apprendre ce protocole comme un des modes les plus courants de mise en ligne de contenus sur un
serveur distant, que l’on retrouve ensuite sur une machine qui ne porte pas forcément le même nom par la magie des
alias DNS.
Avant de bien connaître ce protocole qui donne accès en écriture sur le disque, on prendra garde à :
– ne pas ouvrir le FTP sur le routeur, évidemment, mais à laisser ce serveur FTP en usage privé à l’intérieur du
réseau
– ne pas permettre l’usage du FTP anonyme, dont l’accès est désactivé par défaut dans la version Debian de
Proftpd (il suffit de décommenter les lignes ad-hoc du fichier de configuration).
– ne pas utiliser wu-ftpd, souvent proposé comme serveur FTP par défaut. Proftpd est un logiciel très sécurisé
au vu de son nombre quasiment nul d’alertes de sécurité depuis plusieurs années.
– Pour un usage très ponctuel, on en fera un service d’inetd plutôt que de le laisser tourner en permanence (option
claire du fichier de configuration).
Le serveur Proftpd est un logiciel très évolué, qui peut intégrer sa propre base d’utilisateurs ainsi inconnus du système
lui même. Il propose un chroot très simple à mettre en place. Le principe du chroot est de modifier la racine du système
de fichiers de manière à « emprisonner » l’utilisateur dans une « cage » qui l’empêche de se promener librement dans
le reste du disque. Si seuls les formateurs appartiennent au groupe du même nom, le chroot se met en place ainsi :
DefaultRoot ~/public_html
users,!formateurs
On pourra vérifier avec un client ftp que chaque utilisateur n’appartenant pas au groupe des formateurs se retrouve
dans le public_html de son répertoire personnel sans pouvoir remonter au dessus.
8
Services réseau complémentaires
Ces services contribuent à sécuriser le réseau, non plus comme nous l’avons vu à de nombreuses reprises contre
des intrusions extérieures, mais cette fois contre des dysfonctionnements matériels, voire des malveillances internes au
réseau. La sécurité, c’est aussi celle des données de tout un chacun et l’intégrité des systèmes comme des disques durs.
Pour les sauvegardes comme pour les onduleurs, ces logiciels demandent d’amples tests, y compris lorsque ces
services semblent fonctionner convenablement. Par exemple, il ne faudra pas craindre de couper le secteur pour vérifier
la réaction des serveurs, ou détruire un répertoire personnel pour en vérifier la bonne restauration. Le véritable premier
test se produira lorsqu’il y aura un réel « pépin » sur le réseau...
8.1
Nut : gestion des onduleurs
Packages requis : nut, nut-cgi pour obtenir de jolis graphiques.
Site officiel : http ://www.networkupstools.org/77
76 backport de PHP4 pour Woody : « deb http ://packages.dotdeb.org/ ./ ». Packet yaz (support z39.50 pour PHP), juste
pour les bibliothèques, le paquet deb est disponible sur http ://perso.dotdeb.org/misc/php4-yaz_4.3.8-8.dotdeb.1_i386.deb « deb
http ://www.indexdata.dk/debian indexdata/woody released »
77 http ://www.networkupstools.org/
30
Network UPS tool permet de surveiller l’alimentation électrique d’un onduleur par le port série de l’ordinateur
; il provoque l’extinction propre du système lorsque la panne de courant a été assez longue pour faire descendre la
charge des batteries à un état critique ; ainsi les partitions des disques durs sont démontées normalement et l’ensemble
de leur contenu, système comme données, ne court aucun risque. En effet, une rupture brutale d’alimentation d’un
ordinateur peut avoir des conséquences catastrophiques sur le contenu des disques : onduler un serveur ne suffit pas,
encore faut-il surveiller cet onduleur avec un logiciel qui sait ce qu’est une rupture d’alimentation et comment y faire
face.
Nut comporte également une partie cliente qui lui permet de fonctionner en réseau, c’est à dire interroger par
TCP/IP un autre serveur qui surveille par sa liaison série l’onduleur, qui ne dispose que d’un seul port pour cela. Ce
ou ces serveurs esclaves tomberont les premiers, avant le maître, en cas de baisse critique de l’alimentation, le maître
attendant la chute des esclaves avant de s’éteindre. La richesse fonctionnelle de Nut en fait un des logiciels les plus
puissants pour ce type d’usage.
On respectera trois démarches de bon sens lors de l’installation d’onduleurs et de leur surveillance :
78
1. Tout le matériel actif doit être ondulé, en particulier les switchs qui relient les serveurs partageant le même
onduleur. Comme l’esclave surveille l’onduleur du maître par réseau, cette surveillance marchera moins bien lors
d’une panne si le switch n’est pas ondulé :). Si l’esclave surveille le maître en l’appelant par son nom et non par
son adresse, on veillera à la disponibilité du service DNS en cas de coupure, et donc faire tourner celui ci sur le
serveur maître.
2. Dans la configuration du logiciel de surveillance, on laissera les batteries de l’onduleur se vider jusqu’à une charge
critique avant de faire tomber le serveur, au lieu de le faire à la moindre coupure : c’est la fonction même d’un
onduleur.
3. De nombreux tests seront nécessaires pour vérifier que tout fonctionne bien, en particulier le retour des serveurs
en fonction suite au rétablissement de l’alimentation.
8.1.1
Configuration de nut en mode maître
Nut se comporte en mode client / serveur même sur un seul ordinateur : le serveur s’appelle upsd, c’est lui qui
obtient les informations sur l’état des batteries par le port série. Le client, lui, s’appelle upsmon, il s’authentifie auprès
d’upsd, surveille l’onduleur et provoque l’arrêt du serveur, puis de l’onduleur lui même.
La version 0.47 de Debian Woody est maintenant obsolète et ne permet pas de communiquer avec les versions
ultérieures, 1.4 et 2.0 (qui sont par contre compatibles entre elles). Pour un serveur en Woody, on préférera la version
mise à disposition par MGE79 , en ajoutant dans le fichier /etc/apt/sources.list, pour PC i386 :
deb http://www.logic.at/debian/ i386/
« Apt-get install nut » doit ainsi installer une version 1.4 ou supérieure. Pour Sarge ou Sid, la version présente dans
Debian convient, mais on pourra se référer au site officiel80 qui propose des packages à travers une source spécifique.
Voici la configuration de Nut dans sa version 1.4. On considère que sur le système maître, un câble série relie le
serveur, port ttyS0 ou COM1, à un onduleur de marque APC, modèle Smart UPS 700.
En principe, un répertoire /etc/nut a été crée vide de toute contenu. On copiera l’ensemble des fichiers de
/usr/share/doc/nut/exemples dans /etc/nut en décompressant ceux qui en ont besoin, typiquement upsmon.conf.
On dispose ainsi de quatre fichiers :
– ups.conf : l’onduleur lui même
– upsd.conf : le démon qui surveille l’onduleur par le câble
– upsd.users : les utilisateurs du démon et leur authentification
– upsmon.conf : le client qui, une fois authentifié, provoquera les actions sur le serveur et l’onduleur en fonction
des informations que lui communique le démon
Le fichier README.Debian fourni avec le documentation explique très clairement, en anglais, la configuration
complète de tout le système. En voici un résumé.
1. Tester, sous root, le bon fonctionnement du pilote de l’onduleur à travers le câble série. Les pilotes se trouvent
dans /lib/nut, on pourra faire le test de cette manière :
[root@andromede[ttypts/1]# /lib/nut/apcsmart /dev/ttyS0
Network UPS Tools - APC Smart protocol driver 0.60 (0.45.5)
Detected SMART-UPS 700 [QS0237332128] on /dev/ttyS0 (level 3)
78 l’USB
est implémenté dans les dernières versions mais risque de poser des problèmes de compatibilité.
://eu1.networkupstools.org/packages.html
80 http ://eu1.networkupstools.org/
79 http
31
2. L’onduleur répond parfaitement, nous pouvons donc donner les droits au groupe nut sur le port série de cette
manière :
crw-rw----
1 root
nut
4,
64 Mar 28 20:01 /dev/ttyS0
3. Commençons par déclarer notre onduleur dans ups.conf avec cette section :
[myups]
driver = apcsmart
port = /dev/ttyS0
4. Le fichier /etc/nut/upsd.conf permet de définir les listes de contrôle d’accès (ACLs). Nous commençons donc
par les définir, en leur donnant un nom : localhost pour le loopback, seul pour le moment.
ACL all 0.0.0.0/0
ACL localhost 127.0.0.1/32
Puis nous allons autoriser un accès complet pour la machine locale :
ACCESS grant monitor localhost
ACCESS deny all all
Dans nut version 2, upsd.conf demande ceci, nettement plus simple :
ACCEPT localhost
REJECT all
5. Il faut maintenant déclarer des utilisateurs du daemon upsd dans le fichier upsd.users, et leur donner des permissions. Nous allons créer l’utilisateur admin :
[admin]
password = monpassword
allowfrom = localhost
actions = SET FSD
instcmds = ALL
upsmon master
Cet utilisateur a le droit de tout faire sur l’onduleur, y compris lui envoyer des commandes. On notera la ligne
upsmon master qui est très mal indiquée dans la documentation du logiciel, bien qu’elle soit absolument requise
pour que le système fonctionne. La ligne allowfrom n’indique pas le nom des machines autorisées pour
admin, mais celui des ACLs du fichier upsd.conf.
6. Nous pouvons maintenant configurer le logiciel client qui va interroger le démon et déclencher des actions sur le
serveur en cas de panne de courant. On indiquera dans upsmon.conf ceci :
MONITOR myups@localhost 1 admin monpassword master
7. Tous les fichiers de configuration doivent avoir les permissions 600 et appartenir à nut, groupe root.
8. On s’assurera enfin de la présence d’un fichier /etc/default/nut, où déclarer le démarrage du client et du serveur.
On peut passer très longtemps à essayer de démarrer le service s’il est déclaré off dans ce fichier :).
8.1.2
Démarrage du service et test de son bon fonctionnement
On peut maintenant démarrer nut et observer dans les logs le démarrage du serveur et l’authentification immédiate
du client :
May
May
May
May
May
May
31
31
31
31
31
31
12:56:11
12:56:11
12:56:12
12:56:12
12:56:12
12:56:12
andromede
andromede
andromede
andromede
andromede
andromede
apcsmart[31071]: Startup successful
upsd[31072]: Connected to UPS [myups]: apcsmart-ttyS0
upsd[31073]: Startup successful
upsmon[31075]: Startup successful
upsd[31073]: Connection from 127.0.0.1
upsd[31073]: Client [email protected] logged into UPS [myups]
Puis on obtiendra au moyen de la commande upsc localhost des informations sur l’état de l’onduleur, qui est ici à
100 % de sa charge et dont les batteries datent du 14 Septembre 2002 :
32
[root@andromede[ttypts/1]# upsc localhost
host: localhost
MODEL: SMART-UPS 700
SERIAL: QS0237332128
STATUS: OL
UTILITY: 237.9
BATTPCT: 100.0
ACFREQ: 50.00
LOADPCT: 031.2
BATTVOLT: 27.74
OUTVOLT: 237.9
UPSTEMP: 041.8
UPSIDENT: UPS_IDEN
LOWXFER: 196
HIGHXFER: 253
WAKEDELAY: 000
LINESENS: H
GRACEDELAY: 020
RTHRESH: 00
ALRMDEL: 0
BATTDATE: 09/14/02
MFR: APC
8.1.3
Configuration d’un client sur le réseau
Nous désirons maintenant faire en sorte qu’un second ordinateur branché sur le même onduleur en surveille également l’état des batteries de manière à pouvoir s’éteindre lui aussi proprement en cas de coupure, bien que ne pouvant
surveiller l’état de son alimentation par le port série. Il s’agit donc d’un ordinateur esclave du premier, le maître.
Sur le maître, commençons par ajouter une ACL autorisant l’adresse IP de notre esclave dans le fichier upsd.conf :
ACL esclave 192.168.28.1/32
ACCESS grant monitor esclave
( « ACCEPT localhost esclave », toutes les ACLs sur la même ligne, dans Nut version 2).
Nous ajoutons ensuite un utilisateur d’upsd dans le fichier upsd.users, à la suite d’admin :
[kirk]
password = spock
allowfrom = esclave
upsmon slave
(répétons que allowfrom pointe sur les ACLs ci dessus et non sur un nom de machine).
Sur l’esclave :
– Copier et décompresser le fichier de configuration d’upsmon, qui se trouve dans /usr/share/doc/nut/exemples,
dans /etc/nut.
– Déclarer dans ce fichier le nom de l’onduleur (myups), la machine sur laquelle upsd l’observe (andromede), le
nombre d’onduleurs à surveiller (1), le nom d’utilisateur (kirk), le mot de passe permettant de s’authentifier
auprès de cet upsd (spock) et le statut (slave) de notre client :
MONITOR myups@andromede 1 kirk spock slave
– Ne pas oublier dans /etc/default/nut de bien démarrer upsmon, et de ne pas démarrer upsd ; donner les permissions 600 au fichier de configuration d’upsmon, qui doit appartenir à nut, groupe root.
Redémarrer nut sur le maître et sur l’eslave ; les logs du maître doivent indiquer une connexion réussie depuis
l’adresse IP de l’esclave, depuis lequel il est possible de consulter l’état des batteries par la commande « upsc
myups@andromede ».
Des configurations plus évoluées sont documentées (on consultera en particulier la FAQ), des tests s’imposent
afin de s’assurer que tout se passe normalement et que les serveurs tombent, puis remontent en cas de coupure
prolongée et retour du courant. L’arrêt du serveur est assuré par le script /etc/init.d/halt qui contient la commande
33
« ups-monitor poweroff» ; cette commande provoque une extinction de l’onduleur lui même, temporisée après l’arrêt
du serveur 81 .
En effet, le moment le plus critique est celui ou les serveurs sont tombés mais non éteints électriquement, et
l’onduleur toujours allumé puisqu’il reste un peu de courant dans les batteries. Si à ce moment précis, où l’onduleur
fonctionne encore, le courant revient, les serveurs ne redémarreront jamais tout seuls puisqu’aucun évènement électrique
ne se sera produit. Ils resteront allumés en position d’arrêt. Il faut donc que l’onduleur lui même s’éteigne, même et
surtout s’il est de nouveau alimenté avant vidage complet des batteries, de manière à ce que le retour du
secteur provoque un redémarrage de tout le système, y compris si ce retour a précédé l’arrêt de l’onduleur 82 .
Enfin, dans la plupart des cas, un paramètre du BIOS des ordinateurs détermine ce que doit faire la carte mère lors
du retour de l’alimentation : laisser l’ordinateur éteint, le rallumer ou le remettre dans le dernier état où il se trouvait
avant la coupure ; on mettra un serveur sur la position « always on » sauf cas très particulier.
Les fichiers de configuration de nut v1.483 sont joints à cet article.
8.2
Amanda : sauvegarde en réseau sur bande
Packages requis : dump, amanda-server (sur le serveur), amanda-client (sur toute machine faisant l’objet d’une
sauvegarde)
Au contraire du RAID qui assure une redondance et synchronise immédiatement toute modification d’un fichier
sur plusieurs disques, un système de sauvegarde permet en plus de retrouver certaines données ayant été effacées ou
modifiées par erreur. Sauvegarder, c’est ainsi conserver les états antérieurs d’un travail en plusieurs versions. Restaurer,
c’est se livrer à une sorte de « voyage dans le temps » avec les bandes magnétiques 84 . On disposera au mieux d’un
jeu de bandes pour chaque jour de la semaine, puis d’un jeu de bandes pour chaque semaine, ensuite pour chaque
mois, etc etc... Le volume de sauvegarde devenant vite important, les logiciels évolués procèdent à une sauvegarde dite
incrémentale où seules les modifications des fichiers sont sauvegardées par rapport à une certaine date et un certain
volume.
Un placard blindé :) pour ranger les (nombreuses) bandes, situé loin du local serveur en cas de cambriolage,
incendie, inondation... dépasse largement nos besoins ; mais on déterminera soigneusement le rythme des sauvegardes
et le nombre de bandes en fonction de cette exigence : offrir à nos utilisateurs la possibilité de retrouver leurs données,
altérées ou effacées par maladresse. Nous avons retenu 4 bandes avec une fréquence de sauvegarde hebdomadaire.
Automatic Maryland Advanced Network Disk Archiver est un logiciel libre, serveur de sauvegarde de partitions
de disques durs sur bande magnétique (de type DAT) fonctionnant en réseau, supportant un robot de manipulation
automatique des bandes et un nombre très important de systèmes de fichiers. Amanda ne requiert pas un espace disque
important, mais deux ou trois Go seront bienvenus comme zone de stockage temporaire. Enfin, la précaution la plus
élémentaire pour une sauvegarde consiste à ne jamais sauvegarder des données sur le serveur qui les abrite,
d’où la sauvegarde en réseau.
La configuration d’Amanda n’est pas cauchemardesque :). Schématiquement, elle comprend :
– un fichier par type de sauvegarde (un seul dans notre cas) : amanda.conf
– un fichier très bref définissant les disques à sauvegarder sur le réseau : disklist
– un jeu de fichiers autorisant les diverses machines, clientes et serveurs, à se connecter entre elles pour échanger
leurs données : .amandahosts
Il n’existe à notre connaissance aucune interface graphique à Amanda.
8.2.1
Configuration d’une sauvegarde : le serveur
Sur le serveur, on installe les packages dump et amanda-server qui descend le package amanda-common. Un
utilisateur backup est ajouté au système, propriétaire des fichiers de configuration et du périphérique lecteur de bandes ;
backup lancera les taches de sauvegarde via cron. Attention, ce sera root qui procédera aux restaurations, lancées depuis
les clients avec amrecover, et non backup dont ce n’est pas le travail et qui n’aura pas les droits pour le faire. Toutefois,
on fera toutes les manipulations de cette section sous l’utilisateur backup et non root. Comme le répertoire /usr/sbin,
qui n’est pas dans le PATH de backup, contient toutes les commandes d’Amanda (amcheck, amdump, amlabel, etc..),
il est impossible que backup trouve les commandes qu’il est appelé à utiliser constamment. Pour y remédier, on placera
la ligne « export PATH=$PATH :/usr/sbin » dans le fichier .profile du home de backup (/var/backups) .
81 La documentation du driver, pour notre exemple apcsmart, précise les options des commandes que l’on peut envoyer à l’onduleur, dont
le délai de temporisation de sa propre extinction puisqu’il faut laisser au serveur le temps de s’éteindre proprement ! Cette documentation
est accessible sous forme de page de man, mais normalement la configuration par défaut dispense de rentrer dans de tels détails.
82 Quelques tests peuvent être nécessaires pour bien comprendre le problème, ils auront généralement lieu en temps réel, lors de la première
panne, un dimanche matin la plupart du temps :).
83 http ://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/nut
84 Ce n’est pas un hasard si une des solutions propriétaires les plus connues de sauvegarde s’appelle time navigator.
34
Commençons par vérifier le fonctionnement du matériel et les droits de l’utilisateur backup Celui ci doit faire partie
des groupes disk, tape et backup. Le périphérique de sauvagarde (logiquement un DAT SCSI) s’appelle dev/st0, mais
le périphérique /dev/nst0 sera impérativement utilisé par défaut dans les sauvegardes d’Amanda (il ne rembobine pas
la bande). Ces deux périphériques doivent avoir les permissions suivantes :
crw-rw---crw-rw----
1 root
1 root
tape
tape
9,
0 Mar 14
9, 128 Mar 14
2002 /dev/st0
2002 /dev/nst0
Deux commandes simples permettent de vérifier que backup peut faire fonctionner le lecteur DAT : « mt -f /dev/st0
rewind » et « mt -f /dev/st0 eject ».
Nous allons mettre en place une sauvegarde incrémentale hebdomadaire qui tourne sur 4 bandes, nous offrant
une antériorité d’un mois ; nous l’appellerons config, et la placerons sur le premier serveur où nous avons réservé une
partition pour /var/spool. Nous sauvegarderons les données présentes sur deux machines du réseau, le serveur de
fichiers (pour les données des utilisateurs) et la machine du bureau (pour la gestion du centre de formation), tous les
Vendredis soirs.
Les fichiers définissant la sauvegarde se trouvent dans /etc/amanda/config (où le répertoire config désigne le nom
de notre sauvegarde, que nous allons utiliser en permanence). Créons dans /etc/amanda un répertoire config à coté
de celui qui a été crée à l’installation, dont les permissions sont les suivantes :
drwxr-xr-x
2 backup
backup
4096 Mar 18 20:30 config
Copions dans ce répertoire le contenu du répertoire DailySet1, configuration de sauvegarde par défaut :
– amanda.conf, la quasi totalité de la configuration de la sauvegarde
– disklist, la liste des disques des machines à sauvegarder.
Le fichier /etc/amanda/config/amanda.conf , clairement autodocumenté en anglais, définit notre sauvegarde : il faut en renseigner bien rigoureusement chaque ligne. Nous indiquerons à chaque fois qu’un certain nombre
de répertoires sont à créer manuellement ; il sera judicieux de créer ces répertoires au moment où on les déclare dans
le fichier de manière à ne pas les oublier par la suite.
org "Sauvegardes"
mailto "root"
# your organization name for reports
# space separated list of operators at your site
Pour les rapports envoyés par mail à l’issue de chaque sauvegarde.
dumpuser "backup"
# the user to run dumps under
Clair de soi.
inparallel 4
netusage 95000
# maximum dumpers that will run in parallel
# maximum net bandwidth for Amanda, in KB per sec
A ajuster selon la puissance du serveur et la bande passante du réseau en tenant compte de son occupation à
l’heure où les sauvegardes sont réalisées, d’où l’intérêt de les faire la nuit en utilisant la totalité des 100 Mbits permis
par le switch.
dumpcycle 4 weeks
# the number of days in the normal dump cycle
Durée d’un cycle de sauvegarde
tapecycle 4 tapes
# the number of tapes in rotation
Nombre de bandes en rotation pendant ce cycle.
bumpsize 20 MB
bumpdays
1
bumpmult
4
# minimum savings (threshold) to bump level 1 -> 2
# minimum days at each level
# threshold = bumpsize * (level-1)**bumpmult
L’incrémentalité de la sauvegarde, à affiner à l’usage selon le volume de données sauvegardées et la capacité des
bandes.
#tpchanger "no-changer" # the tape-changer glue script, see TAPE.CHANGERS
35
Tout ce qui parle de « tape changer » concerne un système de robot qui change automatiquement les bandes, qui
peuvent être plusieurs pour une même sauvegarde. Ce sont des systèmes très haut de gamme, nous n’avons qu’un bête
lecteur DAT SCSI.
tapedev "/dev/nst0"
# Linux @ tuck, important: norewinding
Le périphérique de sauvegarde, il est essentiel de ne pas rembobiner la bande. Le périphérique /dev/st0 ne convient
donc pas.
tapetype HP-DDS-4
# what kind of tape it is (see tapetypes below)
Le type de bande utilisée, tel que nous le définirons ci dessous (type HP-DDS-4).
labelstr "^config[0-9][0-9]*$"
# label constraint regex: all tapes must match
Le nom que nous donnerons à nos bandes, qui s’appelleront impérativement config01, config02, etc...
diskdir "/var/spool/backup"
# where the holding disk is
Le répertoire du disque dur que nous utiliserons comme zone de stockage temporaire pendant la sauvegarde, avant
l’écriture proprement dite sur la bande. Deux lignes plus bas, on remarque que plusieurs disques de ce type peuvent
être définis.
disksize 2000 MB
# how much space can we use on it
La quantité d’espace disque utilisable pour ce répertoire qui n’est pas nécessairement une partition, on peut le
partager avec d’autres spools. Ce répertoire devra être crée à la main avec les permissions suivantes :
drwxr-xr-x
3 backup
backup
4096 Mar 25 20:30 /var/spool/backup
infofile "/data/amanda/curinfo" # database filename
logfile "/data/amanda/config/log"
# log filename
L’emplacement de la base de données des fichiers sauvegardés, leur historique, etc.
indexdir "/data/amanda/config/index"
L’emplacement des fichiers d’index (la liste de ce qui est sauvegardé).
Quelques Mo sont nécessaires pour cette base de données, il n’est pas pertinent en cas d’occupation disque importante de placer cela à coté des fichiers de configuration. Ce répertoire, crée à la main, a ces permissions :
drwxrwx---
5 backup
backup
4096 May 13
2004 /data/amanda
On créera ensuite, dans ce répertoire, un sous répertoire qui portera le nom de notre sauvegarde (config). L’arborescence de ce sous répertoire sera, elle, créée automatiquement lors de la première sauvegarde, avec un message
d’avertissement lors de la vérification de la configuration (commande amcheck ).
Cette base de données est essentielle au fonctionnement d’Amanda, puisqu’elle contient l’index des fichiers qui
ont été sauvegardés et la bande où ils se trouvent. C’est la raison pour laquelle il ne faut jamais sauvegarder un
disque sur lui même, de manière à préserver cette base de données en cas de crash disque. La documentation
indique toutefois une procédure de restauration, indiquée comme particulièrement chaude :), même en ce cas (cf.
/usr/share/doc/packages/amanda-common/RESTORE.gz ).
Vient ensuite une longue liste de définitions de types de bandes magnétiques, il est fort probable que cette liste ne
comprendra pas celles qui ont été achetées avec le lecteur DAT :). La commande tapetype, au traitement extrèmement
long, permet de générer une description de bande pour Amanda. On trouve facilement avec Google une définition
des caractéristiques de nos bandes fournie par d’autres utilisateurs. Le rapport reçu par mail à l’issue de la première
sauvegarde permettra de vérifier la conformité de la définition des bandes dans Amanda avec leur capacité réelle.
Voici une entrée pour les bandes de notre lecteur DAT trouvée en quelques instants sur Internet :
define tapetype HP-DDS-4 {
length 17021 mbytes
filemark 403 kbytes
speed 1578 kps
}
36
Vient enfin la définition proprement dite de la sauvegarde que nous allons réaliser. L’auto documentation du
fichier expose les différentes options avec un nombre conséquent d’exemples. Nous allons définir un nouveau type de
sauvegarde que nous appellerons « hebdo » :
define dumptype hebdo {
compress-best
priority high
index
}
Nous compressons le mieux possible puisque nous disposons du temps pour le faire (il y a peu de stagiaires ou
d’élèves la nuit :) ) ; l’option index précise que nous voulons que la liste des fichiers sauvegardés soit indexée. Enfin
la priorité est définie comme haute, elle pourrait être mise à « low » ou « medium » par rapport à d’autres disques
que nous sauvegarderions en même temps, mais avec un autre type de sauvegarde car ces disques seraient jugés plus
importants. La différence est que plus une sauvegarde est importante, plus elle sera prioritaire dans l’occupation de
l’espace disque temporaire, ce qui est très utile en mode dégradé, lorsque le lecteur n’est pas disponible (vraisemblablement parce qu’on a oublié de changer la bande) et que tout va rester sur le disque en attendant un dump définitif
(commande amflush).
Le fichier /etc/amanda/config/disklist contient la liste des disques85 que nous désirons sauvegarder, le fichier
documente lui même abondamment le type de partitions prises en charge, y compris vfat. La syntaxe est simple : on
indique sur une ligne le nom de la machine, la partition à sauvegarder et le type de sauvegarde tel que défini en dernier
dans le fichier amanda.conf. Pour nous :
abraracourcix
abraracourcix
ash
hda5
sda4
sdb1
hebdo
hebdo
hebdo
C’est tout ! :)
Les fichiers de configuration peuvent être consultés à cette adresse86 .
8.2.2
Configuration d’une sauvegarde : les clients
Amandad, logiciel client du serveur Amanda, est lancé automatiquement sur chaque machine cliente (celles dont on
désire sauvegarder une partition) par le serveur en tant que service d’inetd dès que démarre la sauvegarde. L’installation
du package amanda-client a placé cette ligne dans le fichier etc/inetd.conf :
amanda dgram udp wait backup /usr/sbin/tcpd /usr/lib/amanda/amandad
Il faut cependant que chaque machine, serveur comme cliente, soit autorisée à communiquer avec les autres pendant
la sauvegarde mais également pendant la restauration. Ces autorisations sont définies dans les fichiers .amandahosts situés dans le répertoire personnel de l’utilisateur backup (/var/backups) sur chaque machine. La syntaxe de
ces fichiers peut donner lieu à un certain énervement :), et requiert de bien comprendre qui accède à quelle machine,
en tant que root ou en tant que backup (rappellons que root seul peut restaurer mais ne doit pas sauvegarder).
Sur le serveur de sauvegarde andromede, cette configuration est requise si nous sauvegardons les machines abraracourcix et ash, puisque backup réalise la sauvegarde et root assure la restauration :
localhost backup
abraracourcix.mp-soa.net root
abraracourcix.mp-soa.net backup
ash.mp-soa.net root
ash.mp-soa.net backup
Sur une machine cliente, il suffira d’indiquer :
localhost backup
andromede.mp-soa.net backup
85 plus
86 http
exactement des partitions
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/amanda
37
8.2.3
La première sauvegarde et restauration
Nous pouvons formater une bande qui va nous servir de test pour la sauvegarde « config », que nous allons appeler
« config01 », au moyen de la commande amlabel config config01. Si cette bande a déjà été utilisée dans la même
sauvegarde, on pourra forcer son effacement au moyen de l’option -f.
La commande amcheck config, lancée en tant que backup sur le serveur, nous permet de tester la validité de la
sauvegarde que nous avons appelée « config ». En voici une sortie correcte :
andromede:~$ amcheck config
Amanda Tape Server Host Check
----------------------------Holding disk /data/backup: 2963940 KB disk space available, that’s plenty
NOTE: skipping tape-writable test
Tape config01 label ok
Server check took 8.637 seconds
Amanda Backup Client Hosts Check
-------------------------------Client check: 2 hosts checked in 0.101 seconds, 0 problems found
Tous les problèmes seront indiqués très clairement : bande absente, non valide, machine indisponible ou avec laquelle
il est impossible de communiquer, etc etc... La documentation du package amanda-common contient une FAQ qui
détaille les problèmes les plus courants (en particulier une entrée d’inetd.conf incorrecte ou un fichier .amandahosts
mal renseigné). Les logiciels composant Amanda créent des fichiers temporaires portant leurs noms dans /tmp, ils
apportent une aide majeure pour debugguer.
Lorsque tout est correct, il suffit de lancer une sauvegarde de test avec la commande « amdump config ». On voit le
système rendre tout de suite la main, les démons amandad se lancer sur les machines clientes et appeler les utilitaires
de backup, de compression et d’envoi par réseau de la sauvegarde. Sur le serveur, le répertoire /var/spool/backup
se remplit de fichiers temporaires qui grossisent en taille, puis vont être écrits sur la bande. Lorsque tout est fini,
l’utilisateur défini dans la sauvegarde reçoit un mail qui l’informe du déroulement des opérations et des statistiques de
la sauvegarde, en particulier les pourcentages d’occupation des bandes et les taux de compression. Le message précise
en premier lieu le nom de la prochaine bande qu’attend Amanda.
Nous pouvons donc tester le fonctionnement de la restauration avec l’utilitaire amrecover.
Il y a deux utilitaires de restauration : amrestore permet de restaurer l’ensemble d’une partition qui a été détruite ou
altérée, ce que le RAID est là pour éviter. D’autre part l’utilitaire amrecover permet de restaurer simplement certains
fichiers qui ont été perdus ou altérés par maladresse. C’est la raison pour laquelle nous faisons des sauvegardes.
Amrecover sera lancé en tant que root (et non backup) sur la machine cliente, à la racine du système de
fichiers où se trouve ce que l’on veut restaurer. Imaginons que nous fassions un test sur le fichier galantine.sxi,
effacé par mégarde du répertoire « /home/formateurs » sur la machine abraracourcix. Nous nous loggons donc en root
sur notre serveur de fichiers et nous nous plaçons dans le répertoire /home, puisque c’est cette partition que nous
avons sauvegardée (voir les définitions placées dans le fichier disklist). Si on lançait amrecover dans le home de root
pour restaurer des fichiers de /home, les fichiers restaurés apparaîtraient dans le home de root où serait recréée toute
l’arborescence des fichiers restaurés. Amrecover prévient tout de suite très clairement de ce genre d’erreur :
WARNING: not on root of selected filesystem, check man-page!
La documentation d’amrecover précise comment le lancer, il vaut mieux lui préciser, en plus du nom de la sauvegarde, comment s’appellent le serveur, le serveur de bandes et le périphérique DAT :
[root@abraracourcix[ttypts/0]/home]# amrecover -C config
\ -s andromede -t andromede -d /dev/nst0
AMRECOVER Version 2.4.2p2. Contacting server on andromede ...
220 andromede AMANDA index server (2.4.2p2) ready.
200 Access OK
Setting restore date to today (2005-03-28)
200 Working date set to 2005-03-28.
200 Config set to config.
200 Dump host set to abraracourcix.
$CWD ’/home’ is on disk ’sda4’ mounted at ’/home’.
38
200 Disk set to sda4.
/home
amrecover>
Le prompt amrecover> offre un certain nombre de commandes listées par help. L’équivalent des classiques pwd, ls
et cd nous permettent de nous déplacer et de localiser le fichier que nous cherchons de cette manière :
amrecover> pwd
/home
amrecover> cd formateurs
/home/formateurs
amrecover> ls
2005-03-18 .
2005-03-18 galantine.sxi
2005-03-18 savNT/
2005-03-18 softs/
Nous retrouvons l’arborescence familière de notre système de fichiers, « galantine.sxi » est bien présent. Nous allons
l’ajouter, pour extraction de la bande et restauration sur le disque :
amrecover> add galantine.sxi
Added /formateurs/galantine.sxi
Il est alors possible de parcourir encore le système de fichiers, voire d’en changer, et d’ajouter avec add d’autres
contenus à restaurer. La commande extract permet de commencer à restaurer :
amrecover> extract
Extracting files using tape drive /dev/nst0 on host andromede.
The following tapes are needed: config03
Restoring files into directory /home
Continue? [Y/n]:
La ou les bandes nécessaires sont indiquées clairement, il faudra les introduire successivement dans le lecteur. La
restauration démarre, elle n’est pas spécialement rapide car le DAT va devoir relire les bandes. Cela peut prendre
largement plus d’une demi heure pour une restauration importante.
8.2.4
Paramétrage de la sauvegarde hebdomadaire
Dès que les tests ont été concluants, on peut mettre en place la procédure hebdomadaire définitive, c’est le dernier
point de la FAQ. Il faut effacer à la main le contenu du répertoire « holding disk » (normalement, il est vidé automatiquement) et surtout la base de données des fichiers sauvegardées (/data/amanda). Reste à formater les bandes au
moyen de amlabel, que nous appellerons config01, config02, config03 et config04. Deux entrées de crontab suffiront à
prévenir l’administrateur d’une erreur le Vendredi à midi, puis à démarrer la sauvegarde le Vendredi soir à 20 heures
30 :
0 12 * * 5 /usr/sbin/amcheck -m config > /dev/null
30 20 * * 5 /usr/sbin/amdump config > /dev/null
Amanda propose d’autres utilitaires, par exemple amrmtape qui efface tout le contenu d’une bande de la base de
données ; toutes ces commandes sont trouvées par complétion sur les lettres am, tout simplement. Leur documentation,
très simple, brève et intelligible, est en anglais.
Mentionnons la commande amflush : elle poursuit une sauvegarde inachevée car la bande requise n’était pas dans
le lecteur, surement parce qu’on avait oublié de la changer. L’administrateur aura été prévenu par mail de cet échec.
L’appel d’amflush vide le répertoire de stockage temporaire en le passant sur la bande, puis un mail est envoyé à
l’administrateur.
39
8.3
Partimage : sauvegarde des machines
Packages requis : partimage-server, partimage (installation très particulière).
Le logiciel de sauvegarde Partimage permet de sauvegarder des partitions de disques durs, localement sur une
machine, ou en envoyant la sauvegarde sur un serveur. Son intérêt est de restaurer rapidement un système d’exploitation
et l’ensemble des logiciels installés lorsque ce système a été altéré par de mauvaises manipulations, ce qui demeure
assez rare dans le cas de stations Unix.
Notons cependant que sur les machines clientes, il n’y a en principe que le système Debian et que toutes les
données des utilisateurs, c’est à dire tout ce qu’ils peuvent modifier, se trouve sur un serveur, exporté par NFS. On
observera que Debian ne présente pas de problème d’altération et de dégradation avec le temps, outre qu’il n’y a pas de
virus. Partimage sera donc pertinent pour sauvegarder un OS propriétaire qui cohabiterait avec Debian GNU/Linux,
comme si on faisait une photo à un instant t d’un état sain de ces systèmes fragiles, peu adaptés au fonctionnement
multi utilisateurs, qui demandent des droits exorbitants pour faire fonctionner des logiciels triviaux ou se servir d’un
périphérique aussi commun qu’un scanner ou une imprimante, et qui se dégradent avec le temps.
Le problème de Partimage est que ses diverses versions communiquent mal entre elles, en particulier la version
woody sur nos serveurs et la version plus récente en Sarge ou mieux Sid. Le chiffrement SSL des données n’est pas
implémenté, ou pas de la même manière, et le client partimage de sid, au mieux refuse de communiquer avec le serveur
en woody, au pire le fait planter. Il est particulièrement lourd (en raison de très nombreuses librairies de développement
à installer) et surtout pas forcément possible de compiler pour le serveur la dernière version disponible à partir des
sources. La solution la plus simple, certes peu élégante, consiste à installer partimaged (le package serveur) sur un
ordinateur en sid et de copier le binaire /usr/sbin/partimaged sur l’ordinateur qui sera serveur partimage à la place
du binaire original.
D’autre part, le démarrage de partimaged pose problème puisqu’il semble qu’il sauvegarde les images qu’il reçoit
du réseau non pas dans le répertoire spécifié dans son fichier de configuration mais à l’endroit du système où on l’a
invoqué depuis la ligne de commande. Il vaut mieux donc le lancer à la main dans le répertoire où sont stockées les
images des disques.
Pour récapituler :
1. Installer le package partimage-server sur le serveur (woody) et un client (sid).
2. Copier le binaire /usr/sbin/partimaged de la station sur le serveur
3. Créer sur le serveur un répertoire pour les images des disques (par exemple /data/images)
4. Indiquer sur le serveur, dans le fichier /etc/partimaged/partimagedusers (qui n’existe peut être pas), le nom de
l’utilisateur qui va envoyer les images depuis les clients (pour nous root). Cet utilisateur devra disposer du droit
d’écrire dans le répertoire qu’on vient de créer.
5. Se placer dans ce répertoire de sauvegarde, lancer le démon au moyen de la commande /usr/sbin/partimaged -d.
Vérifier qu’il tourne au moyen de la commande ps aux |grep partimage.
6. Sur une station, sous root, lancer le client avec la commande partimage qui appelle l’interface ci dessous, et
tester l’envoi d’une sauvegarde sur le serveur. De nombreuses options sont disponibles, la principale étant la
compression de l’image. Le meilleur choix pour un rapport optimal temps / occupation disque est gzip. L’image
doit arriver progressivement dans le bon répertoire sur le serveur à la vitesse du réseau
7. Tester une restauration, en lançant l’utilitaire partimage sur le client et en se laissant guider par l’interface très
intuitive. L’image de la machine asterix s’appelle asterix.000, on vérifiera le nom du fichier sur le serveur en cas
de doute.
Sur un réseau switché à 100 Mbits, la sauvegarde comme la restauration d’une partition d’environ 3 Go compressée
avec gzip demande très approximativement une vingtaine de minutes.
40
Notons enfin qu’existent des CDs bootables qui intègrent un client partimage permettant de faire une sauvegarde
complète de la machine en réseau mais également sur le disque local. C’est le cas de CDRescue87 .
8.4
Webmin, administration simplifiée et création de comptes
Packages requis : webmin, libnet-ssleay-perl pour l’authentification SSL, plus un package par service réseau à
intégrer en tant que module (« apt-cache search webmin »). La dernière version contenant l’intégralité du logiciel et
tous les modules est disponible sur le site officiel88 , elle ne dispense pas de l’installation des librairies Perl SSL.
L’installation de la version complète est très simple : on détarre l’archive téléchargée dans un répertoire, typiquement
usr/local/, puis le script setup.sh s’occupe de détecter lui même le système Unix installé (une énorme variété d’entre
eux sont supportés, pas seulement les diverses versions de GNU/Linux) ; il pose ensuite un certain nombre de questions
très claires comme son activation au boot ou le login et password de son administrateur. On accède à l’interface de
webmin au moyen d’un navigateur quelconque à l’URL https ://nom-de-machine :10000
Note importante : nous nous inscrivons absolument contre l’opinion qui voudrait que webmin puisse
constituer une sorte d’interface graphique à l’administration d’un serveur, qui dispenserait d’une certaine maîtrise de l’administration système et réseau. Cliquer partout dans un navigateur en espérant obtenir
des résultats satisfaisants alors qu’on ne connaît quasiment rien au logiciel serveur qu’on est en train de massacrer
conduira au mieux à des dysfonctionnements sérieux, au pire à la réinstallation complète du serveur.
Les avantages de webmin sont tout de même indéniables, spécifiquement pour un centre de formation où des droits
sont à déléguer à des formateurs qui disposent de compétences limitées dans l’administration Unix. Webmin permet
en effet de
– Créer ses propres utilisateurs seulement pour certains modules : on permettra à certains formateurs de créer des
comptes pour leurs stagiaires.
– Synchroniser très simplement les utilisateurs Unix et les éventuels utilisateurs Samba (ajout automatique d’une
entrée dans le fichier /etc/samba/smbpasswd, effacement du répertoire de profil lorsque le compte est supprimé...).
– Créer et supprimer des utilisateurs par lots au moyen de fichiers batch, extrêmement pratique pour les utilisateurs
occasionnels d’un centre de formation : en quelques secondes, on efface les utilisateurs de la veille qui ont modifié
leur répertoire personnel pour régénérer ces mêmes comptes le matin... On trouvera à cette adresse89 un batch
de création de 13 comptes et un autre batch permettant de les effacer.
Nous plaçons volontairement tous les utilisateurs dans le groupe primaire « users » et non dans un groupe à leur
nom pour simplifier le paramétrage des droits sur les périphériques des stations de travail, en particulier la carte son.
L’utilisateur « basique » de notre réseau étant par définition un stagiaire, il n’est pas necessaire de créer un groupe
spécifique. On pourra faire cela pour un utilisateur dont on désirerait restreindre encore les droits ; par contre nous
placerons les formateurs dans un groupe supplémentaire et nous leur réserverons certains partages réseau.
87 http
://www.sysresccd.org/index.fr.php
://www.webmin.com/
89 http ://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/webmin/
88 http
41
8.5
Les statistiques d’usage du réseau et des serveurs
Cet article ne développe pas un point pourtant important : comment obtenir des statistiques d’utilisation des
serveurs, du réseau et de la ligne ADSL qui permettent également d’etre averti par simple consultation d’une page
web d’un éventuel problème, comme un disque presque plein ou un CPU trop occupé ?
Il existe deux logiciels principaux pour cet usage, qui s’appuient tous deux sur une installation de SNMP sur les
ordinateurs (ou routeurs) que l’on désire surveiller à distance.
Le premier est le classique MRTG90 . Le site linux-sottises.net propose une description complète de l’installation
et de la configuration91 et propose des scripts et exemples permettant de concevoir à son tour de simples scripts pour
surveiller à peu près n’importe quoi tant est grande la versatilité de MRTG.
Cacti92 est d’apparition plus récente, et constitue une bonne solution de surveillance du réseau. Il sera apprécié
par ceux qui manquent de goût ou de temps pour la conception de scripts MRTG puisqu’il est possible de définir ce
que l’on désire surveiller dans l’interface web de pilotage elle même. Ce didacticiel93 présente une installation rapide
de Cacti, tandis que cet article94 détaille un peu plus la configuration, en particulier concernant net-SNMP (sous Free
90 http
://people.ee.ethz.ch/ oetiker/webtools/mrtg/
://www.linux-sottises.net/mrtg.php
92 http ://www.cacti.net/
93 http ://www.trustonme.net/didactels/191.html
94 http ://www.alphacore.net/spip/article.php3 ?id_article=47
91 http
42
BSD).
9
L’installation de la première station de travail
Nous pouvons finalement passer au cœur du problème, l’installation de stations de travail sous système d’exploitation libre.
Un serveur doit être tout à fait transparent pour l’utilisateur qui n’en entend même jamais parler. Par contre, une
pénétration efficace du logiciel libre dans les pratiques les plus courantes des gens passe nécessairement par l’ordinateur
que l’on utilise au quotidien. La mise en place de systèmes d’exploitation libres sur ces machines clientes montrera une
alternative complète aux environnements propriétaires (et pas seulement à quelques logiciels dont la bureautique),
outre un fonctionnement en réseau bien supérieur à ce que connaissent les administrateurs de parcs entiers de machines
dans les établissements scolaires :
– Strict respect de la loi en matière de piratage de logiciels, exigé en tout premier lieu des enseignants dont le
premier devoir est de se montrer exemplaires
– Systèmes stables dans la durée qui ne se dégradent pas au cours d’installations et de désintallations multiples de
logiciels
– Absence de virus
– Impossibilité pour un utilisateur d’installer des logiciels souvent indésirables, que ces utilisateurs soient des
formateurs ou des stagiaires, des élèves ou leurs professeurs
– L’environnement complet de l’utilisateur le suit partout : il retrouve son courrier à l’identique sur n’importe
quelle machine avec toutes ses données, les préférences qu’il a définies pour ses logiciels, etc...
– Système conçu depuis le départ pour des utilisateurs multiples, pas de droits exorbitants pour utiliser telle ou
telle fonctionnalité (composant matériel, logiciel, etc...)
– Installation et mise à jour extrêmement simple de centaines de logiciels et du système lui même à travers Internet
– Pas de gestion, quasiment impossible à faire en pratique, des licences installées
– Possibilité de s’insérer et de participer, à la mesure de chacun, aux communautés de développement de ce que
l’on utilise, à commencer par la demande de fonctionnalités et le rapport de bugs
– Gratuité.
9.1
9.1.1
Rappels sur l’installation d’une machine cliente
Debian Sid
Nous conseillons la distribution Debian Sid, ou instable, qui fonctionne très bien malgré cette dénomination et
intègre dans un délai raisonnable les dernières versions des logiciels95 .
Pour disposer de Sid, après une installation basique de Debian, il suffit d’éditer le fichier /etc/apt/sources.list pour
y déclarer la distribution sid dans toutes les lignes, en accrochant la machine sur le proxy de packages ou le miroir
Debian dont le réseau dispose maintenant (il faudra lui adjoindre quelques backends, pour Agnula, mplayer, etc...)
Nous fournissons un fichier sources.list complet en section 2.4, et la section 2.2 précise comment partitionner le disque
d’une station.
L’installeur Sarge permet d’avoir tout de suite un kernel 2.6 et paramètre correctement les locales françaises par
défaut. On laissera de côté Tasksel et Dselect pour maitriser ce qui va effectivement être installé par les dépendances
d’apt-get.
Il est inutile de créer un utilisateur sur la machine puisque nous allons immédiatement l’intégrer au réseau et ainsi
utiliser les comptes du serveur. Mais avant tout déploiement, le plus important est de bien vérifier l’environnement
francais dans tous les logiciels et environnements graphiques.
9.1.2
Paramétrage d’un environnement français
Normalement, le système parle en français : la commande printenv LANG doit renvoyer fr_FR@euro au moins
aux utilisateurs si ce n’est à root. Si tel n’est pas le cas avec l’installeur Sarge, cela vient d’une mauvaise manipulation
pendant l’installation. Voici la procédure de configuration des locales françaises :
– apt-get install locales language-env
– prendre au minimum fr_FR ISO-8859-1 et fr_FR@euro ISO-8859-15 ( conseillé par défaut) dans l’interface
debconf.
– sous root, « set-language-env -E -l fr et répondre oui à toutes les questions
95 Attention, Sid fonctionne bien mais bouge très rapidement, des mises à jour sont disponibles quotidiennement. Il arrive donc que
certaines choses ne fonctionnent pas ou que certaines dépendances soient brisées. Le package apt-listbugs prévient de cela avant installation
ou mise à jour.
43
Pour configurer les locales à la main, après installation du package locales :
– echo fr_FR ISO-8859-1 » /etc/locale.gen
– echo fr_FR.UTF-8 UTF-8 » /etc/locale.gen
– echo fr_FR@euro ISO-8859-15 » /etc/locale.gen
– locale-gen
– set-language-env -E -l fr
– echo "LANG=fr_FR@euro" » /etc/environment (il est bon de vérifier le contenu de ce fichier après paramétrage
automatique des locales).
Le package « localepurge » permet d’effacer automatiquement les fichiers de localisation non utilisés à la fin de
l’installation d’un logiciel. L’espace disque libéré est considérable, de l’ordre de plusieurs dizaines de Mo voire nettement
plus.
Les logiciels s’afficheront dans la langue de Molière, s’ils sont traduits bien entendu, à l’exception notable des plus
gros d’entre eux qui demandent d’un package séparé : KDE, Mozilla (Firefox) et Open Office.org.
Les pages de man s’affichent en français si elles sont traduites et que le package manpages-fr est installé.
KDE parle français avec le package kde-i18n-fr.
Open Office.org en français demande le package openoffice.org-help-fr openoffice.org-l10n-fr. Pour l’intégration à
gnome : openoffice.org-gnomevfs et pour l’intégration à KDE : openoffice.org-kde.
Dictionnaire francais : myspell-fr-gut.
Enfin, Mozilla Firefox est localisé par le package mozilla-firefox-locale-fr-fr.
9.2
Un kernel linux pour machines multimédia
Il est souhaitable d’installer une version récente du kernel linux, si possible optimisée pour la machine et le matériel
qu’elle est appellée à faire fonctionner. Compiler un kernel soi même n’est pas absolument nécessaire, mais cela fait
partie des choses qu’il est bon de savoir faire soi même.
Ce document96 expose dans le détail la procédure de compilation d’un kernel 2.6 optimisé « temps réel » pour le
multimédia, en particulier pour la Musique Assistée par Ordinateur. La compilation avec les outils Debian procure un
package installable sur d’autres machines (en tenant compte de l’hétérogénéité du parc), qu’on pourra diffuser sur le
réseau au moyen du script exposé en section 10.3 et installer en une seule ligne de commande sur chaque ordinateur.
9.3
Intégration de la machine au réseau
9.3.1
Clients NIS et NFS
L’intégration d’une machine cliente aux services NIS et NFS est extrêmement simple.
Pour NFS, installer nfs-common, qui installera le portmapper et les logiciels complémentaires (le démon lockd en
particulier). Le montage du home au boot de la station se fait en ajoutant cette ligne dans etc/fstab :
abraracourcix:/home
/home
nfs
nosuid,intr,hard
0
0
Pour NIS, debconf demande à l’installation quel est le nom du domaine nis et prévient que la machine a besoin
de davantage de configuration. Les détails sont expliqués dans le fichier README.Debian, mais il suffit de rajouter «
+ : : : : : : » en bas du fichier /etc/passwd et « + : : : » en bas de /etc/group pour que la machine soit cliente NIS.
Bien entendu, de nombreuses options à propos de ces deux lignes sont documentées.
Il suffit de faire le montage NFS à la main et de redémarrer NIS pour vérifier qu’un utilisateur crée sur le serveur peut
s’authentifier sur la machine et disposer de ses fichiers. On vérifiera bien entendu que tout fonctionne normalement
au boot de la machine ; un problème fréquent est de voir le montage NFS ne pas se faire à cause d’un délai trop
important : cela provient très probablement d’un reverse DNS mal configuré. Ce problème est extrêmement
fréquent et classique.
On pourra se référer à la section 2.5, « logiciels complémentaires », pour affiner l’installation basique à laquelle
nous venons de procéder avant de passer à l’installation des composants d’une véritable station de travail.
9.3.2
Clients LDAP
Rappelons que la solution la plus simple pour disposer d’un annuaire LDAP pour établissement scolaire demeure
SambaEdu 397 . Le paramétrage d’un client LDAP qui permet de s’authentifier sur un annuaire n’est pas aussi trivial
qu’un client NIS, mais il demeure très accessible.
96 http
97 http
://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=180
://www.crdp.ac-caen.fr/se3/
44
Deux librairies doivent être installées avec apt-get : libnss-ldap, lippam-ldap (le cache nscd est optionnel). Debconf
pose de nombreuses questions pendant leur configuration, on prendra les choix par défaut, à l’exception de ce qui
concerne le base DN de l’annuaire (dans SambaEdu : configuration générale, paramètres LDAP, Dn de base de l’annuaire) et l’adresse IP, qui est celle du serveur LDAP et non 127.0.0.1. Les fichiers de configuration de ces librairies
sont /etc/libnss-ldap.conf et /etc/pam_ldap.conf.
Ensuite, deux fichiers doivent être modifiés :
/etc/nsswitch.conf :
Remplacer les entrées par défaut :
passwd:
group:
shadow:
compat
compat
compat
par :
passwd:
group:
shadow:
files ldap
files ldap
files ldap
/etc/pam.d/login
Attention, pam constitue le mécanisme d’authentification sous linux. Il n’y a rien à redémarrer après une
modification dans pam, il devient donc impossible de s’authentifier sur la machine après une mauvaise manipulation.
Il est très vivement conseillé d’ouvrir aux moins deux consoles root de manière à être certain de pouvoir conserver
la main sur la station et replacer les fichiers originaux dont on aura fait une sauvegarde (si on a installé nscd, il peut
être nécessaire de le redémarrer).
Voici le contenu correct de ce fichier :
auth
auth
auth
required
pam_env.so
sufficient
pam_unix.so nullok
required
pam_ldap.so use_first_pass
account
account
session
session
session
session
password
sufficient
required
required
optional
optional
optional
required
pam_ldap.so use_first_pass
pam_unix.so
pam_unix.so
pam_lastlog.so
pam_motd.so
pam_mail.so standard noenv
pam_unix.so nullok obscure min=4 max=8
Un listing des fichiers dans /etc/pam.d montre qu’il y a un fichier par service d’authentification, on copiera donc
le fichier login dans le fichier xdm (ou kdm, etc..) pour que l’ouverture de session en mode graphique puisse se faire.
9.4
Installation d’un environnement graphique et de logiciels divers
Packages requis : x-window-system, gnome, kde
Nous allons installer des « meta-packages », qui en eux mêmes ne contiennent pas grand chose mais en appellent de
nombreux autres et permettent ainsi une installation complète de composants pour une machine de bureau. Ainsi le
système X Window sera installé dans son intégralité pour éviter tout dysfonctionnement qui ne sera souvent constaté
que plus tard, par quelqu’un d’autre, lorsque tout sera en place.
La commande « apt-get install x-window-system » provoque une grosse installation, dont le package x-serverxfree86 : le serveur X à proprement parler. C’est le package le plus délicat puisqu’il conditionne tout l’affichage en
mode graphique et pose de nombreuses questions auxquelles il faut répondre de manière très rigoureuse, les choix
par défaut n’étant pas toujours les plus pertinents. Avant de le configurer, on vérifiera le modèle exact de carte vidéo
de l’ordinateur au moyen de la commande lspci et on se munira de la documentation du moniteur qui en précise les
fréquences horizontales et verticales (ces caractéristiques techniques se trouvent en quelques instants sur Internet).
On pourra rappeler la configuration du serveur X au moyen de la commande « dpkg-reconfigure xserver-xfree86 »,
que nous détaillons ci dessous pour les options ambiguës ou délicates :
– Pilote de serveur X que vous souhaitez utiliser :
Il n’est pas forcément toujours parfaitement détecté, dans notre cas ati. Surtout pas Vesa qui est proposé par
défaut si la carte est mal reconnue.
45
Ne pas prendre le pilote « frame buffer » qui rajoute une couche d’abstraction logicielle au dessus du
matériel et dégrade sensiblement les performances, à moins d’être certain que la carte soit mal supportée, ce qui
est très rare aujourd’hui.
– Identifiant de votre carte vidéo : Generic Video Card
Le nom n’a aucune importance
– Identifiant du bus de la carte vidéo :
– Quantité de mémoire (en ko) utilisée par votre carte vidéo :
On peut laisser en blanc ces deux options
– Jeu de règles XKB à utiliser :
Laisser le choix xfree86
– Type de clavier :
Pc105 (sauf pour un portable), le choix pc104 provoque souvent un dysfonctionnement des touches < et >.
– Disposition de votre clavier :
« fr » conseillé, le chois « us » étant proposé par défaut.
– Variante de votre clavier :
– Options de votre clavier :
Laisser en blanc ces deux options, pour reconfigurer éventuellement ensuite
– Port de branchement de votre souris :
/dev/psaux pour une souris PS/2, ttyS0 pour COM 1. Les souris USB se font passer pour des souris PS/2.
– Veuillez choisir ce qui correspond le mieux à votre souris.
ImPS/2 pour une souris à roulette.
– Faut-il émuler une souris à 3 boutons ?
Pour une souris deux Répondre oui pour que la fonction « coller » sous X Window (usage normal et quasi exclusif
du bouton central), soit obtenue par une pression simultanée des deux boutons.
– Veuillez choisir une méthode de sélection des caractéristiques de votre écran
Cette question indique le niveau de complexité des questions qui seront posées par la suite. Le choix le plus pertinent sauf configuration vraiment exotique et connaissance poussée du matériel demeure, pour nous, « Medium
».
– Veuillez choisir le meilleur mode supporté par votre écran
La fréquence est le paramètre le plus important, ce choix ne concerne pas encore les résolutions qui seront
affichées. Pour un 17 pouces standard on peut normalement choisir 1280x1024 @ 60Hz voire au dela. Il faudra
probablement repasser dans le fichier de configuration pour affiner ces valeurs à l’aide de la documentation de
l’écran 98 .
– Modes vidéo utilisés par le serveur X :
Indiquer la résolution maximale supportée par le moniteur, puis les résolutions inférieures désirées. Pour nous,
1280x1024, 1024x768, 800x600.
– Veuillez choisir la profondeur de couleur par défaut (en bits)
24 bits si la carte vidéo dispose d’assez de mémoire
– Modules du serveur XFree86 qui seront chargés par défaut :
Cocher tous les modules. Le plus important concerne le module DRI pour la 3D, si la carte vidéo le supporte. On
pourra toujours commenter cette ligne dans le fichier par la suite, ainsi que sa toute dernière section qui définit
les paramètres du DRI.
– Faut-il mettre une section « Files » de référence dans la configuration ?
– Faut-il mettre une section « DRI » de référence dans la configuration ?
Répondre Oui.
Le message d’erreur le plus fréquent si X ne démarre pas est « no screens found », qui ne signifie pas qu’aucun écran
n’est trouvé, mais que le système ne parvient pas à demander à la carte vidéo d’envoyer un mode (une résolution)
qui soit acceptée par l’écran. Auquel cas on reprendra la configuration du serveur X (dpkg-reconfigure xserver-xfree86 )
pour rentrer de nouvelles valeurs.
On ajustera au besoin les paramètres de fréquence de l’écran en éditant le fichier /etc/X11/XF86Config-4 à l’aide
de la documentation du moniteur qui précise toujours les bons paramètres, par exemple de cette manière 99 :
Section "Monitor"
Identifier
HorizSync
VertRefresh
Option
98 si
"Generic Monitor"
30-72
50-120
"DPMS"
l’on donne absolument n’importe quoi comme valeur à ces paramètres il est possible de sérieusement détériorer l’écran.
DPMS permet l’économie d’énergie
99 l’option
46
EndSection
Un problème récurrent concerne certaines polices de caractères, dans xterm en particulier : elles sont tellement laides
qu’elles en sont illisibles. Cela provient des polices par défaut qui ne sont pas optimisées pour une locale européenne. On
y remédiera par l’installation de trois packages trouvés par apt-cache search transcoded : xfonts-base-transcoded, xfonts75dpi-transcoded et xfonts-100dpi-transcoded. Si la police de l’utilisateur est toujours aussi laide après redémarrage du
serveur X, on supprimera le fichier .Xressources qui se trouve dans son répertoire personnel.
Enfin, il sera possible d’agrémenter l’écran de login graphique en installant celui de KDE (KDM) ou celui de
Gnome (GDM) avec apt-get. Nous recommandons KDM qui se paramètre plus aisément depuis les préférences de
KDE, sans toucher à aucun fichier de configuration, et qui présente les avantages de trouver automatiquement tous
les gestionnaires de fenêtres installés et de permettre à tout le monde d’éteindre l’ordinateur sans ouvrir de session.
Le choix et l’apparence de ce gestionnaire de connexion sont importants car ils donnent à la salle informatique son «
look » tel que le percevront les visiteurs avant d’utiliser les machines.
On peut forcer la taille des polices dans les paramètres passés au lancement de X par le gestionnaire de connexion.
Le fichier impliqué s’appelle Xservers, son emplacement dépend de Xdm, GDM ou KDM. Pour KDM, il s’agit de
/etc/kde3/kdm/Xservers, la ligne est :
:0 local@tty1 /usr/X11R6/bin/X -nolisten tcp vt7
On rajoutera -dpi 100 pour forcer cette taille si le défaut ne convient pas, par exemple pour une résolution un peu
élevée. Cet ajustement a parfois tendance à harmoniser les polices, leur taille et leur apparence dans l’ensemble de X.
D’autre part, l’option -nolisten tcp explique que dans Debian, il soit par défaut impossible de déporter son affichage
sur le réseau, puisque X n’écoute pas sur celui ci. Si l’on veut permettre cela, ce qui est une faille de sécurité potentielle,
il faudra retirer cette option.
Vient ensuite l’installation des environnements de bureau Gnome et KDE, qui peuvent être appelés par leur nom
avec apt-get install et provoquent le téléchargement de quelques centaines de Mo de logiciels. Il est préférable de les
installer complètement à l’aide de leurs « méta packages » pour offrir aux utilisateurs le plus large choix logiciel possible,
ce que permet la taille des disques durs modernes. Pour cette raison, il semble également inutile de choisir entre l’un ou
l’autre, il est préférable d’installer les deux car, outre le plus grand choix, les librairies des deux environnements seront
de toute manière nécessaires pour faire tourner tous les logiciels. Les dépendances des «meta packages » installeront
de nombreux composants nécessaires pour des usages très variés, comme hotplug, sane, LATEX, Gimp, un système
d’impression, etc...
9.5
Les droits sur les périphériques : carte son, webcam, etc...
Si les utilisateurs appartiennent tous au même groupe primaire sur le serveur, ces groupes se retrouvent localement
dans NIS. Ainsi, pour que tous les utilisateurs puissent avoir du son, il suffit de placer les bons périphériques dans le
groupe « users », à savoir /dev/audio0, /dev/mixer0 et /dev/dsp0 100 .
La carte son demeure probablement toujours muette, même pour root. Le package alsa-utils (avec un kernel 2.6)
intègre alsamixer : sous root, dans une console, il permet d’affecter un volume aux différentes sorties de la carte et
surtout dé-muter les pistes (touche M) puisque tout est muet par défaut dans Alsa.
On placera d’autres périphériques dans le même groupe, comme /dev/video0 pour une webcam ou le groupe défini
dans le script /etc/hotplug/usb/libgphoto2 (par défaut video) pour faire fonctionner un appareil photo numérique USB.
9.6
Le problème des logiciels et composants propriétaires
Il existe un certain nombre de logiciels propriétaires auxquels les gens sont très habitués voire dépendants, et dont
ils oublient l’usage d’autant plus facilement que ces logiciels sont gratuits. Chacun se déterminera en fonction de ses
convictions et des demandes de ses utilisateurs pour les installer, ils sont disponibles avec un peu de recherche dans
Debian et peuvent aider à convaincre des personnes réticentes à propos de la viabilité de notre solution informatique ;
une tel choix fait qu’on ne peut hélas plus qualifier celle ci de totalement libre.
Parmi ces logiciels, on trouvera en particulier :
– Les polices True Type.
– Acrobat Reader
– Les codecs vidéo propriétaires du package w32codecs, qui accompagnent mplayer
– Flash
– Real audio
– Java
Ces trois derniers composants sont hélas nécessaires pour afficher tel ou tel site Web...
100 Ce
choix du groupe primaire des utilisateurs est exposé dans la section 8.4
47
10
Installation automatisée de toutes les autres machines
La première machine doit servir de modèle pour toutes les autres. Dès que l’on a déterminé une liste complète de
logiciels pour les usages proposés aux futurs utilisateurs et que les divers détails de configuration sont réglés, quand à
l’affichage, au son, à la vidéo, etc etc... il est possible de reproduire l’installation de cette machine sur le réseau quand
tous les tests sont concluants.
10.1
Le principe de la réplication de fichiers
Le principe est le suivant :
1. On commence par une installation basique de Sarge sur toutes les machines clientes, qu’on termine par les
packages ssh et rsync.
2. Nous utilisons ensuite un script qui interroge le serveur DNS pour connaître la liste des machines présentes sur
le réseau, et propose de choisir les machines cibles d’une synchronisation d’un ensemble de contenus envoyés à
destination à travers ssh automatiquement, sans qu’aucun mot de passe ne soit à saisir.
3. Comme nous allons déployer un script d’installation, il faudra tout de même exécuter ce script sur chaque
machine, mais nous contrôlerons alors tout le réseau depuis une station unique sans authentification, puisqu’il
suffira de s’authentifier une seule fois sur le réseau en ouvrant sa session de travail le matin.
4. Cette procédure pourra être réutilisée pour mettre à jour les machines ou répliquer certains fichiers (paramétrage
de l’imprimante, logiciel installé à part, etc...).
10.2
Ssh en mode agent
Comment fonctionne donc ce système d’authentification unique sur tout le réseau ? Voici un login ssh classique sur
une machine :
prof@hyperion:~$ ssh weatherwax
The authenticity of host ’weatherwax (192.168.28.48)’ can’t be established.
RSA key fingerprint is 04:59:cc:56:73:c8:57:47:19:d2:c7:1b:12:9f:2d:91.
Are you sure you want to continue connecting (yes/no)?
Le système prévient que la machine à laquelle nous tentons d’accéder est inconnue, souhaitons nous continuer ?
En lui répondant oui, l’identité chiffrée de la machine, fournie par son démon sshd, sera stockée dans le fichier
˜/.ssh/known_hosts et la question ne nous sera plus posée (c’est le sens du « Warning » suivant). Par contre si
jamais cette identité numérique change, nous en serons prévenus car cela signifiera que la machine n’est plus la même,
ce qui est extrêmement suspect. Répondons oui :
Warning: Permanently added ’weatherwax,192.168.28.48’ (RSA) to the list of
known hosts.
Password:
Et nous sommes loggués sur la machine distante avec notre mot de passe validé par NIS. Nous voulons renforcer
cette authentification et faire en sorte, en même temps, de ne s’authentifier qu’une seule fois sur une seule machine
quel que soit le nombre de connexions que nous pouvons opérer ensuite jusqu’à la fermeture de notre session. Plus
clairement, pouvoir se logguer sur toutes les machines du réseau, en tant que root, sans mot de passe, de manière
sécurisée.
La première chose à faire est d’utiliser un agent ssh qui va mémoriser notre authentification et chiffrer les données
transférées sur le réseau. Pour générer cette clef, on procède de cette manière :
prof@hyperion:~$ ssh-keygen -t dsa
Ssh-keygen va générer notre clef, l’option « -t dsa » génère un chiffrement fort compatible avec ssh version 2 qu’il
est impératif d’utiliser pour des raisons de sécurité. La machine génère la paire de clefs (publique et privée), et nous
demande dans quel fichier sauvegarder cela :
Generating public/private dsa key pair.
Enter file in which to save the key (/home/prof/.ssh/id_dsa):
Nous ne changeons pas le choix par défaut qui est de placer cela dans le fichier id_dsa, dans le répertoire .ssh du
répertoire personnel. Validons, voici le moment le plus important.
48
Enter passphrase (empty for no passphrase):
C’est un gouffre de sécurité que de créer une passphrase vide ! C’est donc le moment de saisir une
passphrase la plus longue et complexe possible, avec autant qu’on le souhaite d’espaces et de caractères spéciaux, puis
valider. Cette chaîne de caractères nous servira par la suite quotidiennement pour administrer l’ensemble du réseau, il
importe donc de choisir quelque chose d’à la fois non trivial à deviner mais que l’on soit certain de retenir.
Enter same passphrase again:
Il est demandé très logiquement de confirmer cette passphrase. Le système l’enregistre :
Your identification has been saved in /home/prof/.ssh/id_dsa.
Your public key has been saved in /home/prof/.ssh/id_dsa.pub.
The key fingerprint is:
46:58:2f:97:98:61:4c:3e:9b:94:0a:8a:3d:d1:1c:0b prof@hyperion
Et nous pouvons vérifier le contenu du répertoire .ssh de notre répertoire personnel :
prof@hyperion:~$ ls
total 20
drwx-----2 prof
drwxr-xr-x 14 prof
-rw------1 prof
-rw-r--r-1 prof
-rw-r--r-1 prof
-al .ssh
users 4096 2005-03-31 11:09 .
users 4096 2005-03-22 17:12 ..
users 744 2005-03-31 11:09 id_dsa
users 603 2005-03-31 11:09 id_dsa.pub
users 224 2005-03-18 12:53 known_hosts
Testons de suite cette clef, nous allons transformer notre clef publique en clef autorisée sur la machine distante.
Pour ce faire, il suffit de copier un fichier :
prof@hyperion:~$ cd .ssh
prof@hyperion:~/.ssh$ cp id_dsa.pub authorized_keys
prof@hyperion:~/.ssh$ ls -al
total 24
drwx-----2 prof users 4096 2005-03-31 11:33 .
drwxr-xr-x 14 prof users 4096 2005-03-22 17:12 ..
-rw-r--r-1 prof users 603 2005-03-31 11:33 authorized_keys
-rw------1 prof users 744 2005-03-31 11:09 id_dsa
-rw-r--r-1 prof users 603 2005-03-31 11:09 id_dsa.pub
-rw-r--r-1 prof users 458 2005-03-31 11:15 known_hosts
Il se trouve maintenant un fichier authorized_keys dans notre dossier personnel et donc, grâce au montage NFS,
sur l’ensemble du réseau (ce ne sera pas le cas pour le root de chaque machine).
prof@hyperion:~/.ssh$ ssh weatherwax
Enter passphrase for key ’/home/prof/.ssh/id\_dsa’:
La même machine que précédemment ne nous demande plus de mot de passe, mais notre passphrase. Il suffit de la
rentrer pour s’authentifier sur la machine. Nous avons introduit un niveau de sécurité supérieur à celui du simple mot
de passe, mais il nous est toujours demandé une authentification. Utilisons donc un « agent ssh ». Délogguons nous de
la machine distante et introduisons toutes les variables d’environnement dans l’agent :
prof@hyperion:~/.ssh$ eval ‘ssh-agent‘
Agent pid 3523
Voila qui est fait101 . Nous pouvons maintenant nous authentifier auprès de cet agent ssh :
prof@hyperion:~/.ssh$ ssh-add
Enter passphrase for /home/prof/.ssh/id_dsa:
Identity added: /home/prof/.ssh/id_dsa (/home/prof/.ssh/id_dsa)
prof@hyperion:~/.ssh$
101 Il
s’agit d’apostrophes inversées obtenues avec Alt Gr-7
49
Et s’ensuit une agréable surprise :
prof@hyperion:~/.ssh$ ssh weatherwax
Linux weatherwax 2.6.10 #1 Tue Jan 18 15:51:30 CET 2005 i686 GNU/Linux
Last login: Thu Mar 31 11:36:33 2005 from hyperion.mp-soa.net
prof@weatherwax:~$
Plus aucun mot de passe n’est demandé, nous sommes authentifiés sur toutes les machines qui connaissent notre
clef jusqu’à la fin de notre session. Comme le fichier authorized_keys est « présent » sur chaque machine dans notre
répertoire personnel à cause du montage NFS, on remarquera que nous pouvons ainsi rentrer sur une machine, en
sortir et rentrer sur une autre toujours sans mot de passe.
Le problème est que le compte root de chaque machine ne nous connaît pas, car ce compte n’est pas connu de NIS
mais demeure, heureusement d’ailleurs, local à chaque machine. Par mesure de sécurité, nous n’allons pas copier notre
clef privée ni la liste des machines connues sur tout le réseau, mais simplement la clef publique qui se trouve dans le
fichier authorized_keys. Nous allons donc nous authentifier pour la dernière fois sur la machine distante en apprenant
à utiliser rsync102 :
prof@hyperion:~$ rsync -avzR .ssh/authorized_keys root@weatherwax:~
Password:
building file list ... done
.ssh/
.ssh/authorized_keys
sent 627 bytes received 40 bytes 148.22 bytes/sec
total size is 603 speedup is 0.90
Il ne nous reste plus qu’à rentrer en root sur la machine distante sans mot de passe :
prof@hyperion:~/.ssh$ ssh weatherwax -l root
Last login: Thu Mar 31 11:55:05 2005 from hyperion.mp-soa.net
weatherwax:~#
La contrainte est de reproduire cette copie de fichier / répertoire dans /root sur chaque machine du réseau. D’autre
part, si plusieurs administrateurs procèdent à cette manipulation, on veillera à ne pas écraser la clef du collègue en
copiant brutalement le fichier, mais en y insérant notre clef à la suite de la sienne en éditant le fichier.
Sur notre station de travail, il suffit maintenant de rajouter une ligne dans le fichier .xinitrc (ou .xsession), qui
contient le fameux « eval ‘ssh-agent‘ » et de s’authentifier auprès de l’agent avec ssh-add dans le premier terminal
graphique ouvert au début de notre session de travail sous X, c’est la toute première chose à faire le matin en se
logguant :). On constatera ainsi que cela fonctionne pour les autres xterms ouverts par la suite, et qu’on a plus ainsi
qu’à saisir une seule fois sa passphrase en début de journée pour administrer toutes les machines. Le revers de la
médaille consiste bien entendu à bloquer son écran dès qu’on s’éloigne de l’ordinateur pour empêcher quiconque de
passer root à notre place sur toutes les machines qui connaissent notre clef.
Le lecteur attentif et exigeant aura remarqué qu’il est impossible de passer de machine en machine en conservant
l’agent, il faut toujours se delogguer puis se relogguer pour que cela fonctionne. De manière à se promener sur le
réseau en emportant son agent avec soi, il suffit de déclarer cette ligne dans /etc/ssh/ssh_config (attention, fichier de
configuration du client, ssh_config, et non du serveur, sshd_config) :
ForwardAgent yes
10.3
Dupliquer la première machine : adapter le script de réplication - premiers tests
Rsync est un logiciel très puissant qui synchronise des fichiers ou répertoires de la machine locale sur une machine
distante, en envoyant uniquement les différences. Typiquement, si on a rajouté une virgule dans un fichier, rsync est
capable d’envoyer uniquement la virgule, compressée et chiffrée. On trouvera des détails dans la documentation de
rsync ainsi que sur cette page103 .
101 pour
se promener de machine en machine en emportant l’agent avec soi, voir la fin de cette section
peut le faire également avec scp, mais il faut s’authentifier une fois pour créer le répertoire, une autre fois pour copier le fichier si
on ne veut pas copier tout le répertoire
103 http ://logiciels-libres-cndp.ac-versailles.fr/article.php3 ?id_article=21
102 on
50
Nous allons utiliser rsync pour déployer un ensemble de fichiers sur l’ensemble du réseau au moyen d’un script,
pour répliquer l’installation de la première station de travail que nous avons passé tant de temps à fignoler. Notre
script va interroger le serveur DNS par ssh pour rapatrier le fichier de zone et proposer la liste des machines connues.
On saisit le numéro de chaque machine dans la liste, pour l’ajouter ou la retirer si elle a été sélectionnée par erreur. Le
résultat est affiché, on sort de cette interface avec Control-D, et rsync commence son travail : synchroniser le contenu
de ce qu’on lui a passé en paramètre en l’invoquant.
Le script de réplication104 105 demande une adaptation à la structure du réseau. Il suppose également que les
fichiers de zone aient une certaine structure en colonnes que va aller lire awk. Si le nombre de colonnes n’est pas le
même, le script ne peut pas fonctionner.
#Paramètres réseau et serveur
RESEAU="192.168.28"
SERVEUR="andromede"
REP_DNS="/var/named"
DNS="db.mp-soa"
Les paramètres concernent ici le serveur DNS du réseau, en particulier le répertoire où se trouvent les fichiers de
zone et le nom du fichier lui même.
#Paramètres machine locale
REP_COPIE="/tmp"
COPIE_DNS="db.mp-soa"
IP_LOCALE="192.168.28.7"
\#contiendra l’adresse IP de la machine source
Le répertoire de la copie locale du fichier de zone et l’adresse ip de la machine source où nous nous trouvons, qui
sera exclue de la liste des cibles.
#Trois groupes de destinations...laisser un espace à la fin
ENS_POSTES="Tous Packards Zéniths "
#Caractéristiques des groupes
FIRST_PACKARD="11"
LAST_PACKARD="21"
FIRST_ZENITH="30"
LAST_ZENITH="42"
On dispose de deux groupes de machines, par exemple pour deux salles ; on précise le début et la fin de chaque
plage d’adresses ip de ces deux groupes, « Packard » et « Zenith ». La contrainte est que ces postes soient situés sur
de telles plages et disposent évidemment d’une adresse fixe.
#Les postes à exclure de la liste de choix
SAUF_POSTES="remote soleil stargate HP4050 HP4200 andromede
\abraracourcix detritus rincewind weatherwax arrakis arcturus"
On pourra éditer cette liste de manière à rajouter ou exclure certains ordinateurs de la liste proposée, dans un
premier temps les serveurs et les imprimantes constituent un choix évident des noms à exclure.
#C’est clair :)
OPTION_RSYNC="-e ssh -avzR"
Les options passées à la commande rsync qui va diffuser les fichiers :
– -e ssh pour authentifier à travers ssh et utiliser l’agent dans lequel nous rentrons notre clef.
– -avzR pour compresser (z), expliquer ce qui se passe de manière détaillée (v) et synchroniser en mode archive
a et R), en préservant les permissions sur les fichiers et l’arborescence. On ajoutera un « n » pour simplement
tester sans que rien ne soit effectué.
Quelques précautions à prendre avec ce script :
1. Indiquer toujours le chemin entier des fichiers sinon ils seront placés à la racine du disque distant
104 http
105 Ce
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/rsync_mediapole
script a été écrit par Serge Sauton que nous tenons à remercier particulièrement.
51
2. « ./rsync_mediapole bidule » synchronisera le répertoire bidule tandis que « ./rsync_mediapole bidule/ » synchronisera le contenu de ce répertoire.
3. Ce script cherchera une authentification root sur les machines indiquées, potentiellement sur tout le réseau. Si
on s’y prend bien :), en particulier en modifiant les options de rsync pour effacer les fichiers figurant sur la cible
et pas sur la source, il est tout à fait possible de casser très rapidement toutes les machines sans aucun mot de
passe ni demande de confirmation.
4. Avec rsync comme avec scp, il faut faire attention à ne pas se tromper de sens dans la syntaxe de la commande
pour ne pas effacer tout le travail de la journée en pensant en faire une sauvegarde sur le serveur : rsync <source>
<destination> et non le contraire :).
On pourra commencer à faire quelques tests avec ce script, pour ensuite déployer simplement quelques fichiers
pertinents, par exemple /etc/apt/sources.list. L’avantage est tout de suite évident : une nouvelle source de packages
se retrouve instantanément sur tout le réseau sans passer sur chaque ordinateur pour le déclarer puisque le script le
fait pour nous (outre le confort du proxy de packages).
10.4
Extraire la liste des logiciels installés et la reproduire
Nous voulons des machines identiques, possédant toutes rigoureusement les mêmes logiciels installés. Le principe
est extrêmement simple :
1. Extraire la liste des packages installés sur la machine « modèle » :
dpkg --get-selections > packages.sel
2. Copier le fichier packages.sel (le nom n’a aucune importance) sur les machines « cibles » avec le script.
3. Déclarer, sur ces machines, la liste des packages devant être installés :
dpkg --set-selections < packages.sel
4. Procéder à un dist-upgrade de cette manière :
apt-get --yes dselect-upgrade
(par sécurité, on passera deux fois cette commande).
Et voila ! :)
Mais comme les machines « cibles » sont par hypothèse « brutes d’installation », on doit les intégrer au réseau
(configuration cliente de NIS et NFS), paramétrer leur carte son, régler éventuellement la locale, etc..., le plus simple
est de mettre l’ensemble des taches à exécuter dans un script qu’on déploiera sur le réseau avec la procédure que nous
connaissons maintenant.
Voici un script de ce type106 . Attention, il ajoute des lignes dans des fichiers du système et n’est à utiliser qu’une
seule fois en l’état.
11
Jouer avec le réseau
En conclusion, voici quelques applications qui permettent de découvrir de manière amusante les fonctionnalités de
notre réseau.
11.1
Déporter l’affichage
Le protocole X Window est d’emblée conçu pour fonctionner en réseau. On peut alors totalement distinguer la
machine sur laquelle on tape des commandes, celle sur laquelle elles sont exécutées et enfin l’écran où s’affiche le
résultat.
Déporter l’affichage est amusant, pratique dans certains contextes mais aussi peu souhaitable dans d’autres car
ouvrir son écran permet à d’autres d’afficher des fenêtres dessus, mais aussi de capturer ce qu’on est en train de faire.
On en usera donc avec discernement.
Il faut commencer par lancer X Window de manière à ce qu’il écoute sur le réseau, ce qui n’est pas le cas par
défaut sous Debian (voir fin de la section 9.4). Un utilisateur peut alors ouvrir son affichage à une machine donnée
par la commande « xhost +hostname » (ou xhost + pour l’ouvrir à tous). Sur une autre machine, dans un xterm, la
commande « export DISPLAY=hostname :0.0 » permet de déporter l’affichage graphique sur le premier ordinateur.
La commande « xcalc » affichera alors la calculatrice sur l’écran distant, et la commande « xmessage » remplit la
fonction que son nom indique :).
106 http
://logiciels-libres-cndp.ac-versailles.fr/debianinstall/fichiers/installpc.sh
52
11.2
Déporter le son
Pourquoi ne pas écouter de la musique sur la machine pourvue des meilleures enceintes ? Déporter le son d’une
application est très simple, et de nombreux logiciels multimédia permettent de le faire (mplayer, xine, xmms, etc...). Il
faut commencer, sur la machine hôte (qui reçoit le son), par lancer un daemon qui écoute sur le réseau ; Enlightenment
Sound Daemon est installé avec Gnome et permet de tester rapidement cette possibilité, en le lançant de cette manière :
« esd -tcp -public ». Esd émet alors un son sur les enceintes.
Mpg321 fonctionne en mode texte ; malgré son absence d’interface utilisateur, il est doté de très nombreuses
fonctionnalités et nous permet de tester facilement l’écoute d’un fichier sur un autre ordinateur, au moyen de cette
simple commande : « mpg321 -o esd -a nom_de_la_machine Mon_fichier.mp3.
11.3
Wims
WWW Interactive Mathemactics server est un serveur d’applications pédagogiques fonctionnant dans une interface
web en mode client / serveur, le client consiste donc en un simple navigateur et un paquet Debian existe pour
l’installation du serveur. Une base conséquente d’exercices est disponible, à laquelle on peut contribuer.
Wims s’interface sur un certain nombre de logiciels scientifiques pour le calcul, le tracé, le rendu, etc... : pari-GP,
Gnuplot, Octave, LATEXet bien d’autres, tous présentés ici même. Une section spéciale107 de ce site est consacrée
entièrement à Wims.
11.4
La diffusion vidéo : vlc
VideoLAN108 constitue un vaste projet de diffusion vidéo sur réseau. Le client vlc sait lire nombre de codecs vidéo
et des DVDs, mais il est également capable de diffuser un film en broadcast sur un réseau local, ce qui permet d’égayer
sensiblement nos salles multimédia :).
Un certain nombre d’adresses sont réservées pour ce type d’usage que vlc sait exploiter : Fichier -> Ouvrir un
fichier (avancé), après avoir choisi un fichier cliquer sur le bouton « flux de sortie » dans l’onglet « réseau », une
fenêtre s’ouvre avec le bouton « paramètres ». Cliquer sur le bouton « UDP », entrer une de ces adresses spéciales,
comprises entre 224.0.0.0 et 239.255.255.255, par exemple 224.42.42.42. Il suffit alors de valider pour voir le switch se
mettre à clignoter de manière assez intensive :).
On accède au film depuis une machine quelconque en ouvrant simplement un flux réseau (menu « fichier ») et en
indiquant l’adresse de broadcast sur laquelle le film est diffusé.
Vlc intègre des paramètres indispensables, par exemple la possibilité de diffuser sur un mur d’écrans :). Ouvrir les
préférences (menu « paramètres »), puis Vidéo - Filters - Image Wall pour définir le nombre de rangées et de colonnes
d’écrans.
Ces manipulations sont décrites sur le site de vlc, en particulier la procédure de diffusion sur le réseau local109
(format PDF, en anglais).
11.5
Partager un scanner
Un scanner partagé sur un réseau permettant de numériser depuis n’importe quel ordinateur reste un matériel
rare et coûteux dans le monde de l’informatique propriétaire. On peut cependant faire cela avec n’importe quel
scanner au moyen d’un composant de Sane fonctionnant en mode client serveur, sans aucune dépense ni installation
supplémentaire.
Sur le poste « serveur » où est connecté le scanner, on placera la liste des machines autorisées à numériser dans le
fichier /etc/sane.d/saned.conf :
# saned.conf
localhost
luna
hyperion
mercure
neptune
Et sur ces machines autorisées, on indiquera tout simplement la ou les machines faisant fonction de « serveur de
scanner » dans le fichier /etc/sane.d/net.conf :
107 http
://logiciels-libres-cndp.ac-versailles.fr/rubrique.php3 ?id_rubrique=24
://www.videolan.org/
109 http ://www.videolan.org/doc/misc/VLC Streaming.pdf
108 http
53
# This is the net config file.
mars.mp-soa.net
luna.mp-soa.net
Each line names a host to attach to.
Le démon saned se mettra en fonction en tant que service d’inetd
/etc/inetd.conf :
dès son appel, si cette ligne figure dans
sane stream tcp nowait saned.saned /usr/sbin/saned saned
Et on aura le plaisir d’avoir le choix du scanner à utiliser au lancement de xsane sur n’importe quelle machine :
Il faudra tout de même encore se déplacer pour mettre le document à numériser dans le scanner :).
11.6
Un cluster de calcul
Une des applications les plus fascinantes d’un réseau de machines Unix est la construction d’un calculateur permettant d’additionner la puissance de tous ces microprocesseurs qui la plupart du temps ne font finalement pas grand
chose.
Une application amusante permet déjà de tester le débit et la solidité du réseau avec la connectivité au serveur
NFS : l’encodage de vidéo depuis un DVD. Transcode est un peu le couteau suisse en matière de codage vidéo ; le
logiciel DVD Rip est bien plus qu’une simple interface graphique à transcode, car il intègre un mode « cluster »
permettant de découper de gros fichiers vidéo, de coder chaque morceau sur une machine et de rassembler le tout au
fur et à mesure de l’avancement du travail au moyen d’un serveur NFS.
Il suffit d’installer transcode et les librairies appropriées sur chaque ordinateur, et DVD Rip sur la machine qui
pilotera le « cluster ». La limite de cette application est qu’il ne s’agit pas de véritable clustering puisqu’il n’y a pas de
parallélisation des taches entre microprocesseurs : ainsi, les pistes audio ne pouvant être découpées comme la vidéo, on
regardera une seule machine encoder laborieusement le son alors que toutes les autres sont inutilisées puisque la vidéo
54
est encodée depuis longtemps. L’idée serait alors de leur faire encoder d’autres vidéos, et de les faire toutes travailler
en même temps sur de nombreux projets.
C’est là un excellent moyen de totalement surcharger le réseau mais aussi de tester la solidité de l’interconnexion
des machines entre elles. NFS. A partir de là, on pourra s’intéresser à de véritables applications de calcul distribué si le
câblage et les éléments actifs le permettent. Une des solutions les plus adaptées pour cela semble être Open Mosix110 ,
à propos duquel on lira un très bon article111 sur LinuxFrench.net.
11.7
Quelques jeux en réseau
Devant un réseau sous Linux, on se demandera probablement tout de suite s’il est possible de jouer à Quake :).
La réponse est oui, mais on trouve un certain nombre de jeux que les mordus de l’informatique connaissent depuis
belle lurette, à commencer par Civilisation. Ce jeu légendaire est activement développé dans une version libre qui
permet d’y jouer en réseau, cela s’appelle Freeciv, fonctionne en mode client / serveur sur un réseau local mais aussi
sur Internet et s’installe tout aussi simplement que le reste avec apt-get.
r bataille navale... c’est le cas de nombre de ceux
D’autres jeux en réseau sont disponibles : échecs, Monopoly °,
fournis avec Gnome et KDE. Mentionnons encore quelque chose de simple et rapide à prendre en main ; il n’y a pas de
3D ni d’armes sophistiquées (quoique...) mais l’intérêt ludique demeure majeur pour tous les âges : le célèbre XBlast112 .
Enfin, un des jeux les plus amusants demeure le réseau lui même :). On ne manquera pas de l’indiquer à chaque
utilisateur lors de son login, en plaçant cette simple phrase dans le fichier /etc/motd de chaque machine :
110 http
://openmosix.sourceforge.net/
://www.linuxfrench.net/article.php3 ?id_article=1177
112 http ://xblast.sourceforge.net/
111 http
55
Amusez vous bien, et soyez libres ! :)
[email protected]
12
Remerciements
Je tiens particulièrement à remercier pour leur aide :
– Stéphane Marzloff, qui m’a appris ce que sont Internet et le logiciel libre
– Stéphane Marchau, qui m’a appris comment faire marcher un réseau
– L’école ouverte de l’Internet et l’AFUL, pour leur motivation et leur aide au moment de véritablement démarrer,
en 1998.
– Fabrice Lemoine et Éric Mercier pour la relecture de ce document
56