Monter son PC - Accueil Association Aladin

Transcription

Monter son PC - Accueil Association Aladin
Monter son PC
Publication Aladin
ALADIN
25 mai 2011
Créé par : Michel ANDRE
© Ce document est la propriété de l’Association ALADIN. S’il vous a été utile, vous pouvez vous
inscrire à cette association pour qu’elle puisse continuer à aider tous ceux qui ont besoin de mieux
connaître les possibilités de leurs moyens informatiques.
[email protected], 23, rue de Chaumusson 91470 Limours.
Table des matières
1
2
3
4
Monter son PC | 25/05/2011
5
6
7
8
9
1
POURQUOI MONTER SON PC ......................................................................................... 2
OBJECTIFS ............................................................................................................... 2
CHOIX DU FONDEUR ................................................................................................... 2
CHOIX DE LA CARTE MERE ET DE SES COMPOSANTS ............................................................... 3
4.1
LE FORMAT ....................................................................................................... 3
4.2
LE PROCESSEUR .................................................................................................. 3
4.3
LE CHIPSET ........................................................................................................ 4
4.4
LA MARQUE DE LA CARTE MERE ............................................................................... 4
4.5
LA MEMOIRE ...................................................................................................... 4
4.5.1
BARRETTES DE MEMOIRE................................................................................. 4
LE STOCKAGE ........................................................................................................... 5
CHOIX DU BOITIER ..................................................................................................... 6
L’ALIMENTATION ....................................................................................................... 6
LE REFROIDISSEMENT .................................................................................................. 6
LE BIOS VS UEFI ....................................................................................................... 7
Monter son PC
Publication Aladin
1 Pourquoi monter son PC
Deux raisons essentielles :

Le commerce est exposé à une rude concurrence. Tous les coups sont permis pour gagner. A chaque fois qu’il est
possible de gagner une fraction d’euro, c’est fait. Attiré par le prix, on se retrouve avec une machine tirée par le
bas. La qualité de la technologie actuelle et la sous-utilisation récurrente des ordinateurs fait que cette stratégie
n’handicape pas l’utilisateur lambda. Pour s’assurer les composants de qualité en fiabilité et en performance, il
faut donc sortir du circuit commercial standard. Il existe chez les distributeurs spécialisé des machines d’un
niveau supérieur pour les gamers. Mais comme leur distribution est limitée, leur prix est un peu illimité. Reste la
solution du montage pour atteindre performance et qualité, tout en restant dans une gamme de prix raisonnable.
 Pérennité et maintenance. Quand on a monté sa machine, on est capable de la maintenir, voire de la faire
évoluer. Ce dernier critère est un peu illusoire compte-tenu des sauts technologiques.
A noter que l’on évite la pollution de la machine par une suite logicielle que les constructeurs nous imposent toujours pour
des raisons commerciales.
Comment procède-t-on ?
Quand on lit la presse spécialisée, on y trouve des classements par utilisation : bureautique, média, jeux. En fait ça
représente plutôt des performances. Il faut simplement savoir qu’une machine classée bureautique ne sera pas capable de
satisfaire un gamer, alors que le contraire est vrai. Le vrai classement serait plutôt : serveur, media, station de travail. A
ces termes sont liés des structures différentes des machines sans notion de performances.
Même pour une utilisation simple, il est quand même agréable d’avoir une machine qui a du répondant.
La première chose à faire est de se fixer un objectif et une enveloppe budgétaire.
Pour l’objectif, il faut savoir si on veut utiliser les jeux de dernière génération. Dans ce cas, il faut faire les choix extrêmes,
et l’un des plus importants sera le choix de la carte vidéo qui va entrainer tout une suite des contraintes importantes au
niveau du prix, de l’alimentation et du bruit.
Pour les utilisateurs moins exigeants, il faut savoir si on veut faire du montage vidéo ou pas. Si oui, il faut tenter
d’atteindre 8 Go de mémoire vive, alors que 4 sont suffisants même pour les gamers extrêmes.
Autre critère à prendre en considération est la nécessité ou pas de cartes supplémentaires. Je dirais que par défaut même si
on n’a pas de projet, il ne faut pas se fixer de limite.
Il existe un cas particulier que je ne vais pas développer, mais qui va prendre une grande importance à court terme. Notre
actuel téléviseur est un dinosaure. Cet immense écran ne devrait être que le périphérique d’un ordinateur spécialisé.
Plusieurs tentatives sont allées dans cette voie. Il y a quelques années HP avait mis sur le marché un ordinateur de salon.
Echec. Sans le dire, Free livre une seconde box qui ressemble à ça. Actuellement, si les utilisateurs en comprenaient les
possibilités, les autres opérateurs devraient en faire autant. Ça vient, mais avec beaucoup de lenteur. Les raisons de l’échec
de ces formules sont liées à la misère des interfaces. Nos ordinateurs ne connaissent que le clavier et la souris, et ceux dont
je parle, la télécommande. Obstacle le prix. La solution serait une tablette graphique qui permettrait de commander
l’ordinateur de salon. Vous faites l’addition, et vous comprenez que ce n’est pas encore pour demain. Mais on peut rêver,
et il existe déjà sur le marché des cartes mères et des boitiers pour réaliser ces ordinateurs de salon. On en reparlera
bientôt, mais pas cette fois. On construira alors un PCHC, un Personal Computer Home Cinema.
3 Choix du fondeur
Monter son PC | 25/05/2011
2 Objectifs
2
Deux possibilités, AMD et Intel.
En général, si le budget est un critère majeur, le choix va se porter vers AMD. Si la performance est de règle, en général,
Intel est souvent en tête, exception faite des changements de technologie. On observe une sorte d’alternance.
Actuellement, l’avantage est à Intel.
4 Choix de la carte mère et de ses composants
On a donc éliminé l’ordinateur de salon et on va plutôt s’intéresser à une station de travail, donc à une tour.
4.1 Le format
Pour info, le format des cartes réservées aux ordinateurs de salon est le mini-ITX.
Pour notre objectif, nous retenons deux formats de carte, l’ATX et le µATX. Nous éviterons cette dernière, non pas pour
des raisons de performance, mais à cause de sa limitation en nombre de cartes supplémentaires, la surface de la µATX
entraine une limitation du nombre de connecteurs PCI. En revanche, si nous décidons de construire avec un budget limité,
d’excellentes solutions seront possibles avec ce standard, en étant conscient de la limitation ultérieure liée au nombre très
limité des ports PCI.
Monter son PC | 25/05/2011
4.2 Le processeur
3
Beaucoup de crispation médiatique autour de ce composant. Bien sûr, un Sandy bridge, le dernier né d’Intel, est au top.
Souvent, on parle de la fréquence, mais il ne faut pas exagérer avec ce critère. Ensuite, nous avons le choix, i3, i5, i7. Ils
sont liés au nombre de processeurs. Ce nombre est impair, car ces processeurs ont un processeur graphique intégré. L’i3 a
2 processeurs. C’est un dual core. Les i5 et i7 en ont 4, ce sont des quad core. Alors pourquoi i7 ? Parce que hyper
threading ! Invention d’Intel. Le thread est une entité logicielle. Un programme lance plusieurs threads. A l’instant, je lis
sur ma machine 89 processus et 1312 threads !! Alors que je n’ai lancé que 8 applications. Beaucoup de processus ont été
lancés par l’OS, et chacun d’eux traite plusieurs threads. Disons qu’un i7 est un quad core qui peut créer des processeurs
virtuels.
En fait l’utilisateur que l’on est n’est que l’utilisateur mineur en termes de threads. Bon ! Nombre de ces tâches ne font
appel aux ressources que très rarement. Beaucoup d’entre elles sont des tâches de surveillance qui tournent quelques
instructions de temps à autre. Mais un i7 va jongler avec tout ça avec bien plus de facilité qu’un i5, ce qui ne sera
absolument pas sensible pour la très grande majorité de nos applications qui ne sont pas gourmandes en ressources et qui
ne sont pas toujours écrites pour utiliser plusieurs processeurs.
Actuellement, nombre de processeurs sont bridés. Pour tenter ultérieurement un overclocking, nous choisissons un
processeur débridé. Et là, nous n’avons pas le choix, ce sera un i7.
Pour la petite histoire, en 1975, le premier processeur s’appelait 4004. C’était un processeur dont la largeur des mots
était de 4 bits. Nous en sommes à 64. Il comportait 25000 transistors. Un exploit. Actuellement, un i5 en comporte un
milliard. En 1956, le premier transistor, l’OC71 coutait 1500 francs, un peu plus de 2€ ! Actuellement, dans un
processeur de dernière génération, le cout du transistor est du même ordre de grandeur que celui du caractère
d’imprimerie. Et il ne suffit pas de faire la multiplication. 1500 francs étaient l’argent de poche d’un adolescent pour un à
2 mois ! En argent constant, notre processeur devrait couter quelques 50 milliards d’euros.
4.3 Le chipset
Sous ce mot se cachent les vraies performances de la carte mère. Tout est géré par le chipset, vrai goulet d’étranglement
des performances. Jusqu’à peu, il se décompose en 2 jeux de puces, le North bridge, et le South bridge.
Depuis l’arrivée du Sandy bridge, dernière génération de processeur d’Intel, le North bridge disparait. Le processeur en
assure les fonctionnalités. L’amélioration notoire est la gestion de la mémoire.
Le South bridge va être déterminant pour les performances vers les périphériques de stockage. Il est aussi le composant qui
permet d’utiliser les fonctions graphiques du Sandy bridge. Là encore, nous n’avons pas le choix. Le seul composant
compatible avec les nouvelles générations SATA3, USB3 et qui gère le graphisme est le H67. Il va s’ensuivre un choix très
limité de cartes mère en format ATX, et beaucoup plus large en format µATX. C’est normal, ce dernier format est
orienté d’avantage vers des configurations économiques et donc sans carte vidéo.
Il faut noter qu’une carte mère qui gère la vidéo n’exclut pas la possibilité de mettre aussi une carte vidéo dont les
performances seront supérieures à la carte vidéo intégrée à la carte mère. Il en va de la vidéo comme de la carte son qui est
désormais intégrée à pratiquement toutes les cartes mères.
4.4 La marque de la carte mère
Quelques références : MSI, Asus, Asusteck, Gigabyte. Peu importe. Ce sont des assembleurs. Les composants les plus
vulnérables à cause de leur vieillissement sont les condensateurs. Choisir les constructeurs qui garantissent l’utilisation de
condensateurs de haute qualité. Asus est peut-être le leader. Il propose des outils spécifiques tels que la restauration du
BIOS et quelques firmwares qui permettent de contrôler le fonctionnement de la carte et l’overclocking.
4.5 La mémoire
Aïe ! Là aussi, il y a de la désinformation. On parle de fréquences vertigineuses. Bien sûr, qui peut le plus peut le moins.
Mais il faut savoir que la fréquence dont on parle est divisée par quelque chose comme 8. Avec elle, la consommation, les
calories et les prix s’envolent. Il va falloir faire un compromis.
Ainsi, une DDR3-1600 est conçue pour être cadencée à 200 MHz et non pas à 1600. La DDR3 est le type de mémoire
actuel.
Pour résumer, voici les caractéristiques des barrettes actuelles en DDR3 :







PC3-64001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 400 MHz utilisant des puces de
mémoire DDR3-800, avec une bande passante de 6,4 Go/s.
PC3-85001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 533 MHz utilisant des puces de
mémoire DDR3-1066, avec une bande passante de 8,53 Go/s.
PC3-106001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 667 MHz utilisant des puces
de mémoire DDR3-1333, avec une bande passante de 10,66 Go/s.
PC3-128001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 800 MHz utilisant des puces
de mémoire DDR3-1600, avec une bande passante de 12,8 Go/s.
PC3-144001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 900 MHz utilisant des puces
de mémoire DDR3-1800, avec une bande passante de 14,4 Go/s.
PC3-160001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 1 000 MHz utilisant des puces
de mémoire DDR3-2000, avec une bande passante de 16,0 Go/s.
PC3-170001 : Barrette de mémoire DDR3-SDRAM conçues pour être cadencées à 1 066 MHz utilisant des puces
de mémoire DDR3-2133, avec une bande passante de 17,0 Go/s.
Monter son PC | 25/05/2011
4.5.1 Barrettes de mémoire
4
Les barrettes de DDR3 sont nominalement alimentées à 1.5 volt. Elles consomment beaucoup moins que les DDR2
alimentées à 1.8V, sans parler de la DDR1 qui était alimentée à 2.8V. Entre DDR3 et DDR2, il y a une économie de
40%, mais cette économie est inverse si on utilise des mémoires qui actuellement peuvent fonctionner à des fréquences
très élevées. Celles-ci vont même nécessiter un système de refroidissement avec ventilateur. Nous allons donc éviter cet
écueil en restant raisonnable.
Il faut aussi veiller à la compatibilité de la mémoire et de la carte mère. Un mauvais appairage peut entrainer des
instabilités rédhibitoires du système.
Mais la mémoire, ça ne marche pas tout seul.
Un critère peu évoqué, les temps de latence. A quoi bon une fréquence élevée, s’il faut 10 coups d’horloge pour accéder à
une information ? Une fréquence moindre et 7 coups d’horloge vont faire mieux. Tout ceci se cache derrière les
abréviations CL, CAS, RAS, LCAS et autres. En fait, une jungle où il est difficile de se retrouver.
Pour plus d’information : http://www.commentcamarche.net/contents/pc/ram.php3 ou encore
http://en.wikipedia.org/wiki/CAS_latency.
Un critère qu’il faut retenir est le dual channel. Cette technologie permet d’interroger deux modules en même temps ce
qui implique que le contrôleur mémoire en est capable, et que la mémoire est composée de deux barrettes compatibles.
Elles doivent présenter des caractéristiques identiques. Elles sont appariées par le constructeur.
5 Le stockage
Les disques. Ils ont fait des progrès sensationnels depuis la découverte de la magnétorésistance géante. La
magnétorésistance géante a été découverte dans des couches monocristallines en 1988 par deux équipes indépendantes :
celle d’Albert Fert, de l’Université d’Orsay et celle menée par Peter Grünberg du Centre de recherche de Jülich en
Allemagne. Finie, l’exploitation de l’induction électromagnétique pour lire l’état magnétiques des molécules du media.
On y a gagné en densité d’information dans un rapport considérable. Actuellement, il est courant de disposer de disques
de 1 ou 2 To, soit 1000 ou 2000 Giga-octets ! De quoi faire rêver. Nous étions émerveillés en 1990 quand nous avions un
disque de 40 Mo. En 1980, un disque de 5Mo coutait 30000 Francs. Qui ose dire que le cout de la vie augmente ?
Le disque dur reste toutefois un élément mécanique que l’on va qualifier de lent. La vitesse de transfert des informations
du media vers sa mémoire interne n’est pas très rapide. Cette vitesse s’améliore avec la vitesse de rotation. Nous avons le
choix entre 5400, 7200 et 10000 tours par minute. 5400 est plutôt réservé aux disques de 2.5 pouces, ceux des portables.
Les autres disques, ceux de 3.5 pouces tournent en général à 7200 tours. Seuls les disques SCSI et les Raptors tournent à
10000 tours. Les couts s’envolent ainsi que la dissipation des calories. Nous allons donc rester dans le domaine des disques
3.5 pouces qui tournent à 7200 tours. Deux critères restent à surveiller :
Monter son PC | 25/05/2011

5
La mémoire cache. Elle est importante. En effet lorsque le processeur demande une information au disque, celuici charge dans sa mémoire cache tout ce qui est autour de cette information. Statistiquement, quand le processeur
va demander l’information suivante, la probabilité pour que celle-ci soit proche de la précédente est très
importante. Elle sera donc déjà en mémoire et la vitesse de transfert entre cette mémoire et le processeur est
bien plus rapide. Pour améliorer cette statistique, il est important que les informations soient regroupées
physiquement sur le media. C’est la raison de la défragmentation.
 Le temps moyen d’accès. Il définit la performance moyenne du disque. Toute milliseconde est bonne à prendre.
Enfin, si le budget le permet, il existe des disques statiques, les SSD1. En quelque sorte une énorme clef USB2. Compte
tenu du prix, il est obligatoire de limiter le volume de ce genre de disque que nous réserverons aux données les plus
sollicitées. Nous installerons l’OS sur ce genre de media.
Enfin, le standard d’exploitation du disque a son importance. Finis les disques PATA. Ils étaient reliés à la carte mère par
une nappe avec de nombreux fils causes d’induction mutuelle et donc de ralentissements. La norme actuelle est SATA
(Serial Advanced Technology Attachment). Et nous venons de passer du SATA2 au SATA3. Ce qui améliore par un facteur
de 2 la vitesse de transfert entre le disque et la carte mère.
1
2
Solid State Disk
Universal Serial Bus
Donc, quoi qu’il arrive, il ne faut plus acheter de SATA2, un SATA3 étant rétro-compatible SATA2, et dans toute la
mesure du possible, il faut choisir une carte mère capable de gérer du SATA3. Nous en revenons au choix du chipset.
6 Choix du boitier
Il dépend du choix du format de la carte mère. Pour les ordinateurs de salon en format mini-ITX, nous nous orienterons
vers des boitiers Home Cinema mini-ITX. Par exemple, un Antec ISK-100.
Pour notre choix, et pour une carte ATX, nous opterons pour un boitier moyen tour. D’abord, une mini tour ne pourrait
intégrer qu’une carte µATX, et ensuite, un boitier plus vaste permet une meilleure circulation de l’air.
Mais les critères de choix sont multiples. La finition est un facteur important. Finir son installation sans avoir les mains
lézardées de nombreuses griffures est bien agréable. Des tôles bien ébarbées, c’est agréable. Il y a aussi la facilité
d’installation des éléments. Bien sûr, il va falloir un tournevis pour installer l’alimentation et la carte mère. Mais ce ne
sont pas des composants que l’on démonte souvent. En revanche, la fixation sans vis des disques et des lecteurs est un
critère à retenir. L’ouverture facile des panneaux aussi.
Un critère qui ne saute pas aux yeux est la dimension possible de la carte graphique. La tour des disques doit être en
travers pour ne pas interférer avec les cartes graphiques les plus longues.
La position de l’alimentation a son importance. Les alimentations que l’on peut fixer en bas du boitier vont se refroidir
avec de l’air frais alors que le montage historique en haut de boitier refroidit l’alimentation avec de l’air déjà réchauffé par
les autres composants. En revanche, elles vont avaler plus de poussière.
En dernier lieu, et non des moindre, il faut penser au refroidissement. Il faut penser à ventiler les disques. Leur durée de
vie ne dépend. Un ventilateur en face avant qui souffle sur le rack des disques est donc indispensable. Ensuite, il faut
penser aux ventilateurs de boitier. Ils seront d’autant plus nombreux que l’on aura conçu une configuration gourmande en
énergie. Et pour tous ces ventilateurs, interdiction de prendre des ventilateurs de moins de 12cm pour des raisons de
bruit. Attention, tous les ventilateurs ne se valent pas, ni en rendement en terme de ventilation, ni en terme de bruit.
Ensuite, les détails ; accessibilité des boutons et différentes astuces.
Les boitiers en alu ont fait sensation pour la qualité de l’aluminium à faciliter les échanges de chaleur, et pour leur poids.
En revanche, ils sont plus chers et plus bruyants, la masse étant un moyen de lutter contre le bruit.
Autre détail, mais pour tous les boitiers dignes de ce nom, c’est appliqué, il faut s’assurer que les disques durs sont isolés
du reste du boitier par des silent blocks.
Il existe des kits pour la réduction du bruit.
La gamme des prix est assez étendue. Nous serons amenés à faire un compromis une fois de plus.
A l’air de l’écologie, nous allons choisir avec soin l’alimentation. Le critère est alors le rendement, et il faut donc éviter le
« qui peut le plus peut le moins ». Le rendement ne sera bon que si l’alimentation est utilisée entre 70 et 90% de ses
possibilités. Sans carte graphique, une alimentation de 400W devrait suffire. Il faut tenir compte du nombre des disques
durs. Autre facteur, le bruit. Il faut choisir une alimentation « quiet », autrement dit avec un ventilateur de 12cm, voire
14, dont la vitesse est gérée en fonction des besoins.
Autre critère qui n’a rien à voir avec les performances, mais avec l’ergonomie, la modularité. L’alimentation modulaire
permet d’installer seulement les câbles nécessaires.
8 Le refroidissement
Ayant défini une configuration modeste, nous n’allons pas aborder le « water cooling » qui est plus couteux et
contraignant que les systèmes plus classiques de refroidissement par ventilation.
Nous nous efforçons d’éviter les systèmes bruyants. Pour cela, nous évitons d’utiliser les ventilateurs de petites
dimensions. Pas moins de 12 cm. Le fait d’éviter la carte graphique permet d’en éviter les nuisances sonores. Nous
n’utiliserons pas le ventirad d’origine du processeur, mais un système équipé de caloducs et d’un ventilateur de grande
dimension. Enfin, nous n’utiliserons que des ventilateurs dont la vitesse de rotation est commandée par la carte mère.
Ceux-ci se reconnaissent par la présence d’un connecteur avec 4 contacts au lieu de 3.
Monter son PC | 25/05/2011
7 L’alimentation
6
9 Le BIOS vs UEFI
Monter son PC | 25/05/2011
Ce n’est pas un choix. Il est inclus à la carte mère. C’est un peu l’occasion de faire quelques rappels.
C’est quoi le Basic Input Output System ? Pour se poser cette question, il suffit de ne pas considérer que le démarrage
d’un ordinateur soit une fatalité.
D’une part, il existe un monde virtuel, le logiciel, et en premier lieu, l’Operating System, et d’autre part, un monde
physique, l’ordinateur et ses périphériques, ou tout du moins ses périphériques essentiels, l’écran, le clavier et la souris.
Rapidement arrive le disque dur.
Le logiciel ne connait pas le matériel, et les matériels sont fabriqués par divers industriels. Il faut donc une interface de
communication entre ces deux mondes pour ne pas avoir à écrire une nouvelle version de l’OS pour chaque version de
matériel. C’est le rôle du BIOS.
A la mise en marche tout processeur pointe vers une adresse unique en mémoire, adresse très au-delà du champ réservé
aux barrettes de mémoire. A cette adresse, une mémoire statique va contenir un jump vers un espace mémoire implanté
sur la carte mère. Cette mémoire est de type EPROM. Elle conserve son contenu même en l’absence d’alimentation, et
avec un jeu particulier de signaux, il est possible d’en changer le contenu. C’est le flashage du BIOS. Cette mémoire
contient un code qui s’exécute à la suite du jump atteint lors du reset. Ce code est un firmware spécifique lié à la carte
mère. Ce firmware est appelé un peu abusivement BIOS. A la mise en marche ce code va faire un certain nombre de
vérifications (le POST : Power-On Self Test), puis il installe en mémoire vive les instructions qui vont permettre la
communication entre les périphériques essentiels et l’OS. Les drivers élémentaires sont installés. Enfin, le loader est
appelé sur le périphérique de démarrage ; l’OS est chargé.
A stade de l’exécution du BIOS, tous les périphériques ne vont pas encore être en état de marcher. Ainsi, il ne faut pas
s’étonner qu’un clavier USB ne soit pas utilisable, et encore moins une clef USB. La souris n’est pas opérationnelle.
La notion de BIOS a été créée en 1980 avec les premiers IBM PC, à une époque où la mémoire vive faisait 640 koctets, le
disque dur quelques Mo et la disquette 300 ko. L’espace mémoire réservé au BIOS faisait 512 octets. A l’époque, rien ne
permettait d’imaginer l’évolution qu’il y a eu. Mais 30 ans après, on en est encore là ou presque. En effet, le BIOS est
mort, place à l’UEFI, l’Unified Extensible Firmware Interface. La contrainte d’espace n’existe plus et le terme
inapproprié de I/O est remplacé par Firmware. Cette nouvelle interface va permettre de charger tous les drivers des
périphériques devenus incontournables, tels que la souris et l’USB. Cette fois, après la disquette totalement obsolète,
même le CD prend un coup de vieux. Nous allons pouvoir booter sur une clef USB avec des vitesses de transfert très
confortables.
L’interface de ce nouveau « BIOS » permet de nombreux réglages facilités par la convivialité apportée par l’utilisation de
la souris et une présentation graphique. A découvrir.
7

Documents pareils