O/C de Core 2 Duo : petit guide théorique

Transcription

O/C de Core 2 Duo : petit guide théorique
www.pcinpact.com
O/C de Core 2 Duo : petit guide théorique
Rédigé par David Legrand, Le 21 décembre 2006
Le Core 2 Duo d'Intel est une bête d'overclocking, c'est un fait. Nul n'oserait
dire le contraire tant les forums sont remplis d'utilisateurs qui ont joué avec la
fréquence de leur CPU flambant neuf issu des labos des gars de Santa Clara.
Exploiter un C2D, oui, mais avec style !
Mais plus qu'un amusement à coup de FSB, l'O/C est une science, un art, diront même
certains. Ainsi, nous avons décidé de vous expliquer aujourd'hui les bases de cette pratique
qui est bien floue pour nombre d'entre nous.
Ce guide se veut uniquement théorique, il explique ainsi le principe de l'overclocking, ses
règles, et vous dévoilera les pièges dans lesquels il ne faut pas tomber.
Avant de partir dans le cambouis, on prépare le paquetage
Pour la partie pratique, elle sera traitée dans nos différents dossiers à venir, avant d'être
étudiée en détail, mais pour cela, il faudra encore un peu de patience...
Prêt à découvrir les secrets de votre carte mère et de votre processeur ? C'est parti !
Comme nous le disions en introduction, notre dossier du jour se
penche uniquement sur le Core 2 Duo (C2D) d'Intel, pour la simple et
bonne raison que le potentiel de montée en fréquence de ce CPU,
franchement impressionnant, incite les utilisateurs à se pencher sur
une telle pratique, dont il est préférable de comprendre un peu ce dont
il est question pour mieux appréhender les éventuels soucis.
Pour autant, la majorité des aspects théoriques qui seront ici abordés seront valables pour la
plupart des processeurs, concurrents ou non. Nous essayerons de le préciser lorsque cela
ne sera pas le cas.
Fréquence, FSB, coefficient : les bases
La fréquence d'un processeur, exprimée en MHz ou en GHz, est le produit d'un FSB et d'un
1/10
www.pcinpact.com
coefficient multiplicateur.
Actuellement, tous les C2D disposent officiellement d'un FSB de 1066 MHz. Celui−ci est créé
artificiellement puisqu'en fait, il est "Quad Pumped" et se voit donc multiplié par 4. Sa
fréquence de travail de base est donc de 266 MHz.
Dans les semaines à venir, de nouveaux modèles seront lancés, avec un FSB de 1333 MHz,
qui correspondra, cette fois, à une fréquence de base de 333 MHz.
Un C2D E6300 actuel, cadencé à 1,86 GHz, dispose donc d'un coefficient multiplicateur de 7
puisque 7 x 266 MHz = 1862 MHz. Afin d'overclocker notre processeur, nous avons donc
deux possibilités : modifier son coefficient, ou modifier son FSB.
Coefficient multiplicateur : kézako ?
Dans le premier cas, on sera limité par le processeur lui−même. En effet, avec les C2D, le
coefficient peut varier entre 6 et 14. Néanmoins, chaque modèle dispose d'une valeur
maximum qui correspond à son coefficient par défaut (hormis pour le X6800).
Ainsi, celui de l'E6300 pourra évoluer entre 6 et 7, celui de l'E6400 entre 6 et 8, celui de
l'E6600 entre 6 et 9... Seul l'X6800 dispose d'un coefficient totalement libre, pouvant être
compris entre 6 et 14.
Il va donc falloir regarder du côté du FSB pour l'overclocking des C2D normaux.
Le FSB : l'outil principal de l'éducateur de CPU
Comme nous le verrons avec la partie pratique dans nos dossiers à venir, on recherche
souvent deux valeurs lors d'un overclocking :
• Le FSB Max, qui correspond au FSB Maximum que peut supporter l'ensemble des
composants, que l'on atteint avec le coefficient le plus bas possible.
• L'O/C Max, qui correspond à la fréquence globale issue de la meilleure combinaison
FSB/Coefficient permettant d'obtenir les meilleures performances, en toute stabilité.
2/10
www.pcinpact.com
En effet, si notre système nous permet d'appliquer au maximum un
FSB de 400 MHz à un E6700, dont le coefficient peut atteindre les 10, il
n'est pas dit qu'il sera possible de disposer d'une fréquence de 400
MHz x 10 = 4 GHz.
De plus, il ne faut pas oublier que le FSB ne concerne pas que le CPU.
En effet, des composants tels que le chipset se voient appliquer
directement cette fréquence alors que celle d'autres, comme la mémoire, y sont intimement
liées.
Il faudra donc qu'ils acceptent sans broncher la valeur demandée, et que la carte mère ainsi
que son étage d'alimentation soient conçus pour cela.
Se pose alors la question des limitations, qui sont nombreuses, mais que les cartes mères
actuelles nous permettent d'éviter aisément.
Nous reviendrons un peu plus tard sur le choix des composants, puisque nous allons, dans
un premier temps, établir la liste de ce qui peut nous bloquer, et ce qu'il sera nécessaire de
faire pour passer outre.
Bien souvent une histoire de fréquence...
Le souci le plus simple à éliminer, puisque c'est désormais une option présente dans la
quasis totalité des BIOS, c'est le réglage de la fréquence du port graphique, PCI Express
dans le cas qui nous occupe (les cartes mères C2D disposant d'AGP n'étant bien souvent
pas taillée pour un overclocking important).
Par défaut, elle est de 100 MHz et évolue avec le FSB. Ainsi, pour éviter qu'elle n'augmente
trop et fasse planter notre carte graphique, il faut lui donner une valeur fixe.
L'autre grosse limitation, parfois plus gênante, se situe au niveau de la mémoire. Comme
nous le verrons un peu plus loin, la façon dont est sa fréquence dépend fortement du chipset
utilisé, puisque le contrôleur est situé dans le northbridge, contrairement aux Athlon 64, qui
l'intègrent directement dans le CPU.
3/10
www.pcinpact.com
Mais dans la quasi−totalité des cas, un coefficient est appliqué au FSB pour la déterminer.
Ainsi, il faudra faire attention au choix des barrettes utilisées, qui devront être capables de
supporter la fréquence demandée sans créer le moindre problème.
Un allié bien utile : la modification des volts
Afin d'éviter les limitations de montée en fréquence, il existe une possibilité qui est valable
pour la quasi−totalité des composants : CPU, mémoire, chipset... l'augmentation de la
tension de fonctionnement.
Sans entrer dans des détails techniques, cela permet d'assurer une certaine stabilité à haute
fréquence lorsqu'un composant affiche une petite faiblesse.
Il faut néanmoins utiliser cette astuce avec parcimonie, puisque pour rappel, la puissance
dissipée se calcule de la manière suivante pour un processeur : P = k x f x U².
La puissance dissipée est donc le résultat du produit de la fréquence de fonctionnement, d'un
coefficient propre au processeur, mais surtout, du carré de la tension qui lui est appliquée.
Ainsi, si l'on augmente la tension de 10 %, soit un peu plus de 0.1 V dans le cas d'un C2D,
on verra le nombre de watts grimper de 21 % (1,1 * 1,1 = 1,21), ce qui n'est pas franchement
négligeable.
Il faudra donc y aller mollo, puisque cela aura une influence très négative sur la
consommation, mais aussi parce que la tolérance thermique des processeurs n'est pas
illimitée.
Dure loi de la physique : la puissance est proportionnelle au carré de la tension
En effet, des technologies sont mises en oeuvre au sein même des CPU afin d'éviter toute
détérioration comme au bon vieux temps des Athlon XP qui faisaient dans la combustion
spontanée.
4/10
www.pcinpact.com
Ainsi, si la température dépasse des valeurs fixées par Intel, dans les 80°C d'après nos
constatations, le coefficient passera dynamiquement à sa valeur minimale afin de limiter
l'échauffement.
Certains peuvent donc avoir l'impression d'avoir obtenu un overclocking immense et stable,
alors qu'en fait, leurs performances sont dégradées puisque le processeur passe
périodiquement à une fréquence plus faible, comme le montrent ces deux captures :
Tensions automatique... puis @ 1.5 V, c'est stable, mais à quel prix ?
Comme vous pouvez le voir, on a pu ici atteindre une valeur record, stable, mais qui n'est
pas franchement payante au niveau des résultats...
D'après nos différents tests, avec un refroidissement par air, lorsqu'une tension de plus
d'1.45 V est appliquée au CPU, de tels soucis peuvent apparaître, on peut aller au−delà,
mais le résultat dépendra du système utilisé ainsi que de la température interne de la
machine.
Le mode automatique, c'est bien souvent le plus pratique
Il faudra alors choisir un système de refroidissement adapté à vos ambitions d'overclocking,
et ne pas hésiter à lorgner du côté du watercooling si jamais vous voulez atteindre des
valeurs réellement élevées.
Attention tout de même concernant les autres composants, tels que la mémoire ou le chipset,
qui ne disposent pas, eux, de telles protections, et qui peuvent être détruits par l'application
d'une tension trop élevée.
Au final, puisque la plupart des cartes mères "taillées" pour l'O/C disposent d'un système de
gestion des tensions automatique assez fiable, on ne pourra que conseiller aux utilisateurs
les plus novices de s'en contenter, et aux autres, de procéder avec la plus grande attention.
Comme nous l'avons vu précédemment, il faut différencier un overclocking impressionnant,
dont l'utilité se limite à la possibilité de faire le beau sur les forums, et l'overclocking efficace,
qui fonctionnera réellement, bénéficiera à l'utilisateur et tiendra dans le temps.
Pour le dégoter, il nous faudra tout d'abord nous équiper de quelques outils :
Logiciels de monitoring :
• Everest : Le plus complet, le plus simple, mais aussi le seul payant.
• PC Wizard : Un logiciel similaire, mais gratuit.
5/10
www.pcinpact.com
• CPU−Z : Pour tout savoir de votre CPU, votre carte mère et votre mémoire.
• SyS Tool : Un outil "couteau−suisse" qui surveille l'évolution des valeurs via des
courbes.
Logiciel de burn :
• Orthos : Version multi−core de l'excellent Stress Prime 2004, imparable.
• Intel TAT : Outil de burn et de monitoring dédié aux C2D, conçu par Intel.
Logiciel de test de performances :
• PCMark 2005 : Il dispose de tests multi−core qui mettent à mal votre CPU.
• Cinebench 9.5 : Test de rendu utilisant le multi−core. Existe en version 64 bits.
Une fois tous ces logiciels téléchargés, il nous faut tout d'abord chercher le FSB Max. Pour
cela il suffit de fixer les différentes fréquences telles que celle du port graphique puis de fixer
les coefficients CPU et mémoire à leurs minimums.
FSB Max : la première référence à dégoter
Il faudra alors jouer du FSB, et éventuellement de la tension en cas d'instabilités. Pour
vérifier le bon fonctionnement du système, il suffira de lancer une instance d'Orthos, qui fera
planter complètement le système si la fréquence est trop élevée.
Vous pouvez vous renseigner sur les différents forums ou tests afin de savoir ce que
supporte votre carte mère. Un chipset tel que le P965 pouvant encaisser avec certaines
cartes mères des valeurs de 450 à 500 MHz sans la moindre modification.
FSB Max sur une DS4 de Gigabyte
D'autres, plus anciens, tels que l'i945 ou l'i975, ne sont pas capables d'encaisser de telles
valeurs, mais peuvent être largement suffisant comme on le verra un peu plus loin.
Objectif : une fréquence élevée, performante et stable !
Une fois cette valeur trouvée, il nous faudra chercher le meilleur compromis pour disposer de
la fréquence globale et du FSB les plus importants. On préférera ainsi faire du 8 x 450 MHz à
du 9 x 400 MHz, tous deux permettant pourtant d'obtenir la même fréquence finale : 3,6 GHz.
Dans nos tests, nous avons établi un protocole assez simple afin de valider un overclocking
grâce aux outils que nous avons listés précédemment.
6/10
www.pcinpact.com
• Lancez tout d'abord un logiciel permettant de voir la fréquence CPU en temps réel, tel
qu'Everest ou CPU−Z, pour détecter une éventuelle baisse.
• Lancez ensuite un test court exploitant le multi−core trois fois de suite. Si la
température est trop élevée, vous constaterez une baisse des résultats.
• Si les résultats sont convenables, faites tourner Orthos pendant au moins une bonne
demi−heure.
Si la fréquence est trop élevée, les tests planteront systématiquement, mais normalement,
sans bloquer la machine. Il vous suffira alors de redémarrer pour accéder au BIOS et faire
vos modifications.
... et maintenant l'O/C Max
Précisons tout de même que certains constructeurs mettent à
disposition des logiciels permettant de gérer vos différents paramètres
directement depuis Windows. On peut d'ailleurs trouver multitudes
d'outils gratuits prévus à cet effet si vous voulez vous simplifier la vie et
gagner du temps.
Nous n'allons pas nous embarquer dans un guide d'achat pour overclocker en manque de
sensation, le produit parfait n'existant pas, et cette science étant loin d'être exacte, puisque
les capacités des composants sont plus ou moins aléatoires selon les marques et les séries.
L'O/C, une pratique de riche ? Non, au contraire !
Reste qu'il faut s'ôter de l'idée que l'on ne peut atteindre un overclocking élevé qu'avec des
produits ultimes, réservés à une élite.
C'est d'autant plus vrai avec les C2D qui disposent presque tous de la même limite.
En effet, nous avons testé plusieurs modèles, certains étant tirés du réseau commercial, et
d'autre nous ayant été fourni directement par Intel, et tous ont été capables de dépasser les
3 GHz sans le moindre souci.
Avec la plupart de ces CPU, il sera aussi assez aisé d'atteindre les 3.2 GHz, c'est
uniquement au−delà que les choses deviendront compliquées.
En effet, avec un modèle très basique, un E6300, et son coefficient de 7, pour atteindre 3.2
GHz, il faudra disposer d'un FSB de 3200 / 7, soit un peu plus de 457 MHz.
7/10
www.pcinpact.com
Pour cela il faudra absolument une carte mère capable de tourner à de telles fréquences, un
produit milieu de gamme à base de P965 faisant très bien l'affaire.
Savoir se contenter est parfois la clef de l'économie
Seul souci, ce chipset dispose d'une limitation qui impose que la fréquence mémoire soit au
minimum équivalente à deux fois le FSB. Il faudra alors des barrettes capables d'encaisser
914 MHz.
D'après nos tests sur des Transcend PC 6400 basiques, vendues à un tarif assez bas (dans
les 120 € le Go) que nous avons trouvé chez nos amis d'Ingedus Nancy, il est tout à fait
possible de faire tourner de la DDR−II certifiée à 800 MHz à près de 900 MHz sans le
moindre plantage. (on pourra le vérifier avec un simple Memtest).
Néanmoins, si vous voulez éviter les risques, deux solutions qui s'offrent à vous :
• Vous limiter à 7x 400 MHz, soit 2.8 GHz, ce qui fait déjà un beau + 50%...
• Utiliser un E6400, disposant d'un coefficient de 8, il atteindra les 3.2 GHz avec de la
DDR−II 800 pour quelques euros de plus seulement.
Ainsi la DDR−II @ 1 GHz et autres modules très coûteux seront réservés aux quelques
acharnés qui veulent dépasser des limites telles que les FSB @ 500 MHz, qui ne seront
utiles que pour des overclockings extrêmes au−delà des 3.5 GHz, bien difficiles à atteindre
avec un refroidissement standard de manière totalement stable.
nForce 680i SLi, un concentré de technologie... aux alentours de 250 € !
8/10
www.pcinpact.com
Concernant la différence entre les C2D équipés de cache L2 de 2 Mo
ou de 4 Mo, l'écart tarifaire étant encore important, alors que les gains
ne dépassent que très rarement les 5%, il sera parfois plus INtéressant
d'économiser quelques euros et de les utiliser pour un composant plus
vital, pour une application ludique par exemple : les jeux.
À chaque utilisation, son composant prédominant
En effet, plutôt qu'un E6700 qui se négocie aux alentours de 480 €, on peut préférer un
E6400, qui dépassera aisément les 3 GHz, et se servir des 200 € économisés pour passer
d'une X1950Pro à une 8800GTS... la différence sera radicale entre les deux solutions.
Bien entendu, ceux qui recherchent avant tout la puissance CPU verront les choses
différemment, et pour eux, on conseillera plutôt de se pencher vers un E6600 qui est
actuellement le meilleur rapport fréquence/cache/prix de la gamme Intel.
Pour ce premier dossier, nous ne nous sommes limités qu'à l'analyse théorique de
l'overclocking des C2D, et des choix qui y sont liés, mais comme on a pu le voir, les choses
sont bien plus complexes qu'il pourrait y paraître.
L'overclocking oui, mais celui que l'on peut utiliser !
En effet, les records à 3.8 GHz ne sont pas toujours atteignables de manière stable pour le
commun des mortels, sans parler des tests à base de LN2 qui n'ont pour seul et unique but
que de briser des records.
Mais cela est−il bien nécessaire ? En effet, on peut aisément atteindre les 3.2 GHz sans le
moindre souci, comme le prouvent les différents retours d'utilisateurs, et comme nous le
verrons dans notre future analyse pratique.
Ces quelques centaines de MHz supplémentaires valent−elles réellement des
investissements aussi colossaux ? Passer des après−midi voire des nuits entières à tenter
de grappiller quelques bouts de FSB à coup de modification de tensions et au prix d'une
consommation fortement en hausse est−il nécessaire ? Non, bien entendu.
Il ne faut pas oublier qu'au départ, ce surcadençage a pour but d'obtenir des performances
accrues à moindres frais, et non de dépenser trois fois plus pour gagner 10 % de
performances.
Alors il ne vous reste plus qu'à choisir les bons éléments, qui ne sont pas forcément les plus
9/10
www.pcinpact.com
coûteux, aller au tréfond de votre BIOS pour trouver les réglages les plus effifaces, à vérifier
que l'ensemble est parfaitement fonctionnel, et surtout, à venir nous faire part de vos
résultats dans notre forum.
Plus de performances à moindre coût, c'est là tout le sens de cette pratique
Parce que, justement, l'overclocking n'est pas une science exacte, elle est faite
d'expériences, qui se doivent d'être partagées.
Pour ceux qui souhaitent aller plus loin dans leur connaissance de cette pratique, nous ne
pouvons que leur conseiller la lecture du topic créé par nos chers INpactiens, qui explique
plus en profondeur certains aspects de la modification des fréquences, des tensions, etc.
Et pour savoir quels sont les impacts de tous ces réglages dans les faits, il faudra attendre
notre prochain dossier traitant de ce sujet, qui verra le jour, l'année prochaine, sans nul doute
;)
http://www.pcinpact.com/d−78−1−Overclocking_Intel_C2D.htm
©2007 − http://www.pcinpact.com
10/10