O/C de Core 2 Duo : petit guide théorique
Transcription
O/C de Core 2 Duo : petit guide théorique
www.pcinpact.com O/C de Core 2 Duo : petit guide théorique Rédigé par David Legrand, Le 21 décembre 2006 Le Core 2 Duo d'Intel est une bête d'overclocking, c'est un fait. Nul n'oserait dire le contraire tant les forums sont remplis d'utilisateurs qui ont joué avec la fréquence de leur CPU flambant neuf issu des labos des gars de Santa Clara. Exploiter un C2D, oui, mais avec style ! Mais plus qu'un amusement à coup de FSB, l'O/C est une science, un art, diront même certains. Ainsi, nous avons décidé de vous expliquer aujourd'hui les bases de cette pratique qui est bien floue pour nombre d'entre nous. Ce guide se veut uniquement théorique, il explique ainsi le principe de l'overclocking, ses règles, et vous dévoilera les pièges dans lesquels il ne faut pas tomber. Avant de partir dans le cambouis, on prépare le paquetage Pour la partie pratique, elle sera traitée dans nos différents dossiers à venir, avant d'être étudiée en détail, mais pour cela, il faudra encore un peu de patience... Prêt à découvrir les secrets de votre carte mère et de votre processeur ? C'est parti ! Comme nous le disions en introduction, notre dossier du jour se penche uniquement sur le Core 2 Duo (C2D) d'Intel, pour la simple et bonne raison que le potentiel de montée en fréquence de ce CPU, franchement impressionnant, incite les utilisateurs à se pencher sur une telle pratique, dont il est préférable de comprendre un peu ce dont il est question pour mieux appréhender les éventuels soucis. Pour autant, la majorité des aspects théoriques qui seront ici abordés seront valables pour la plupart des processeurs, concurrents ou non. Nous essayerons de le préciser lorsque cela ne sera pas le cas. Fréquence, FSB, coefficient : les bases La fréquence d'un processeur, exprimée en MHz ou en GHz, est le produit d'un FSB et d'un 1/10 www.pcinpact.com coefficient multiplicateur. Actuellement, tous les C2D disposent officiellement d'un FSB de 1066 MHz. Celui−ci est créé artificiellement puisqu'en fait, il est "Quad Pumped" et se voit donc multiplié par 4. Sa fréquence de travail de base est donc de 266 MHz. Dans les semaines à venir, de nouveaux modèles seront lancés, avec un FSB de 1333 MHz, qui correspondra, cette fois, à une fréquence de base de 333 MHz. Un C2D E6300 actuel, cadencé à 1,86 GHz, dispose donc d'un coefficient multiplicateur de 7 puisque 7 x 266 MHz = 1862 MHz. Afin d'overclocker notre processeur, nous avons donc deux possibilités : modifier son coefficient, ou modifier son FSB. Coefficient multiplicateur : kézako ? Dans le premier cas, on sera limité par le processeur lui−même. En effet, avec les C2D, le coefficient peut varier entre 6 et 14. Néanmoins, chaque modèle dispose d'une valeur maximum qui correspond à son coefficient par défaut (hormis pour le X6800). Ainsi, celui de l'E6300 pourra évoluer entre 6 et 7, celui de l'E6400 entre 6 et 8, celui de l'E6600 entre 6 et 9... Seul l'X6800 dispose d'un coefficient totalement libre, pouvant être compris entre 6 et 14. Il va donc falloir regarder du côté du FSB pour l'overclocking des C2D normaux. Le FSB : l'outil principal de l'éducateur de CPU Comme nous le verrons avec la partie pratique dans nos dossiers à venir, on recherche souvent deux valeurs lors d'un overclocking : • Le FSB Max, qui correspond au FSB Maximum que peut supporter l'ensemble des composants, que l'on atteint avec le coefficient le plus bas possible. • L'O/C Max, qui correspond à la fréquence globale issue de la meilleure combinaison FSB/Coefficient permettant d'obtenir les meilleures performances, en toute stabilité. 2/10 www.pcinpact.com En effet, si notre système nous permet d'appliquer au maximum un FSB de 400 MHz à un E6700, dont le coefficient peut atteindre les 10, il n'est pas dit qu'il sera possible de disposer d'une fréquence de 400 MHz x 10 = 4 GHz. De plus, il ne faut pas oublier que le FSB ne concerne pas que le CPU. En effet, des composants tels que le chipset se voient appliquer directement cette fréquence alors que celle d'autres, comme la mémoire, y sont intimement liées. Il faudra donc qu'ils acceptent sans broncher la valeur demandée, et que la carte mère ainsi que son étage d'alimentation soient conçus pour cela. Se pose alors la question des limitations, qui sont nombreuses, mais que les cartes mères actuelles nous permettent d'éviter aisément. Nous reviendrons un peu plus tard sur le choix des composants, puisque nous allons, dans un premier temps, établir la liste de ce qui peut nous bloquer, et ce qu'il sera nécessaire de faire pour passer outre. Bien souvent une histoire de fréquence... Le souci le plus simple à éliminer, puisque c'est désormais une option présente dans la quasis totalité des BIOS, c'est le réglage de la fréquence du port graphique, PCI Express dans le cas qui nous occupe (les cartes mères C2D disposant d'AGP n'étant bien souvent pas taillée pour un overclocking important). Par défaut, elle est de 100 MHz et évolue avec le FSB. Ainsi, pour éviter qu'elle n'augmente trop et fasse planter notre carte graphique, il faut lui donner une valeur fixe. L'autre grosse limitation, parfois plus gênante, se situe au niveau de la mémoire. Comme nous le verrons un peu plus loin, la façon dont est sa fréquence dépend fortement du chipset utilisé, puisque le contrôleur est situé dans le northbridge, contrairement aux Athlon 64, qui l'intègrent directement dans le CPU. 3/10 www.pcinpact.com Mais dans la quasi−totalité des cas, un coefficient est appliqué au FSB pour la déterminer. Ainsi, il faudra faire attention au choix des barrettes utilisées, qui devront être capables de supporter la fréquence demandée sans créer le moindre problème. Un allié bien utile : la modification des volts Afin d'éviter les limitations de montée en fréquence, il existe une possibilité qui est valable pour la quasi−totalité des composants : CPU, mémoire, chipset... l'augmentation de la tension de fonctionnement. Sans entrer dans des détails techniques, cela permet d'assurer une certaine stabilité à haute fréquence lorsqu'un composant affiche une petite faiblesse. Il faut néanmoins utiliser cette astuce avec parcimonie, puisque pour rappel, la puissance dissipée se calcule de la manière suivante pour un processeur : P = k x f x U². La puissance dissipée est donc le résultat du produit de la fréquence de fonctionnement, d'un coefficient propre au processeur, mais surtout, du carré de la tension qui lui est appliquée. Ainsi, si l'on augmente la tension de 10 %, soit un peu plus de 0.1 V dans le cas d'un C2D, on verra le nombre de watts grimper de 21 % (1,1 * 1,1 = 1,21), ce qui n'est pas franchement négligeable. Il faudra donc y aller mollo, puisque cela aura une influence très négative sur la consommation, mais aussi parce que la tolérance thermique des processeurs n'est pas illimitée. Dure loi de la physique : la puissance est proportionnelle au carré de la tension En effet, des technologies sont mises en oeuvre au sein même des CPU afin d'éviter toute détérioration comme au bon vieux temps des Athlon XP qui faisaient dans la combustion spontanée. 4/10 www.pcinpact.com Ainsi, si la température dépasse des valeurs fixées par Intel, dans les 80°C d'après nos constatations, le coefficient passera dynamiquement à sa valeur minimale afin de limiter l'échauffement. Certains peuvent donc avoir l'impression d'avoir obtenu un overclocking immense et stable, alors qu'en fait, leurs performances sont dégradées puisque le processeur passe périodiquement à une fréquence plus faible, comme le montrent ces deux captures : Tensions automatique... puis @ 1.5 V, c'est stable, mais à quel prix ? Comme vous pouvez le voir, on a pu ici atteindre une valeur record, stable, mais qui n'est pas franchement payante au niveau des résultats... D'après nos différents tests, avec un refroidissement par air, lorsqu'une tension de plus d'1.45 V est appliquée au CPU, de tels soucis peuvent apparaître, on peut aller au−delà, mais le résultat dépendra du système utilisé ainsi que de la température interne de la machine. Le mode automatique, c'est bien souvent le plus pratique Il faudra alors choisir un système de refroidissement adapté à vos ambitions d'overclocking, et ne pas hésiter à lorgner du côté du watercooling si jamais vous voulez atteindre des valeurs réellement élevées. Attention tout de même concernant les autres composants, tels que la mémoire ou le chipset, qui ne disposent pas, eux, de telles protections, et qui peuvent être détruits par l'application d'une tension trop élevée. Au final, puisque la plupart des cartes mères "taillées" pour l'O/C disposent d'un système de gestion des tensions automatique assez fiable, on ne pourra que conseiller aux utilisateurs les plus novices de s'en contenter, et aux autres, de procéder avec la plus grande attention. Comme nous l'avons vu précédemment, il faut différencier un overclocking impressionnant, dont l'utilité se limite à la possibilité de faire le beau sur les forums, et l'overclocking efficace, qui fonctionnera réellement, bénéficiera à l'utilisateur et tiendra dans le temps. Pour le dégoter, il nous faudra tout d'abord nous équiper de quelques outils : Logiciels de monitoring : • Everest : Le plus complet, le plus simple, mais aussi le seul payant. • PC Wizard : Un logiciel similaire, mais gratuit. 5/10 www.pcinpact.com • CPU−Z : Pour tout savoir de votre CPU, votre carte mère et votre mémoire. • SyS Tool : Un outil "couteau−suisse" qui surveille l'évolution des valeurs via des courbes. Logiciel de burn : • Orthos : Version multi−core de l'excellent Stress Prime 2004, imparable. • Intel TAT : Outil de burn et de monitoring dédié aux C2D, conçu par Intel. Logiciel de test de performances : • PCMark 2005 : Il dispose de tests multi−core qui mettent à mal votre CPU. • Cinebench 9.5 : Test de rendu utilisant le multi−core. Existe en version 64 bits. Une fois tous ces logiciels téléchargés, il nous faut tout d'abord chercher le FSB Max. Pour cela il suffit de fixer les différentes fréquences telles que celle du port graphique puis de fixer les coefficients CPU et mémoire à leurs minimums. FSB Max : la première référence à dégoter Il faudra alors jouer du FSB, et éventuellement de la tension en cas d'instabilités. Pour vérifier le bon fonctionnement du système, il suffira de lancer une instance d'Orthos, qui fera planter complètement le système si la fréquence est trop élevée. Vous pouvez vous renseigner sur les différents forums ou tests afin de savoir ce que supporte votre carte mère. Un chipset tel que le P965 pouvant encaisser avec certaines cartes mères des valeurs de 450 à 500 MHz sans la moindre modification. FSB Max sur une DS4 de Gigabyte D'autres, plus anciens, tels que l'i945 ou l'i975, ne sont pas capables d'encaisser de telles valeurs, mais peuvent être largement suffisant comme on le verra un peu plus loin. Objectif : une fréquence élevée, performante et stable ! Une fois cette valeur trouvée, il nous faudra chercher le meilleur compromis pour disposer de la fréquence globale et du FSB les plus importants. On préférera ainsi faire du 8 x 450 MHz à du 9 x 400 MHz, tous deux permettant pourtant d'obtenir la même fréquence finale : 3,6 GHz. Dans nos tests, nous avons établi un protocole assez simple afin de valider un overclocking grâce aux outils que nous avons listés précédemment. 6/10 www.pcinpact.com • Lancez tout d'abord un logiciel permettant de voir la fréquence CPU en temps réel, tel qu'Everest ou CPU−Z, pour détecter une éventuelle baisse. • Lancez ensuite un test court exploitant le multi−core trois fois de suite. Si la température est trop élevée, vous constaterez une baisse des résultats. • Si les résultats sont convenables, faites tourner Orthos pendant au moins une bonne demi−heure. Si la fréquence est trop élevée, les tests planteront systématiquement, mais normalement, sans bloquer la machine. Il vous suffira alors de redémarrer pour accéder au BIOS et faire vos modifications. ... et maintenant l'O/C Max Précisons tout de même que certains constructeurs mettent à disposition des logiciels permettant de gérer vos différents paramètres directement depuis Windows. On peut d'ailleurs trouver multitudes d'outils gratuits prévus à cet effet si vous voulez vous simplifier la vie et gagner du temps. Nous n'allons pas nous embarquer dans un guide d'achat pour overclocker en manque de sensation, le produit parfait n'existant pas, et cette science étant loin d'être exacte, puisque les capacités des composants sont plus ou moins aléatoires selon les marques et les séries. L'O/C, une pratique de riche ? Non, au contraire ! Reste qu'il faut s'ôter de l'idée que l'on ne peut atteindre un overclocking élevé qu'avec des produits ultimes, réservés à une élite. C'est d'autant plus vrai avec les C2D qui disposent presque tous de la même limite. En effet, nous avons testé plusieurs modèles, certains étant tirés du réseau commercial, et d'autre nous ayant été fourni directement par Intel, et tous ont été capables de dépasser les 3 GHz sans le moindre souci. Avec la plupart de ces CPU, il sera aussi assez aisé d'atteindre les 3.2 GHz, c'est uniquement au−delà que les choses deviendront compliquées. En effet, avec un modèle très basique, un E6300, et son coefficient de 7, pour atteindre 3.2 GHz, il faudra disposer d'un FSB de 3200 / 7, soit un peu plus de 457 MHz. 7/10 www.pcinpact.com Pour cela il faudra absolument une carte mère capable de tourner à de telles fréquences, un produit milieu de gamme à base de P965 faisant très bien l'affaire. Savoir se contenter est parfois la clef de l'économie Seul souci, ce chipset dispose d'une limitation qui impose que la fréquence mémoire soit au minimum équivalente à deux fois le FSB. Il faudra alors des barrettes capables d'encaisser 914 MHz. D'après nos tests sur des Transcend PC 6400 basiques, vendues à un tarif assez bas (dans les 120 € le Go) que nous avons trouvé chez nos amis d'Ingedus Nancy, il est tout à fait possible de faire tourner de la DDR−II certifiée à 800 MHz à près de 900 MHz sans le moindre plantage. (on pourra le vérifier avec un simple Memtest). Néanmoins, si vous voulez éviter les risques, deux solutions qui s'offrent à vous : • Vous limiter à 7x 400 MHz, soit 2.8 GHz, ce qui fait déjà un beau + 50%... • Utiliser un E6400, disposant d'un coefficient de 8, il atteindra les 3.2 GHz avec de la DDR−II 800 pour quelques euros de plus seulement. Ainsi la DDR−II @ 1 GHz et autres modules très coûteux seront réservés aux quelques acharnés qui veulent dépasser des limites telles que les FSB @ 500 MHz, qui ne seront utiles que pour des overclockings extrêmes au−delà des 3.5 GHz, bien difficiles à atteindre avec un refroidissement standard de manière totalement stable. nForce 680i SLi, un concentré de technologie... aux alentours de 250 € ! 8/10 www.pcinpact.com Concernant la différence entre les C2D équipés de cache L2 de 2 Mo ou de 4 Mo, l'écart tarifaire étant encore important, alors que les gains ne dépassent que très rarement les 5%, il sera parfois plus INtéressant d'économiser quelques euros et de les utiliser pour un composant plus vital, pour une application ludique par exemple : les jeux. À chaque utilisation, son composant prédominant En effet, plutôt qu'un E6700 qui se négocie aux alentours de 480 €, on peut préférer un E6400, qui dépassera aisément les 3 GHz, et se servir des 200 € économisés pour passer d'une X1950Pro à une 8800GTS... la différence sera radicale entre les deux solutions. Bien entendu, ceux qui recherchent avant tout la puissance CPU verront les choses différemment, et pour eux, on conseillera plutôt de se pencher vers un E6600 qui est actuellement le meilleur rapport fréquence/cache/prix de la gamme Intel. Pour ce premier dossier, nous ne nous sommes limités qu'à l'analyse théorique de l'overclocking des C2D, et des choix qui y sont liés, mais comme on a pu le voir, les choses sont bien plus complexes qu'il pourrait y paraître. L'overclocking oui, mais celui que l'on peut utiliser ! En effet, les records à 3.8 GHz ne sont pas toujours atteignables de manière stable pour le commun des mortels, sans parler des tests à base de LN2 qui n'ont pour seul et unique but que de briser des records. Mais cela est−il bien nécessaire ? En effet, on peut aisément atteindre les 3.2 GHz sans le moindre souci, comme le prouvent les différents retours d'utilisateurs, et comme nous le verrons dans notre future analyse pratique. Ces quelques centaines de MHz supplémentaires valent−elles réellement des investissements aussi colossaux ? Passer des après−midi voire des nuits entières à tenter de grappiller quelques bouts de FSB à coup de modification de tensions et au prix d'une consommation fortement en hausse est−il nécessaire ? Non, bien entendu. Il ne faut pas oublier qu'au départ, ce surcadençage a pour but d'obtenir des performances accrues à moindres frais, et non de dépenser trois fois plus pour gagner 10 % de performances. Alors il ne vous reste plus qu'à choisir les bons éléments, qui ne sont pas forcément les plus 9/10 www.pcinpact.com coûteux, aller au tréfond de votre BIOS pour trouver les réglages les plus effifaces, à vérifier que l'ensemble est parfaitement fonctionnel, et surtout, à venir nous faire part de vos résultats dans notre forum. Plus de performances à moindre coût, c'est là tout le sens de cette pratique Parce que, justement, l'overclocking n'est pas une science exacte, elle est faite d'expériences, qui se doivent d'être partagées. Pour ceux qui souhaitent aller plus loin dans leur connaissance de cette pratique, nous ne pouvons que leur conseiller la lecture du topic créé par nos chers INpactiens, qui explique plus en profondeur certains aspects de la modification des fréquences, des tensions, etc. Et pour savoir quels sont les impacts de tous ces réglages dans les faits, il faudra attendre notre prochain dossier traitant de ce sujet, qui verra le jour, l'année prochaine, sans nul doute ;) http://www.pcinpact.com/d−78−1−Overclocking_Intel_C2D.htm ©2007 − http://www.pcinpact.com 10/10