Contacts

Fréquence d'horloge. Comment overclocker le processeur: le côté pratique de la question

"- Dans ce train, personne ne sait rien!
- Quoi d'autre à attendre des étrangers de ces mocassins? "

Agatha Christie, Eastern Express.

Donc, messieurs, il est temps de changer le pneu pendant 10 ans l'ancien niveau industriel généralement accepté. PCI, la première version de la norme dont a été élaborée en 1991, a vécu une vie longue et heureuse, dans diverses hyposteses, comme base de petits et grands serveurs, des ordinateurs industriels, des ordinateurs portables et des solutions graphiques (nous rappelons que AGP conduit également son pedigree de PCI et c'est une option spécialisée et avancée de ce dernier). Mais avant de parler d'une nouveauté, comme des grand-mères historiques, se souvenant du développement de PCI. Pour, il n'a pas été observé que, parlant de perspectives d'avenir, il est toujours utile de trouver des analogies historiques: Histoire PCI

En 1991, Intel offre la version de base (1.0) de la norme de bus PCI (interconnexion de composant périphérique - connexion des composants périphériques). PCI est conçu pour remplacer l'ISA (et plus tard, il n'est pas très efficace et une modification EISA étendue de serveur coûteux). En plus de l'augmentation de la bande passante considérablement, le nouveau bus caractérise la possibilité d'une configuration dynamique des ressources allouées par les périphériques connectés (interruptions).

En 1993, le Groupe d'intérêt spécial PCI (PCISIG, un groupe d'intérêts spécial PCI, l'organisation qui s'est occupé de l'élaboration et de l'adoption de différentes normes liées à PCI) publie l'audit 2.0 mis à jour de la norme qui est devenue la base du large. expansion de PCI (et de ses diverses modifications) dans l'industrie technologies de l'information. De nombreuses entreprises bien connues sont impliquées dans l'activité PCISIG, y compris l'équipe générique PCI - Intel, qui a présenté à l'industrie de nombreuses normes de longue durée et historiquement performantes. Donc, la version de base de PCI (IEEE P1386.1):

  • La fréquence d'horloge du pneu 33 MHz utilise une transmission de données synchrone;
  • Culminer bande passante 133 Mo par seconde;
  • Bus de données parallèle avec une largeur 32 bits;
  • Espace d'adressage d'un 32 bits (4 Go);
  • Niveau de signal 3.3 ou 5 volts.

Plus tard, les modifications de bus clés suivantes apparaissent:

  • La largeur de bus PCI 2.2 - 64 bits et / ou la fréquence d'horloge 66 MHz sont autorisées, c'est-à-dire Bande passante maximale jusqu'à 533 mb / s.;
  • Version PCI-X, 64 bits PCI 2.2 avec une fréquence de 133 MHz (bande passante de pointe 1066 MB / s.);
  • PCI-X 266 (PCI-X DDR), Version DDR PCI-X (fréquence effective 266 MHz, réel 133 MHz avec transmission sur les deux fronts du signal d'horloge, bande passante de pointe 2,1 Gb / s);
  • PCI-X 533 (PCI-X QDR), version QDR PCI-X (fréquence effective 533 MHz, bande passante de pointe 4,3 gb / s.);
  • Mini PCI - PCI avec connecteur de style SO-DIMM, est principalement utilisé pour le réseau miniature, le modem et d'autres cartes des ordinateurs portables;
  • PCI compact - Standard sur le facteur de formulaire (les modules sont insérés à partir de l'extrémité de l'armoire avec un pneu commun sur le plan arrière) et le connecteur destiné principalement aux ordinateurs industriels et à d'autres applications critiques;
  • Port graphique accéléré (AGP) - Version PCI haute vitesse optimisée pour les accélérateurs graphiques. Il n'y a pas d'arbitrage de bus (c'est-à-dire qu'un seul appareil est autorisé, à l'exception de la dernière version 3.0 de la norme AGP, où les appareils et les machines à sous peuvent être deux). La transmission vers l'accélérateur est optimisée, il existe un ensemble de fonctionnalités supplémentaires spécifiques spécifiques aux graphiques. Pour la première fois que ce pneu est apparu avec les premiers ensembles de systèmes pour processeur de pentium II. Il existe trois versions de base du protocole AGP, une spécification d'alimentation supplémentaire (AGP PRO) et 4 tarifations de transfert de données - de 1x (266 Mo / s) à 8x (2 Go / s), y compris des niveaux de signal 1,5, 1,0 et 0,8 volts. .

Nous mentionnons également la version Cardbus - 32 bits du pneumatique des cartes PCMCIA, avec une connexion chaude et des fonctionnalités supplémentaires, ayant néanmoins beaucoup de commun. version de base PCI.

Comme nous pouvons le constater, le développement principal du pneu passe dans les directions suivantes:

  1. Créer des modifications spécialisées (AGP);
  2. Créer des formes spécialisées de facteurs (mini PCI, PCI compact, CardBus);
  3. Bit augmente;
  4. Augmenter la fréquence d'horloge et l'application des systèmes de transmission de données DDR / QDR.

Tout cela est assez logique, compte tenu de la vie énorme d'une norme universelle similaire. De plus, les éléments 1 et 2 ne fonctionnent pas pour maintenir la compatibilité avec les cartes PCI de base, mais les éléments 3 et 4 sont effectués en augmentant le connecteur PCI d'origine et permettent l'installation de cartes PCI de décharge 32x classiques. Par exemple, nous notons que lors de l'évolution du pneu, il y avait également une perte consciente de compatibilité avec les anciennes cartes, même pour la version de base du connecteur PCI - par exemple, dans les spécifications 2.3, la référence a disparu pour prendre en charge 5 volts du niveau de signal et tension d'approvisionnement. En conséquence, les cartes de serveur équipées de cette modification du pneu peuvent être blessées lorsqu'elles sont installées dans les cartes anciennes, à la tête de pâtes, bien que, du point de vue de la géométrie du connecteur, ces cartes leur conviennent.

Cependant, comme toute autre technologie (par exemple, architecture de noyaux de processeur), la technologie des pneus a ses limites de mise à l'échelle raisonnables, lorsqu'elle s'approche de l'augmentation de débit de plus en plus et supérieure au prix. La fréquence d'horloge accrue nécessite un câblage plus coûteux et impose des limitations importantes sur la longueur des lignes de signal, l'augmentation du bit ou l'utilisation de solutions DDR implique également une variété de problèmes qui sont finalement coupés dans la croissance des coûts. Et si dans le segment serveur, les solutions telles que PCI-X 266/533 seront toujours justifiées économiquement, puis dans le PC consommateur, nous ne les avons pas vus, et je ne les verrai pas. Pourquoi? De toute évidence, idéalement, la bande passante des pneus devrait se développer de manière synchrone avec une augmentation de la performance du processeur, tandis que le prix de la mise en œuvre devrait non seulement être maintenu à la même manière, mais également de manière idéale. Sur le ce moment Cela n'est possible que lorsque vous utilisez une nouvelle technologie de pneus. À leur sujet aujourd'hui et parlons: l'ère des pneus série

Ainsi, ce n'est pas un secret que, à notre époque, l'interface externe parfaite, d'une manière ou d'une autre, est cohérente. Les périodes de Centretonixes bloquées ont été passées et Tolstny (non expliquée) des flexibles SCSI - en fait, patrimoine avant PCS. La transition s'est produite lentement, mais correctement: d'abord le clavier et la souris, puis le modem, puis, après des années et des années - scanners et imprimantes, caméscopes, caméras numériques. USB, IEE1394, USB 2. Pour le moment, tous les périphériques extérieurs du consommateur ont déménagé à connexions consécutives. Pas au coin de la rue et solutions sans fil. Le mécanisme est évident - à notre époque, il est plus rentable de poser une fonctionnalité maximale dans la puce (connexion chaude, codage séquentielle, transmission et réception, décodage de données, protocoles de routage et protocoles d'erreur, etc. nécessaires à la suppression de la flexibilité topologique nécessaire et bande passante essentielle d'une paire de fils plutôt que de traiter des contacts en excès, des tuyaux avec des centaines de fils à l'intérieur, de soudure pas cher, de blindage, de câblage et de cuivre. De nos jours, des pneus cohérents deviennent plus pratiques non seulement du point de vue de l'utilisateur final, mais du point de vue de l'avantage banal - une bande passante pour se multiplier à la distance pour diviser les dollars. Bien sûr, au fil du temps, cette tendance n'a pas pu se propager à l'intérieur de l'ordinateur - nous observons déjà le premier fruit de cette approche - série ATA. De plus, il est possible d'extrapoler cette tendance non seulement sur les pneus système (le sujet principal de cet article) mais également sur le bus de la mémoire (il est à noter à juste titre qu'un exemple similaire était déjà - Rambus, mais l'industrie la trouva assez prématurément) et même le pneu de processeur (potentiellement plus bon exemple - ht). Qui sait combien de contacts seront au Pentium X - peut-être moins d'une centaine, à condition que la moitié d'entre elles soient des terres et de la nutrition. Il est temps de ralentir et de formuler clairement les avantages des pneus série et des interfaces:

  1. Transfert favorable d'une partie croissante de la mise en œuvre pratique du pneu sur le silicium, ce qui facilite la débogage, augmente la flexibilité et réduit le temps de développement;
  2. La perspective est organiquement utilisée dans le futur d'autres transporteurs du signal, tels que l'optique;
  3. Économiser de l'espace (miniaturisation non poche) et diminution de la complexité de l'installation;
  4. Il est plus facile d'implémenter des connexions chaudes et une configuration dynamique en tout sens;
  5. La capacité de mettre en évidence les canaux garantis et isochrones;
  6. La transition de pneus partagés avec arbitrage et interruption imprévisible inconfortable pour des systèmes fiables / critiques à des connexions point à point plus prévisibles;
  7. Mieux en termes de coûts et plus flexibles du point de vue de l'évolutivité de la topologie;
  8. Ce n'est pas assez ??? ;-).

À l'avenir, vous devriez vous attendre à ce que la transition sur des pneus sans fil, des technologies similaires à UWB (bande ultra large) toutefois, il s'agit d'une question de l'année prochaine et non même de cinq ans.

Et maintenant, il est temps de discuter de tous les avantages sur exemple spécifique - Nouveau bus système standard PCI Express.La distribution de masse dont on s'attend sur le segment PC et les serveurs moyens / Petits-petits / à la prochaine année. PCI Express - Seulement des faits

PCI Express - Différences clés

Détachez les différences clés de PCI Express de PCI:

  1. Comme mentionné à plusieurs reprises - le nouveau pneu est cohérent, non parallèle. Principaux avantages - réduction des coûts, miniaturisation, meilleure échelle, paramètres électriques et de fréquences plus favorables (pas besoin de synchroniser toutes les lignes de signal);
  2. La spécification est divisée en une pile entière de protocoles, dont chaque niveau peut être amélioré, simplifié ou remplacé sans affecter le reste. Par exemple, un support de signal différent peut être utilisé ou le routage peut être supprimé dans le cas d'un canal sélectionné uniquement pour un périphérique. Des capacités de contrôle supplémentaires peuvent être ajoutées. Le développement d'un tel pneu se produira beaucoup moins douloureux - une augmentation de la bande passante ne nécessitera pas de modification du protocole de contrôle et inversement. Développer rapidement et facilement des options spéciales adaptées;
  3. Dans la spécification originale, les possibilités de swaps chauds de cartes sont posées;
  4. Dans la spécification originale, la création de canaux virtuels est posée, garantissant la bande passante et le temps de réponse, la collecte de statistiques de QoS (qualité de service - qualité de service);
  5. Dans la spécification initiale, les possibilités de surveiller l'intégrité des données transmises (CRC) sont posées;
  6. Dans la spécification originale, les capacités de la gestion de l'énergie sont posées.

Tellement plus larges gammes Applicabilité, mise à l'échelle et adaptation plus confortable, ensemble riche de capacités initialement reliées. Tout est si bon que je ne peux tout simplement pas croire. Cependant, par rapport à ce pneu, même les pessimistes avides parlent plus probablement plutôt que négativement. Et cela n'est pas surprenant - un candidat pour une trone de dix ans de la norme générale pour un grand nombre d'applications différentes (à partir de mobiles et intégrés et se terminant par les serveurs "d'entreprise" ou des applications critiques) est simplement obligé de regarder impeccable de Tous les côtés, au moins sur papier :-). Comment ce sera dans le cas - nous les verrons bientôt. PCI Express - Comment ça va regarder

Le moyen le plus simple d'aller à PCI-Express pour l'architecture standard systèmes de bureau Ressemble à ça:

Cependant, à l'avenir, il est logique de s'attendre à l'apparition d'un certain séparateur PCI Express. Ensuite, l'union des ponts du sud du sud sera assez justifié. Nous donnons des exemples de topologies du système possibles. PC classique avec deux ponts:

Comme mentionné, Mini PCI Express Slot est fourni et normalisé:

Et le nouvel emplacement pour les cartes remplaçables externes, sur le type CardBus, qui est faite non seulement par PCI Express mais également USB 2.0:

Il est intéressant de noter qu'il existe deux formes de facteur de cartes, mais elles diffèrent non trop épaisses qu'auparavant, mais la largeur:

La solution est très pratique - d'abord pour créer une installation de deux étages à l'intérieur de la carte beaucoup plus chère et plus inconfortable que de créer une carte avec une zone rapide à l'intérieur, deuxièmement, une carte de largeur complète finira par doubler la bande passante, c'est-à-dire. Le deuxième connecteur ne restera pas inactif. D'un point de vue électrique ou de protocole, le bus NewCard ne porte rien de nouveau, toutes les fonctions nécessaires au remplacement à chaud ou à la sauvegarde d'énergie sont déjà posées dans la spécification PCI Express.PCI Express - Transition

Pour faciliter la transition, fournit un mécanisme de compatibilité avec logicielécrit pour PCI (périphériques, pilotes OS). De plus, les connecteurs PCI Express contrairement au PCI sont situés de l'autre côté de la carte d'extension de la section, c'est-à-dire Peut coexister dans un endroit avec des connecteurs PCI. L'utilisateur n'aura que de choisir la carte qu'il souhaite insérer. Tout d'abord, l'apparition de PCI Express est attendue dans les plates-formes Intel initiales (Two-processeur) Intel au cours du premier semestre de 2004, puis dans les plates-formes de bureau de classe d'enthousiastes et les postes de travail (la même année). La rapidité avec laquelle le PCI Express sera soutenu par d'autres fabricants de chipsets, cependant, NVIDIA et SIS répondent à la question de l'application, bien qu'ils n'appellent pas des délais spécifiques. Il a longtemps été planifié et préparé pour la sortie au premier semestre de 2004, des solutions graphiques (accélérateurs) de NVIDIA et ATI, équipées d'une prise en charge intégrée pour PCI Express X16. De nombreux autres fabricants sont des participants actifs dans le développement et les tests de PCI Express et ont également l'intention de soumettre leurs produits jusqu'à la fin de 2004.

On verra! Il y a une suspicion que le bébé est sorti bien.
En bon sens, PCI Express: Départ 2004, arrivée 2014.

Dans cet article, nous parlerons des causes du succès de la PCI de pneu et de donner une description de la technologie hautes performances qui vient à Shift - pneus PCI Express. Nous examinerons également l'historique de développement, le matériel et les logiciels des pneus PCI Express, des caractéristiques de sa mise en œuvre et énumérez ses avantages.

Quand au début des années 90. Il est apparu, puis en termes de ses caractéristiques techniques, tous les pneus tels que ISA, EISA, MCA et VL-BUS ont considérablement dépassé. À cette époque, le bus PCI (composant périphérique interconnecte - l'interaction des composants périphériques), fonctionnant à 33 MHz, était bien adapté à la plupart des dispositifs périphériques. Mais aujourd'hui, la situation a changé de nombreuses manières. Tout d'abord, les fréquences d'horloge du processeur et de la mémoire ont considérablement augmenté. Par exemple, la fréquence d'horloge des processeurs est passée de 33 MHz à plusieurs GHz, tandis que la fréquence de fonctionnement PCI n'a augmenté que de 66 MHz. L'émergence de technologies telles que Gigabit Ethernet et IEEE 1394B a menacé le fait que l'ensemble de la bande passante du bus PCI peut aller à la maintenance d'un seul appareil basé sur la technologie de données.

Dans le même temps, l'architecture PCI présente un certain nombre d'avantages par rapport aux prédécesseurs, il était donc totalement irrationnel d'être pleinement révisé. Tout d'abord, cela ne dépend pas du type de processeur, prend en charge l'isolation tampon, la technologie de maîtrise de bus (capture de pneus) et la technologie PNP en totalité. L'isolation de la mémoire tampon signifie que le bus PCI fonctionne indépendamment du bus du processeur interne, ce qui permet aux éléments de bus de processeur de fonctionner indépendamment de la vitesse et de la charge. pneu du système. Grâce à la technologie de capture de pneus, les périphériques ont pu contrôler directement le processus de transmission de données sur le bus, au lieu d'attendre de l'aide de processeur centralQu'est-ce qui affecterait les performances du système. Enfin, la prise en charge de la prise et de la lecture vous permet de configurer et de configurer automatiquement les périphériques à l'aide de l'utiliser et d'éviter de changer avec les cavaliers et les commutateurs, qui est assez porté la durée de vie des appareils ISA aux propriétaires.

Malgré le succès incontestable de la PCI, cette fois-ci, il est confronté à de graves problèmes. Parmi eux, un débit limité, un manque de fonctions de transfert de données en temps réel et un manque de soutien technologies de réseau nouvelle génération.

Caractéristiques comparatives de diverses normes PCI

Il convient de noter que la bande passante réelle peut être moins théorique en raison du principe de fonctionnement du protocole et des caractéristiques de la topologie des pneus. De plus, la bande passante totale est répartie entre tous les périphériques qui y sont connectés, plus les dispositifs se situent dans le bus, moins la bande passante se rend à chacune d'elles.

Ces améliorations standard que PCI-X et AGP ont été conçues pour éliminer son inconvénient principal - une fréquence d'horloge faible. Cependant, l'augmentation de la fréquence d'horloge dans ces implémentations a entraîné une diminution de la longueur du bus efficace et du nombre de connecteurs.

La nouvelle génération de pneus - PCI Express (ou Abréviated PCI-E) était d'abord représentée en 2004 et visait à résoudre tous les problèmes que son prédécesseur est confronté. Aujourd'hui, la plupart des nouveaux ordinateurs sont fournis avec un bus PCI Express. Bien que les emplacements PCI standard d'eux soient également présents, mais pas loin de la montagne est le moment où le pneu devient la propriété de l'histoire.

Architecture PCI Express.

L'architecture de bus a une structure à plusieurs niveaux, comme indiqué sur la figure.

Le pneu prend en charge le modèle d'adressage PCI, ce qui vous permet de travailler avec tous les pilotes et applications actuellement existants. De plus, le bus PCI Express utilise le mécanisme PNP standard prévu par la norme précédente.

Considérez le but de divers niveaux de l'organisation PCI-E. Au niveau du bus, les demandes de lecture / écriture sont formées, qui sont transmises au niveau de transport à l'aide d'un protocole de lot spécial. Le niveau de données est responsable du codage résistant au bruit et assure l'intégrité des données. Le niveau de la quincaillerie de base est constitué d'un canal double simplex constitué d'une paire de transmission et de réception, qui sont appelées ensemble la ligne. La vitesse totale du pneu de 2,5 Gb / s signifie que la largeur de bande de chaque ligne PCI Express est de 250 Mo / s dans chaque direction. Si vous prenez en compte les pertes sur les frais généraux du protocole, alors pour chaque appareil d'environ 200 mb / c. Cette bande passante est de 2 à 4 fois supérieure à celle qui était disponible pour les périphériques PCI. Et, contrairement à la PCI, dans le cas où la bande passante est distribuée entre tous les appareils, il est entièrement dans chaque appareil.

À ce jour, plusieurs versions de la norme PCI Express qui diffèrent dans leur bande passante.

PCI Express X16 Bus Bus Buswidth pour différentes versions PCI-E, GB / C:

  • 32/64
  • 64/128
  • 128/256

Formats pneus PCI-E

Pour le moment, diverses options pour les formats PCI Express sont disponibles, en fonction de l'objectif de la plate-forme - un ordinateur de bureau, un ordinateur portable ou un serveur. Les serveurs nécessitant une plus grande bande passante ont davantage de machines à sous PCI-E et ces emplacements ont un plus grand nombre de lignes de connexion. En revanche, les ordinateurs portables ne peuvent avoir qu'une seule ligne pour les périphériques à moyenne vitesse.

Carte vidéo avec interface PCI Express X16.

Les panneaux d'extension PCI Express sont très similaires aux panneaux PCI, mais les connecteurs PCI-E sont distingués par une utilisation accrue, ce qui permet de confirmer que les frais ne glissent pas de la fente en raison de la vibration ou du transport. Il existe plusieurs facteurs de formulaire des emplacements PCI Express, dont la taille dépend du nombre de lignes utilisées. Par exemple, un pneu comportant 16 lignes est indiqué comme PCI Express X16. Bien que le nombre total de lignes puisse atteindre 32, dans la pratique, la plupart des cartes mères sont actuellement équipées d'un bus PCI Express X16.

Des cartes de plus petits facteurs de forme peuvent être connectées aux connecteurs pour les grandes sans préjudice de la performance. Par exemple, la carte PCI Express X1 peut être connectée au connecteur PCI Express X16. Comme dans le cas du bus PCI, vous pouvez utiliser l'extension RCI Express pour connecter des périphériques si nécessaire.

Extérieur des connecteurs différents types sur la carte mère. De haut en bas: Slot PCI-X, emplacement PCI Express X8, emplacement PCI, emplacement PCI Express X16.

Carte express

Standard de carte express offre un moyen très simple d'ajouter de l'équipement au système. Le marché cible des modules de carte express est des ordinateurs portables et des petits PC. Contrairement aux tableaux de vulgarisation traditionnels ordinateurs de bureauLa carte Express peut être connectée au système à tout moment, tandis que l'ordinateur est en cours d'exécution.

L'une des variétés populaires de la carte Express est la carte Mini Carte PCI Express, conçue comme remplacement du facteur de formulaire MINI PCI. La carte créée dans ce format prend en charge PCI Express et USB 2.0. Les dimensions de la carte Mini PCI Express sont de 30 × 56 mm. Mapper PCI La carte Mini Express peut être connectée à PCI Express X1.

Avantages de PCI-E

La technologie PCI Express a permis d'obtenir un avantage par rapport au PCI dans les cinq régions suivantes:

  1. Performance supérieure. Si vous n'avez qu'une seule ligne, la bande passante PCI Express est deux fois plus élevée que PCI. Dans ce cas, la bande passante augmente proportionnellement au nombre de lignes dans le bus, dont le nombre maximum peut atteindre 32. Avantage supplémentaire C'est que les informations de pneus peuvent être transmises simultanément dans les deux sens.
  2. Simplifier les I / O. PCI Express utilise les avantages des pneus tels que AGP et PCI-X et possède une architecture moins complexe, ainsi que la simplicité comparative de la mise en œuvre.
  3. Architecture multi-niveaux. PCI Express propose une architecture pouvant s'adapter aux nouvelles technologies et ne nécessite pas une mise à jour importante des logiciels.
  4. Nouvelle technologie d'E / S de génération. PCI Express offre de nouvelles fonctionnalités d'acquisition de données à l'aide de la technologie simultanée de transmissions de données fournissant des informations de réception en temps opportun.
  5. Utilisation facile. PCI-E simplifie grandement la mise à jour et l'expansion du système par l'utilisateur. Formats supplémentaires Les cartes express, telles que ExpressCard, augmentent considérablement la possibilité d'ajouter des périphériques à grande vitesse aux serveurs et aux ordinateurs portables.

Conclusion

PCI Express est une technologie de pneus destinée à la connexion de périphériques de périphériques qui ont remplacé de telles technologies telles que ISA, AGP et PCI. Son application augmente considérablement les performances de l'ordinateur, ainsi que la capacité de l'utilisateur à développer et à mettre à jour le système.

Lors de l'overclocking du processeur dans mode manuel Vous pouvez définir manuellement la fréquence du bus système souhaitée, l'alimentation du processeur et sélectionner d'autres paramètres d'overclocking. Ce mode vous permet d'augmenter de manière significative la fréquence du processeur.

Les cartes mères modernes vous permettent d'overclocker le processeur en mode manuel en utilisant des utilitaires spéciaux à partir de Windows. Cependant, ce mode d'overclocking ne donne pas toutes les fonctionnalités qu'il y a du BIOS carte mère. Par conséquent, le plus approprié sera l'accélération du processeur central par le BIOS.

Considérons l'accélération manuelle du processeur central sur l'exemple d'un typique BIOS maternel Cartes asus.

Après avoir entré dans le BIOS, vous devez sélectionner l'onglet Avancé (facultatif) du menu principal et, dedans, l'élément de configuration JumperFree (configuration JumperFree) ( figure. 17.3). En conséquence, le menu d'accélération du processeur s'ouvre ( figure. 17.4).

Figure. 17.3. Onglet avancé (facultatif) Menu principal BIOS

Afin d'accéder paramètres manuels Fréquences de bus système, vous devez sélectionner la valeur manuelle (manuel) Paramètre AI Horloding (accélération intelligente) ( figure. 17.5). En conséquence, deux nouveaux paramètres apparaîtront:

Fréquence de la CPU (fréquence du processeur) - Permet en mode manuel de régler la fréquence du bus système avec une étape de 1 MHz (cette fréquence de fréquence à la fréquence du processeur - augmente ainsi la fréquence de la CPU);

Figure. 17.4. Onglet avancé (avancé), élément de configuration JumperFree (configuration JumperFree) Menu BIOS

Fréquence PCI Express pneus PCI-Express) - Utilisé pour définir la fréquence des pneus PCI-Express.

Figure. 17.5 Réglage du paramètre d'overclocking AI (accélération intelligente) sur manuel (manuel)

Avant de commencer l'overclocking, il est nécessaire de corriger manuellement la fréquence de bus PCI-Express à 101 MHz, car vous devez définir la valeur de paramètre de fréquence PCI-Express (fréquence de bus PCI-Express) égale à 101.

Après cela, vous pouvez passer à la procédure d'accélération du processeur. Pour ce faire, il est nécessaire d'augmenter progressivement la valeur paramètre CPU Fréquence (fréquence de processeur) ( figure. 17.6). La fréquence du processus devrait être augmentée progressivement, par incréments de 10 MHz.

Après avoir augmenté la fréquence, enregistrez tous les paramètres du BIOS et redémarrez le système. Si la charge du système d'exploitation se produit, il est nécessaire de tester la stabilité du système (voir chapitre 19). Le système est exécuté stable, puis vous pouvez augmenter rapidement la fréquence du processeur, si le système est instable, la fréquence du fonctionnement du processeur doit être réduite en 1 MHz jusqu'à atteindre la valeur stable.

Figure. 17.6. Définir le paramètre de fréquence de la CPU (fréquence du processeur)

L'accélération du processeur est un processus de consommation de temps. La réalisation de la fréquence maximale stable du processeur peut prendre de plusieurs dizaines de minutes à plusieurs heures. Il convient également de dire que chaque copie du processeur est accélérée de différentes manières, donc même deux processeurs identiques utilisés avec le même carte mère et la mémoire peut avoir différentes fréquences de travail maximales.

L'exemple ci-dessus d'overclocking manuelle ne permet pas d'obtenir la fréquence maximale possible du processeur, mais elle contribuera à disperser de manière significative la CPU. Pour obtenir des fréquences d'overclocking plus élevées, il est également nécessaire de modifier les paramètres de fonctionnement du système telles qu'une tension d'alimentation de processeur, un multiplicateur de bus système, une alimentation en mémoire. Cependant, tous les paramètres ci-dessus ne sont pas disponibles pour le réglage du BIOS de la plupart des tableaux système. Il n'est donc pas toujours possible de dispersé le processeur avec ces paramètres.

Le fonctionnement de tout ordinateur numérique dépend de la fréquence d'horloge que le résonateur de quartz détermine. C'est un conteneur d'étain dans lequel un cristal de quartz est placé. Sous l'influence de la tension électrique dans le cristal, des fluctuations de courant électrique se produisent. C'est la plus fréquence de l'oscillation et s'appelle une fréquence d'horloge. Toutes les modifications des signaux logiques dans n'importe quelle puce d'ordinateurs se produisent après certains intervalles appelés tactiques. À partir de là, nous concluons que la plus petite unité de mesure du temps pour la plupart des dispositifs logiques de l'ordinateur a une horloge ou une autre - une période de fréquence d'horloge. Il suffit de mettre, au moins un battement est requis pour chaque opération (bien que certains appareils modernes aient le temps d'effectuer plusieurs opérations pour une horloge). La fréquence d'horloge, par rapport aux ordinateurs personnels, est mesurée en MHz, où Hertz est une oscillation par seconde, respectivement, 1 MHz est un million d'oscillation par seconde. Théoriquement, si votre bus informatique fonctionne à 100 MHz, il peut effectuer jusqu'à 100 000 000 opérations par seconde. Au fait, il n'est pas du tout nécessaire que chaque composant du système ait dû faire quelque chose avec chaque tact. Il y a des horloges soignées (cycles d'attente) lorsque l'appareil est en train d'attendre une réponse de tout autre appareil. Par exemple, le fonctionnement de la RAM et du processeur (CPU) est organisé, dont la fréquence d'horloge est nettement supérieure à la fréquence d'horloge de la RAM.

Bigness

Le pneu consiste en plusieurs canaux pour transmettre des signaux électriques. S'il est dit que le pneu est trente-nanches, cela signifie qu'il est capable de transmettre des signaux électriques de trente-canaux en même temps. Il y a une puce ici. Le fait est que le pneu de tout bit déclaré (8, 16, 32, 64) a en fait plus de canaux. C'est-à-dire que si vous prenez le même bus de trente-déconnexion, 32 canaux sont alloués pour transmettre les données elles-mêmes et les canaux supplémentaires sont destinés à la transmission d'informations spécifiques.

Taux de transfert des données

Le nom de ce paramètre parle pour lui-même. Il est calculé par la formule:

fréquence de l'horloge * Bit \u003d Taux de données

Nous calculerons le débit de données pour un pneu de système de décharge 64 fonctionnant sur une fréquence d'horloge de 100 MHz.

100 * 64 \u003d 6400 Mbps SEC6400 / 8 \u003d 800 Mo / s

Mais le nombre résultant n'est pas réel. Un tas de toutes sortes de facteurs affecte les pneus: conductivité inefficace des matériaux, des interférences, des inconvénients de la construction et de l'assemblage ainsi que beaucoup plus. Selon certaines données, la différence entre le taux de transfert de données théoriques et la pratique peut atteindre 25%.

Le travail de chaque pneu est surveillé spécifiquement pour ces contrôleurs conçus. Ils font partie d'un ensemble de logique système ( chipset).

Pneu Isa.

Le pneu du système ISA (architecture standard de l'industrie) est utilisé depuis le processeur I80286. La prise de planches d'extension comprend les connecteurs principaux de 64 goupilles et optionnels. Le pneu est de 16 bits, dispose de 24 lignes d'adresses, apporte un appel direct à 16 Mo de RAM. Le nombre d'interruptions matérielles - 16, des canaux DMA - 7. Il est possible de synchroniser le fonctionnement du pneu et du processeur avec des fréquences d'horloge différentes. Fréquence d'horloge - 8 MHz. Taux de transfert de données maximum - 16 Mo / s.

PCI. Bus d'interconnexion de composants périphériques - Connexion des pneus de composants périphériques)

En juin 1992, figurait sur la scène nouvelle norme - PCI, dont le parent était Intel et est organisé plus précisément par le groupe d'intérêt spécial. Au début de 1993, une version PCI améliorée est apparue. En substance, ce pneu n'est pas local. Permettez-moi de vous rappeler que le bus local s'appelle le pneu qui est directement connecté au bus système directement. Le PCI utilise également le pont hôte pour se connecter, ainsi que le pont égal à pair (pont égal à pair) conçu pour connecter deux pneus PCI. Entre autres choses, PCI est le pont lui-même entre l'ISA et le bus du processeur.

La fréquence d'horloge PCI peut être égale ou 33 MHz ou 66 MHz. Bigness - 32 ou 64. Taux de transfert de données - 132 MB / S ou 264 Mo / s.

La norme PCI fournit trois types de planches en fonction de l'alimentation:

1. 5 volts - pour les ordinateurs stationnaires

2. 3.3 Volts - pour ordinateurs portables

3. Les conseils universels pouvant fonctionner dans les deux types d'ordinateurs.

Le grand plus du pneu PCI est de satisfaire la spécification de la fiche et de la lecture. De plus, dans le bus PCI, toute transmission de signaux survient paquet dans lequel chaque paquet est divisé en phases. Un paquet de la phase d'adressage commence, suivi d'une ou plusieurs phases de données. La quantité de phases de données dans l'emballage peut être vague, mais limitée à la minuterie, qui détermine le temps maximum pendant lequel l'appareil peut être utilisé. Une telle minuterie a chacun dispositif connecté et sa valeur peut être définie lors de la configuration. Un arbitre est utilisé pour organiser des données sur le transfert de données. Le fait est que deux types de dispositifs peuvent être sur le pneu - le maître (initiateur, maître, leader) pneus et subordonné. Le maître suppose un contrôle sur le pneu et initie le transfert de données au destinataire, c'est-à-dire le dispositif subordonné. Un assistant ou un subordonné peut être un appareil connecté au bus et à la hiérarchie qui change constamment en fonction de laquelle l'appareil a demandé un transfert de données sur le pneu de transmission et à qui. Pour une opération confronfliale, le pneu PCI répond le chipset ou plutôt le pont North. Mais la vie PCI n'a pas empêché son courant. L'amélioration constante des cartes vidéo a conduit au fait que les paramètres physiques du pneu PCI ont commencé à manquer, ce qui a entraîné l'apparition de AGP.

Les salutations chers amis, connaissances, lecteurs, admirateurs et autres personnes. Si vous vous en souvenez, nous avons soulevé depuis longtemps, mais purement en coupe théorique, et après avoir promis de faire un article pratique.

Étant donné que l'overclocking, la chose est assez difficile et ambiguë, les articles de ce cycle seront un montant assez décent et nous l'avons soutenu pour une raison simple, il est tout simplement impossible partout pour écrire, en plus de cela, c'est simplement impossible partout.

Aujourd'hui, nous considérons le côté le plus fondamental et le plus typique de l'overclocking, mais avec tout cela, nous élevons en même temps les nuances les plus importantes et les plus clés, c'est-à-dire que nous accordons une compréhension de la manière dont cela fonctionne sur l'exemple.

Continuons.

Accélération du processeur dans le contexte [sur l'exemple de la carte P5E Deluxe].

En fait, on peut dire que l'overclocking est deux: à l'aide de programmes ou directement de BIOS..

Nous ne considérerons pas les méthodes de programme maintenant sur de nombreuses raisons, dont une (et une clé) est l'absence d'une protection adéquate stable du système (et, en général, de fer, sauf si bien sûr, ne peut être considérée) en cas d'installation incorrecte de paramètres étant directement dans les fenêtres. Avec une accélération directement de BIOS. Tout semble beaucoup plus raisonnable et nous examinerons donc cette option particulière (en plus de, il vous permettra de définir davantage de paramètres et d'obtenir une plus grande stabilité et performances).

Option BIOS."Et il y a un nombre assez grand (et avec l'arrivée UEFI Ils étaient encore plus), mais les fondements et le concept d'overclocking conservent leurs principes d'une année à l'autre, c'est-à-dire que l'approche de celle-ci ne change pas, à l'exception des interfaces, dans des endroits le nom des paramètres et un certain nombre de technologies de cette accélération.

Je vais considérer ici un exemple basé sur mon ancien tapis. Paiement (sur lequel j'ai dit une fois une fois il y a longtemps) et le processeur Core Quad Quad Q6600.. Ce dernier, en fait, me sert de foi et la vérité sait déjà combien d'années (comme un tapis. Paiement) et désintéressé avec moi initialement 2,4 GHz.avant que 3,6 GHz.Ce que vous pouvez voir dans la capture d'écran de:

Au fait, qui se demanda comment choisir de tels tapis bons et fiables. Paiement que nous avons écrit, mais à propos des processeurs. Je vais passer directement au processus d'accélération, pré-supprimer les éléments suivants:

Un avertissement! Ahtung! Alarme! Hehnde hech!
Toutes la responsabilité de vos actions ultérieures (ainsi que précédentes) ne vous portent que. L'auteur fournit uniquement des informations, profiter ou non, vous décidez de vous-même. Tout écrit est vérifié par l'auteur sur un exemple personnel (et à plusieurs reprises) et dans différentes configurations, mais cela ne garantit pas travail stable partout, ainsi que ne vous protège pas de erreurs possibles Au cours des actions que vous avez faites, ainsi que des conséquences qu'ils peuvent venir pour eux. Soyez prudent et pensez à votre tête.

En fait, que devons-nous avoir une overclocking réussie? Oui, en général, rien de spécial ne compte pas le deuxième élément:

  • Tout d'abord, d'abord, bien sûr, un ordinateur avec tout ce qui est nécessaire, c'est-à-dire le tapis. Payer, processeur et TP. Découvrez ce que vous avez rempli, vous pouvez télécharger le menu susmentionné;
  • Deuxièmement, il est nécessaire, il est bon de refroidissement, car l'accélération affecte directement la dissipation thermique du processeur et les éléments de la carte mère, c'est-à-dire sans bon souffle, d'accélération au mieux entraînera une instabilité du travail ou n'aura pas son propre force, et dans le pire des cas, quelque chose est simplement brûlant;
  • Troisièmement, par lui-même, des connaissances sont nécessaires pour donner à quel point cet article est conçu, de ce cycle, ainsi que du site entier ".

File d'attente de refroidissement, j'aimerais noter les articles suivants: "" ",", ainsi que ". Tout le reste peut être trouvé comme ça. Nous allons plus loin.

Étant donné que toute la théorie nécessaire, nous avons déjà démonté en détail en détail, puis je vais immédiatement aller du côté pratique de la question. Je m'excuse à l'avance pour la qualité de la photo, mais le moniteur brillant, et dans la rue, malgré les blinds, la même lumière.

Ça ressemble à BIOS. À bord de mon tapis. Paiements (entrez dans BIOS., rappelez-vous sur un ordinateur stationnaire, peut être un bouton Del. À la première étape de la charge, c'est-à-dire immédiatement après l'allumage ou le redémarrage):

Ici, nous serons intéressés par l'onglet " Ai tweaker."Dans ce cas, c'est elle qui est responsable de l'overclocking et ressemble d'abord à une liste de paramètres présentant des valeurs opposées" AUTO.". Dans mon cas, elle ressemble à ceci:

Ici, nous serons intéressés par les paramètres suivants (je donne immédiatement une description + ma valeur avec le commentaire pourquoi):

  • Tuner Ai overclock - Engagé dans l'autonomagon, prétendument avec l'esprit.
    Dans le sens " Standard " Tout fonctionne comme c'est le cas, dans le cas de " Overclock 5%, Overclock 10%, Overclock 20%, Overclock 30%"Augmente automatiquement la fréquence au pourcentage approprié (et sans garantie de stabilité). Ensuite est intéressé par la valeur ManuelCar cela vous permettra de tout mettre avec des poignées. En fait, cela m'a coûté.
  • Rapport du ratio CPU. - Spécifie le multiplicateur de processeur. Vous pouvez définir votre valeur lorsque vous vous enregistrez que le multiplicateur de processeur est déverrouillé. Je monte ici 9.0 Ceux-ci, le plus disponible de la valeur multiplicateur déverrouillée pour mon processeur. Vous devez aller de la même manière que votre processeur.
  • Fréquence FSB - Spécifie la fréquence du pneu de système du processeur, il s'agit de la fréquence de base. Comme vous vous rappelez de l'article théorique, la fréquence finale du processeur est obtenue à partir de la valeur de cette fréquence multipliée par le multiplicateur (comme elle sonne! :)) Processeur. Pratiquez ceci dans notre processus est la principale chose qui est la principale chose et c'est fondamentalement, Nous changeons pour dispersé le processeur. La valeur est sélectionnée par une manière expérimentale, en combinant avec d'autres paramètres jusqu'au moment où le système fonctionne de manière stable et que le mode de température vous convient. Dans mon cas réussi à prendre le barreau "400 x. 9 = 3600 MHz ". Il y avait des moments quand j'ai pris 3,8 GHz., Mais le refroidissement n'a tout simplement pas fait face à des charges de pointe avec une dissipation de chaleur.
  • Sangle FSB à North Bridge - le paramètre ici n'est rien de plus qu'un ensemble de délais pré-installés, qui correspondent au point de vue du fabricant correspondent de manière optimale fréquence spécifique Pneu de système, pour une plage spécifique de fréquences de fonctionnement du chipset. Ici, ils sont définis pour le pont nord. Installez la valeur Sangle FSB Il convient de garder à l'esprit que, avec une valeur inférieure, des retards plus petits sont définis et la performance augmente, et lorsque la valeur la plus grande est définie, la performance diminue légèrement, mais la stabilité augmente. L'option la plus pertinente lors de l'accélération pour assurer la stabilité à haute fréquence FSB.. Je devais choisir un sens élevé pour atteindre la stabilité. Dans mon cas il 400 .
  • Fréquence PCIe. - indique la fréquence du pneu PCI Express.. Accélération des pneus PCI Express. Il n'est généralement pas pratiqué: les gains maigres à la vitesse ne justifient pas problèmes possibles avec la stabilité des cartes d'extension, corrigez donc la norme 100 MHz.Afin d'augmenter la stabilité. Et dans mon cas, il est significatif ici 100 . Je le recommande aussi.
  • Fréquence DRAM. - Vous permet de définir la fréquence de la RAM. Les paramètres de sélection changent en fonction de la fréquence FSB.. Il convient de noter que souvent l'overclocking "repose" en mémoire, il est donc considéré comme optimal pour définir cette fréquence. FSB. Dans lequel vous pouvez choisir ici la fréquence de travail (standard) de votre RAM, si, bien sûr, vous ne vous efforcez pas d'overclocker la mémoire. Sens Auto " Souvent, il est néfaste et ne donne pas de résultat dû du point de vue de la stabilité. Dans mon cas exposé " 800" Conformément aux caractéristiques de la RAM. Dans votre cas, exposition comme vous le pensez, mais je recommande de regarder votre fréquence standard à travers Cpu-z. Et le mettre.
  • Taux de commande dram. - rien d'autre comme retard lors de l'échange de commandes entre le contrôleur de mémoire du chipset et de la mémoire. Les modules de mémoire qualitatifs sont capables de travailler avec le retard dans 1 Tact, mais dans la pratique, il est rare et ne dépend pas toujours de la qualité. Pour la stabilité, il est recommandé de choisir 2T.pour la vitesse 1t.De sorte que le seuil d'overclocking est grand, alors j'ai choisi ici 2T.Pour d'autres dispositions, il n'a pas été possible de réaliser une stabilité totale.
  • Contrôle de synchronisation DRAM - Spécifie les horaires de la RAM. En règle générale, si l'objectif ne vaut pas la peine d'overclocking RAM, nous quittons ici le paramètre " AUTO."Si vous êtes reposé catastrophiquement lors de l'accélération de la mémoire et de ne pas casser même une fréquence, c'est logique d'essayer de trop manger les valeurs ici manuellement, de refuser un paramètre automatique. Dans mon cas, c'est" Auto "Parce que dans la mémoire n'a pas repris.
  • DRAM Static Lire Control- Valeur " Activée "augmente les performances du contrôleur de mémoire et " Désactivée. " - Réduit. En conséquence, la stabilité dépend de cela. Dans mon cas "Désactivée.
  • Twister Ai- Si vous prenez une traduction gratuite, cette chose est contrôlée par le nombre de phases d'accès à la mémoire. Valeur supérieure ( Fort.) responsable de l'amélioration de la productivité et de la baisse ( Lumière) Pour la stabilité. J'ai choisi " Lumière"(Afin d'augmenter la stabilité).
  • Booster de transaction AI - Ici, j'ai lu beaucoup de forums bourgeois à partir de laquelle de nombreuses données se contredisent, comme dans le segment russophone. Quelque part où ils écrivent que cette chose vous permet d'accélérer ou de ralentir le sous-système de mémoire, ajustant les paramètres des fondations qui affectent à l'activation de la vitesse du contrôleur de mémoire. Seulement, ce qui a réussi de manière adéquate à comprendre ce qui se passe dans " Manuel"Nous pouvons personnaliser" Niveau de performance.", jouant avec la valeur sur la figure jusqu'au moment où vous n'atteignez pas la stabilité de la stabilité. J'ai ce paramètre coincé sur 8- voici, pour d'autres valeurs, le système s'est comporté non stable.
  • Vcore Tension. - La fonction vous permet de spécifier manuellement la tension d'alimentation du processeur. Malgré le fait que cette joie vous permet souvent d'accroître la productivité (plus précisément de disperser le processeur) en augmentant la stabilité (sans nutrition plus importante, vous pouvez difficilement obtenir une plus grande augmentation et une plus grande qualité de travail, ce qui est logique). Ce paramètre est un jouet extrêmement dangereux entre les mains du non-professionnel et peut conduire à la sortie de la défaillance du processeur (si BIOS. Bien sûr, la fonction de protection n'est pas cousue, comme on dit: "de l'imbécile" (c), comme c'est c), et il n'est donc pas recommandé de changer la puissance du processeur, plus que sur 0.2 de régulier. De manière générale, ce paramètre devrait être augmenté très progressivement et de très petites chambres, conquérant toutes les nouvelles et nouvelles hauteurs de performance, jusqu'à ce qu'elles prennent autre chose (mémoire, température et TP) ou jusqu'à ce que vous atteigniez la limite de + 0.2 .
    Je ne recommanderais pas de regarder ma valeur, car il est vraiment trop cher, mais je joue à ces jeux, cela me permet d'être un rafraîchissement puissant (la photo n'est pas considérée ci-dessus, elle est encore obsolète dans 2008 -le année), bon BP, processeur et tapis. Être en général, prudent, surtout sur configurations budgétaires. Ma valeur 1,65 . Vous pouvez apprendre votre propre tension pour votre processeur de la documentation ou via Cpu-z..
  • Tension de la CPU PPL. - quelque chose de pour la stabilité, mais j'ai une définition très vague de quelle tension est cette tension. Si tout fonctionne au besoin, il vaut mieux ne pas toucher. Sinon, vous pouvez élever de petites chaises. Je veux dire, - 1.50 parce qu'il a été stable quand j'ai pris la fréquence 3,8 GHz.. Encore une fois, il s'appuie sur mon processeur.
  • Tension de terminaison FSB. - Parfois, il s'appelle la tension supplémentaire du processeur ou de la tension d'alimentation du bus système. Ses augmentations peuvent dans certains cas augmenter le potentiel d'accélération du processeur. 1.30 . Encore une fois, la stabilité à une fréquence plus élevée.
  • DRAM TENSION. - Vous permet de spécifier manuellement la tension d'alimentation des modules de mémoire. Il est logique dans de rares cas d'augmenter la stabilité et de conquérir des fréquences plus élevées lors de l'overclocking de la mémoire ou du processeur (rarement). J'ai un peu trop cher, - 1.85 avec des parents 1.80 .
  • Tension de pont nord. et Tension de pont Soulth. - Spécifie la tension d'alimentation du nord ( Nord.) et sud ( Soulh.) Ponts respectivement. Augmenter avec prudence afin d'augmenter la stabilité. Je suis - moi - 1.31 et 1.1 . Tout est aux mêmes objectifs.
  • Calibrage de chargement - une chose suffisamment spécifique qui vous permet de compenser la variance de la nutrition nucleus tout en augmentant la charge du processeur.
    Dans le cas de l'accélération, vous devriez toujours présenter " Activée "Comme vous le voyez dans ma capture d'écran.
  • CPU Spread Spectrum - L'inclusion de cette option est capable de réduire le niveau d'émission électromagnétique de l'ordinateur en raison de la pire forme du bus système et du processeur central. Naturellement, la forme la plus optimale de signaux est capable de réduire la stabilité de l'ordinateur. Par la réduction du niveau de rayonnement légèrement et ne justifie pas les problèmes possibles avec fiabilité, l'option est préférable de désactiver ( Désactivée.), surtout si vous accélérez, c'est-à-dire comme dans notre cas.
  • PSIE Spread Spectrum - similaire au fait que ci-dessus, mais seulement dans le cas d'un bus PCI Express.., Dans notre cas - " Désactivée.".

Si vous dites assez simplistes, alors, tout d'abord, nous changeons le multiplicateur et la fréquence FSB., s'appuyant sur cette fréquence de processeur finale que nous aimerions obtenir. Ensuite, nous enregistrons les modifications et essayons de démarrer. Si tout s'est passé, vérifiez les températures et l'ordinateur, après quoi, en fait, ou laissez tout, ou nous essayons de prendre une nouvelle fréquence. S'il n'y a pas de fréquence de stabilité, c'est-à-dire les fenêtres Il ne charge pas ou ne montre pas d'écrans bleues ni autre chose, il est de retourner aux valeurs antérieures (ou de calmer légèrement leurs appétits), soit nous sélectionnons toutes les autres valeurs tant que la stabilité est atteinte.

Quant à divers types BIOS.Ensuite, des fonctions quelque part peuvent être appelées d'une manière ou d'une autre autrement, mais la signification est portée par la même chose, ainsi que les valeurs + le principe de l'overclocking restent constants. En général, si vous le souhaitez, nous le trouverons.

En deux mots en quelque sorte. Il reste seulement d'aller à l'autre.

Épilogue.

Comme vous pouvez le constater sur les dernières phrases, si vous y réfléchissez, une accélération rapide en général n'est pas un problème (surtout avec un bon refroidissement). Je mettais deux paramètres, plusieurs redémarrages et, - voila!, Le mégahertz chéri dans ta poche.

Bonne accélération minutieuse au moins 50 %, c'est-à-dire comment dans mon cas sur 1200 MHz. Plus K. 2400 MHz., nécessite une certaine quantité de temps (il est en moyenne quelque part entre 1 et 5 heures, en fonction de la réussite et du résultat final souhaité), dont la plupart prennent le meulage de la stabilité et des températures, ainsi qu'un paquet de patience, pour le plus Garnissant permanent la nécessité de redémarrer pour enregistrer et effectuer des tests ultérieurs de nouveaux paramètres.

Je soupçonne que ceux qui veulent faire un processus SIM seront beaucoup de questions (qui sont logiques), et donc, s'ils l'ont donc (ainsi que des ajouts, des pensées, des remerciements, etc.), je serai heureux de les voir dans les commentaires.

Rester avec nous! ;)



Avez-vous aimé l'article? Partagez-le