Contacts

Comparatif des chipsets nvidia. Chipsets de la famille NVIDIA nForce. Tension d'alimentation du processeur, V

Les graphiques intégrés de nouvelle génération ont été les premiers à venir sur la plate-forme AMD. Pourquoi donc? Il n'y a pas de secret ici.

Premièrement, la logique du système pour Plateformes AMD est beaucoup plus simple que pour Plateformes Intel... Pour la raison que les composants les plus complexes sont déjà intégrés dans CPU, et seul le support périphérique est pris en charge par le chipset de la carte mère. Par conséquent, il est techniquement beaucoup plus facile d'intégrer un cœur graphique plus complexe dans le cristal northbridge pour la plate-forme AMD.

Deuxièmement, Intel Corporation, le principal fournisseur de chipsets pour sa plate-forme, n'a pas encore été en mesure de fournir un cœur graphique décent dont NVIDIA devrait se méfier. Sans surprise, la direction de ce dernier a exigé de tout mettre en œuvre pour sortir en temps voulu de nouveaux chipsets intégrés pour la plate-forme AMD. Après tout, AMD lui-même, après avoir acquis le département de développement de chipset d'ATI, a commencé à développer activement la direction des solutions intégrées. Et le chipset avec un nouveau cœur graphique, appelé AMD 780G, a été le premier à le sortir.

Cependant, NVIDIA s'est arrêté assez rapidement. Et, à en juger par des indications indirectes, son chipset s'est avéré plus fiable et poli, bien que plus cher. En fait, le chipset n'est pas le seul - il en existe toute une gamme, des plus simples et les moins chères aux plus complètes avec prise en charge Tri-SLI. Parmi ceux-ci, les chipsets GeForce 8000 sont destinés au marché des home media center, qui sont conçus pour être installés sur des cartes mères avec nombre maximal fonctions multimédia.

Alors, que peut nous offrir le chipset GeForce 8200, celui de base de la gamme mentionnée ? Il est équipé d'un cœur graphique G86 allégé, qui a été utilisé avec succès à l'époque dans les cartes vidéo. Série GeForce 8400. Il est peu probable que le support déclaré de DirectX 10 et des shaders 4.0 soit utile au propriétaire d'une carte mère intégrée, car en raison de certaines fonctionnalités "innées" (en particulier, il n'y a pas de mémoire locale - seule la mémoire système accessible via un contrôleur commun ) Les performances 3D seront très faibles. Mais d'un autre côté, la puce G86 est capable de traiter matériellement un flux vidéo compressé avec de nouveaux codecs, accélérant ainsi la lecture. Dans le même temps, le nouveau chipset prend entièrement en charge l'interface HDMI pour connecter des téléviseurs numériques et permet de transmettre l'audio et la vidéo multicanaux numériques sur la même interface.

La nouvelle fonction graphique "hybride", qui permet d'ajouter une carte vidéo discrète pour un traitement graphique 3D commun (technologie GeForce Boost), peut également sembler importante. Certes, cela ne fonctionnera que pour un modèle junior comme le 8400, dont l'achat, entre nous, n'a aucun sens. Si vous équipez la nouvelle carte d'une puissante carte vidéo 9800 GT, la technologie hybride peut être utilisée pour une autre - pour désactiver cette carte vidéo lorsque vous travaillez en 2D, ce qui réduit la température et le bruit de l'ordinateur.

Du point de vue de la prise en charge des périphériques, les chipsets NVIDIA se portent bien depuis longtemps - Gigabit Ethernet, RAID jusqu'au niveau 5, 12 ports USB. La nouvelle ligne prend en charge PCI Express 2.0. La situation uniquement avec le SATA externe reste floue : sur les cartes mères avec chipsets NVIDIA, s'il existe un connecteur correspondant, il est desservi par un contrôleur supplémentaire, pas un chipset. Mais les modèles de disques durs externes avec SATA externe ne sont plus une rareté.

Gigaoctet M78SM-S2H. Conception, fonctionnalité

Malgré le fait que les chipsets de la série GeForce 8000 ne soient pratiquement pas inférieurs au chipset AMD 780G et que les autres modèles de la nouvelle génération soient assez bons, Gigabyte préfère les chipsets AMD 700. Cela est peut-être dû au coût élevé des puces NVIDIA. En particulier, basé sur le chipset GeForce 8200, Gigabyte n'a (au moment de la rédaction) qu'un seul modèle - M78SM-S2H.

Et ce modèle est intéressant. Commençons par le fait qu'il est équipé immédiatement trois sorties vidéo- VGA analogique (avec connecteur D-Sub) et numérique DVI et HDMI. Il faut tenir compte du fait que les ports numériques partagent un contrôleur CRTC sur deux, c'est-à-dire qu'ils affichent la même image, alors que le port VGA fonctionne indépendamment d'eux. Cet inconvénient peut se manifester par exemple par l'impossibilité de mettre en oeuvre le mode "Théâtre", lorsqu'une vidéo plein écran est affichée sur le téléviseur, qui est en même temps affichée sur le moniteur dans la fenêtre.

En revanche, il n'y a pas de support pour FireWire (1394), bien que la plupart des caméscopes soient connectés via celui-ci. Le panneau de ports comporte un jeu de "jacks" analogiques réduits à trois, mais un S/PDIF électrique est ressorti.

Il s'avère que le fabricant recommande de connecter à la fois un téléviseur et un audio numérique. Le codec audio Realtek ALC888 est un codec standard à 8 canaux prenant en charge les fonctions de base. Le codec réseau est également Realtek, avec prise en charge des réseaux gigabit. Le reste des fonctionnalités, y compris le support disques durs, fourni par le chipset NVIDIA.

Regardons de plus près la conception.

La carte est fabriquée dans le facteur de forme microATX, mais elle est coupée en largeur de près de 3 cm.Malheureusement, seuls deux emplacements DIMM s'adaptent, ce qui ne serait pas critique pour la carte niveau d'entrée mais le modèle Gigabyte n'est en aucun cas bon marché. Les autres emplacements sont typiques de ce facteur de forme - un PCI Express, x16 et x1, plus deux PCI. Les six ports Serial ATA sont câblés, tout comme les 12 ports USB (dont 8 via des broches internes).

Le module d'alimentation du processeur est réalisé selon un schéma à 4 phases, le contrôle dynamique du nombre de phases n'est pas mis en œuvre.

Les circuits utilisent des condensateurs solides, mais uniquement pour le VRM du processeur. Les deux connecteurs d'alimentation sont idéalement situés.

Pour refroidir le chipset, ou plutôt une puce MCP78S, dont est constituée la GeForce 8200, un gros radiateur en aluminium peint "or" est utilisé.

Afin de ne pas gêner l'installation d'une carte d'extension dans le slot PCIe x1, dont la carte n'en possède qu'un, le radiateur a été découpé à l'endroit correspondant.

Tous les connecteurs sont situés à des endroits pratiques, à l'exception de Front Audio, qui est situé plus près du codec audio. La particularité des derniers modèles Gigabyte, et du M78SM-S2H en particulier, est que tous les connecteurs sont non seulement peints en détail, mais également fournis avec des signatures directement sur les pads (grandes et lisibles), ainsi que des cadres pour une fixation sécurisée.

Espérons que d'autres fabricants commenceront également à installer ces coussinets.

La carte a un panneau de port non standard. Nous avons déjà évoqué trois sorties vidéo et S/PDIF, ainsi que quatre ports USB. Il existe également un port LPT archaïque (il est difficile d'imaginer pourquoi il pourrait être nécessaire dans un ordinateur domestique), mais il n'y a pas de port souris PS / 2 - à sa place se trouvent deux USB.

Paramètres du BIOS

Par tradition, la carte mère M78SM-S2H est équipée du BIOS Award, qui contient quelques modifications propriétaires. Par exemple, les options les plus "dangereuses" sont disponibles après avoir appuyé sur Ctrl-F1 dans le menu principal de configuration du BIOS.

Pour améliorer les performances et l'overclocking, vous devriez jeter un œil à la section MB Intelligent Tweaker, car rien d'intéressant n'a été trouvé dans le reste des sections.

La portée des paramètres d'overclocking est assez petite et comprend :

  • sélection de la fréquence de référence du bus HT, dont dépend la fréquence d'horloge du processeur (par défaut 200 MHz) ;
  • sélection du multiplicateur (pour les processeurs Black Edition) ;
  • sélection du multiplicateur (sous forme de fréquence) et de la largeur du canal HT entre le processeur et le chipset ;
  • réglage de la fréquence du bus PCI Express ;
  • changer la tension sur le processeur et les modules de mémoire ; la tension nominale est affichée pour le processeur (pour ainsi dire, pour référence).

Dans la sous-section de gestion de la mémoire, vous pouvez spécifier la fréquence souhaitée (400, 533, 667, 800 ou 1066 MHz), qui ne coïncidera pas toujours avec la fréquence réelle (en raison des particularités de la synchronisation de la mémoire dans les processeurs AMD).

L'ensemble des horaires est caché à l'utilisateur, seule la latence CAS peut être modifiée.

Dans la section État de santé du PC, vous pouvez à nouveau, selon la tradition, spécifier le seuil de température, une fois atteint, la "sirène" s'allumera, et activer l'avertissement concernant l'arrêt du refroidisseur et du ventilateur du processeur dans le boîtier.

Le contrôle de rotation du refroidisseur du processeur est disponible, mais il n'est pas configurable ; le ventilateur dans le boîtier n'est pas contrôlable.

Dans l'ensemble, l'ensemble des paramètres de la carte M78SM-S2H est plutôt modeste pour une carte à usage domestique et est plus typique pour une carte de bureau.

Équipement

Le coffret de la carte Gigabyte M78SM-S2H contient un CD (drivers et utilitaires pour cartes mères à base de chipsets NVIDIA), une prise pour le panneau de ports, deux câbles Serial ATA, un IDE et un FDD.

Le manuel d'utilisation est très détaillé, il y a une petite notice en français et en turc (apparemment, dans ces pays il est interdit de vendre des marchandises sans notice). Il n'y a pas d'autres accessoires pouvant être utiles à l'utilisateur dans le kit.

Essai

Nous avons testé la carte mère Gigabyte dans le cadre d'un ordinateur avec la configuration suivante :

  • Processeur Athlon 64 X2 5000+ Black Edition (2,6 GHz) ;
  • DDR2 GoodRAM PRO DDR2-900 2 x 1 Go ;
  • Disque dur WD Caviar SE 250 Go.

A titre de comparaison, voici les résultats des tests d'un produit concurrent - les cartes mères Micro-Star basées sur le chipset AMD 780G. Cette carte est quelque peu inférieure à la M78SM-S2H (il n'y a pas de support pour le RAID et un connecteur DVI), et à certains égards elle est supérieure, y compris en termes de coût.

Performance... Le test SYSMark 2007 utilise un certain nombre d'applications modernes qui élaborent l'un ou l'autre scénario - une séquence d'actions utilisateur. Nous avons exécuté ce package sur Windows XP et Windows Vista.

Et, apparemment, les performances de la carte Gigabyte sont 5 à 10 % plus élevées. Le résultat inverse n'a été observé que sous Vista, dans un scénario de montage vidéo, qui est plus susceptible d'être imputé au test SYSMark 2007 lui-même.

Mais cette carte (et tous ses analogues) a des problèmes avec les performances des graphiques intégrés dans les jeux 3D.

Vous ne pouvez compter sur la jouabilité que dans des jeux comme Quake 4 ou Call for Duty 2, et même alors avec des paramètres minimum et une résolution inférieure à 1024x768. Les graphiques intégrés du chipset AMD 780G sont plus performants, mais ils sont également loin d'être souhaités.

Overclocking... Le M78SM-S2H est capable de fonctionner avec une fréquence de référence de bus HT de 405 MHz(si le processeur le permet, bien sûr). Une valeur supérieure à celle-ci n'est tout simplement pas autorisée par le BIOS à entrer. Quant aux résultats d'overclocking spécifiques processeur de test Athlon 64 X2 5000+, nous avons obtenu un résultat de seulement 2,75 GHz, soit 6% de gain. Et tout cela parce que le BIOS ne permet pas d'augmenter la tension Vcore au-dessus de 1,55 V.

Le Gigabyte M78SM-S2H est intéressant tout d'abord par la présence de trois sorties moniteur à la fois, dont HDMI. Ses graphiques intégrés sont capables de prendre en charge les jeux 3D (bien qu'à une qualité minimale), ainsi que le décodage matériel de vidéos HD sur des disques Blu-ray. Les plus sont également le support RAID et la présence de six connecteurs Serial ATA. En même temps, cette carte n'est pas adaptée à l'overclocking (du moins avec les graphiques intégrés activés) et n'a pas de fonctions supplémentaires qui sont de bons modèles pour un PC à la maison.

Avantages:

  • trois sorties vidéo ;
  • disposition pratique, largeur réduite;
  • 6 ports série ATA et 12 ports USB ;
  • condensateurs solides dans les circuits VRM du processeur.

Inconvénients :

  • seulement deux emplacements DIMM ;
  • pas de FireWire ;
  • la connexion analogique de l'acoustique 7.1 n'est pas prise en charge ;
  • mauvais paramètres du BIOS.

Nous remercions JetService pour les carte mère Gigaoctet

Note de l'auteur :

NVIDIA est bien connu des utilisateurs de PC comme le leader reconnu sur le marché des graphismes de jeux. Avec ses accélérateurs GeForce 3D, la société a réussi à obtenir une position de quasi-monopole car elle est confrontée à la concurrence d'une seule société graphique, ATI Technologies. Ne s'arrêtant pas à ce qui a été réalisé, NVIDIA a tenté d'envahir un autre marché, celui des chipsets pour cartes mères.

Cependant, cette tentative ne peut pas être qualifiée de réussie. À mon avis, la situation avec le lancement de l'activité graphique NVIDIA s'est répétée. Comme vous le savez, la société a fait ses débuts sur le marché avec la puce NV1 - un contrôleur intégré qui combine à la fois des parties vidéo et audio. Cependant, au final, j'ai dû abandonner le son et sortir NV2 (aka Riva128), un accélérateur graphique 3D classique.

Bien sûr, les choses ne sont plus les mêmes aujourd'hui qu'au début. NVIDIA est loin d'être un nouveau venu dans le développement de produits high-tech. Cependant, les chipsets pour cartes mères ont leurs propres spécificités : ce n'est pas seulement un sous-système, comme c'est le cas avec un contrôleur graphique, c'est l'unité la plus importante du système qui agit comme un lien entre tous les autres composants. Presque tous les paramètres du système dépendent en grande partie du chipset - performances, compatibilité, évolutivité, fonctionnalité, stabilité, etc. Dès la première fois, il semble tout simplement irréaliste de sortir un produit qui n'est pas inférieur à tous égards aux analogues d'entreprises qui ont mangé plus d'un chien sur le développement du chipset.

Cependant, il faut reconnaître le courage de Nvidia. L'entreprise n'a pas seulement offert son homologue, elle a utilisé les technologies les plus avancées et les plus prometteuses, faisant une demande de leadership à la fois dans le segment des PC productifs et dans les segments des systèmes de base (grand public) et économiques (valeur). Malheureusement, tout va au point que la tentative dans son ensemble a échoué. Cependant, plus à ce sujet plus tard, et maintenant - un bref aperçu des chipsets de la série nForce comparant ce que NVIDIA voulait et ce qui s'est réellement passé.

Chipsets NForce : 420D, 415D, 220D, 220

La famille de chipsets NVIDIA comprend actuellement quatre modifications de base : nForce 420D, 415D, 220D et 220 (par ordre décroissant de coût). En outre, deux autres chipsets seront ajoutés dans un proche avenir - nForce 620D et 615D, qui ne sont rien de plus que des modifications modifiées de 420D et 415D, respectivement (au moins, ces informations sont disponibles au moment de la rédaction de cet article).

Le chipset a une structure classique à deux puces : le pont nord est responsable de l'interfaçage du processeur, de la mémoire et de la carte vidéo AGP, et le pont sud est responsable du travail avec les périphériques. Il existe trois ponts nForce Northbridge : IGP-128, IGP-64 et SPP.

"IGP" signifie "Integrated Graphics Processor", un Northbridge graphique intégré que NVIDIA appelle un processeur. Idéologiquement, c'est incorrect, car il n'est pas engagé dans le traitement des données, mais ne fait que commuter les flux de données et de commandes. Voici une partie de celui-ci, le cœur graphique, est vraiment le processeur. Les variantes de puce avec les indices -128 et -64 diffèrent par la largeur totale du bus mémoire (plus de détails ci-dessous). La puce IGP-128 est la base du nForce 420D, et l'IGP-64 est le nForce 220D et 220.

"SPP" signifie "System Platform Processor". En fait, il s'agit toujours du même IGP-128, mais avec le cœur graphique désactivé. NVIDIA a dû abandonner la carte graphique intégrée, qui est plutôt lente par rapport aux standards actuels, car elle ne répond plus aux exigences modernes. Le marché des ordinateurs productifs n'a pas accepté le nForce 420D, mais dans le cas du nForce 415D (ce chipset particulier utilise le pont nord SPP), la situation peut changer radicalement. Quelque chose de similaire s'est produit avec Intel et le chipset i815. Par exemple, je ne comprends pas pourquoi NVIDIA a marché sur le même râteau.

NVIDIA propose la puce MCP-D ou son MCP simplifié comme pont sud. "MCP" signifie "Media and Communication Processor". Il comprend le contrôleur de son NVIDIA "APU" (Audio Processing Unit), des contrôleurs USB et ATA, une interface PCI et LPC, un contrôleur de réseau de niveau MAC, un contrôleur SMBus, d'autres contrôleurs et quelque chose d'inhabituel - un générateur d'horloge. La communication de Northbridge se fait via le bus HyperTransport - en fait, c'est le premier produit grand public à prendre en charge ce dernier développement AMD.

Regardons de plus près les caractéristiques de l'architecture et du fonctionnement des puces.

Ponts Nord IGP et SPP : TwinBank, DASP, NV11

Le pont nord du chipset nForce 420D est une puce qui assure l'interaction entre le processeur, la mémoire, la carte vidéo AGP et le pont MCP. Il se compose des blocs suivants :

  • interface de bus (prend en charge le bus EV6 avec une fréquence effective de 200 et 266 MHz, utilisé par les processeurs AMD K7) ;
  • Contrôleur hôte AGP (4x, FastWrites, modes SBA, 66 MHz) ;
  • Contrôleur de bus HyperTransport (pour la communication avec MCP, bande passante - 800 Mb / s);
  • deux contrôleurs de mémoire indépendants, prise en charge de SDRAM et DDR SDRAM, fréquence - jusqu'à 133 MHz, volume - jusqu'à 1,5 Go;
  • GPU graphique intégré (NV11 GeForce2 MX);
  • commutateur d'arbitre intelligent.

Le chipset nForce ne prend en charge que les processeurs AMD Athlon et Duron. Cependant, NVIDIA n'a pas de problèmes techniques avec la mise en œuvre du support d'autres processeurs, en particulier Intel Pentium-4. Pour un certain nombre de raisons - marketing, juridiques, etc. - pour le moment, il n'existe qu'une variante du chipset pour la plate-forme AMD.

Le cœur graphique intégré est totalement équivalent à la puce NV11 (GeForce2 MX). Les différences ne concernent que les vitesses d'horloge et l'interface mémoire. Le noyau intégré utilise des contrôleurs système qui fournissent un accès mémoire à d'autres composants du système (principalement le processeur). Le cœur graphique peut être désactivé si une carte graphique externe est installée dans le slot AGP. Pour la plupart des utilisateurs utilisant des jeux ou des applications graphiques, les capacités et les performances de la GeForce2 MX ne seront pas suffisantes.

Pour mettre en œuvre la sortie vers le téléviseur et le moniteur numérique, le chipset prend en charge les cartes d'extension spéciales installées dans le slot AGP. Cependant, ils ne sont pas largement utilisés, vous ne pourrez donc guère profiter de cette opportunité.

La puce SPP ne diffère de l'IGP que par la vidéo intégrée désactivée.

Banque jumelle est une caractéristique clé de l'architecture nForce, grâce à laquelle, en fait, les performances du chipset auraient dû être assez élevées. Son essence est que le chipset n'a pas un, mais deux contrôleurs de mémoire 64 bits indépendants à part entière, auxquels tous les blocs du chipset peuvent accéder. Chacun des contrôleurs fonctionne avec son propre ensemble de banques (la première avec DIMM0, la seconde avec DIMM1 et DIMM2). Les données sont situées dans toutes les banques, entrelacées. Avec un accès mémoire séquentiel, l'appareil recevra les données des deux banques alternativement en mode pipeline, ce qui réduira les délais associés à l'ouverture / fermeture des pages, les délais de rafraîchissement, etc. Si plusieurs appareils accèdent à la mémoire à la fois, ils n'auront pas à rester inactifs pendant que le contrôleur termine de travailler avec un autre appareil. Cela garantit une augmentation de la vitesse de travail avec la mémoire et une augmentation de sa bande passante maximale jusqu'à 4,2 Go / s.

L'utilisation d'une telle architecture ne devrait pas conduire à une augmentation significative des performances de l'ensemble du système pour la simple raison que la bande passante du bus processeur EV6 n'est que de 2,1 Go/s - 2,1 Go/s supplémentaires ne lui donneront pratiquement rien . L'architecture TwinBank est optimisée principalement pour les besoins du cœur graphique intégré. Grâce à elle, la GeForce2 MX intégrée sera moins sensible aux problèmes de partage de bus mémoire partagée avec d'autres composants du système, principalement avec le processeur. Si une carte vidéo séparée est utilisée, le gain de performances sera à peine perceptible, car le pompage de texture à travers le canal AGP n'est généralement pas assez intensif pour charger la mémoire système.

NVIDIA affirme que si un seul DIMM est installé, un seul contrôleur de mémoire sera utilisé. Par conséquent, il est conseillé d'installer deux modules - un dans le premier emplacement, l'autre dans le deuxième emplacement. Les contrôleurs étant indépendants, il est possible d'installer différents modules et de les configurer séparément. Selon certains rapports, si les modules de mémoire ne sont pas reconnus comme officiellement pris en charge (voir la liste des modules compatibles sur le site Web de NVIDIA), le mode "Super Stability Mode" sera activé, dans lequel les temps de mémoire sont réduits. Ainsi, Nvidia est aux prises avec le problème de la faible stabilité de son chipset, révélé immédiatement après l'apparition des premières cartes mères basées sur celui-ci.

La puce IGP-64 ne permet pas d'utiliser TwinBank (le deuxième contrôleur mémoire est désactivé), donc sa vidéo intégrée ne peut théoriquement atteindre que le niveau de la GeForce2 MX200. Cependant, jusqu'à récemment, le nForce 220D basé sur la puce IGP-64 n'était pas demandé en raison de son prix trop élevé, disproportionné par rapport à ses fonctionnalités et ses performances.

Une autre caractéristique clé de la puce IGP (plus précisément, son arbitre) est l'analyseur d'accès mémoire DASP(Préprocesseur Spéculatif Adaptatif Dynamique). Il surveille les demandes de lecture, analyse leur nature et crée des modèles pouvant être utilisés pour prédire les demandes futures. Une fois le modèle déterminé, le bloc DASP commence à générer des requêtes par lui-même, les prédit et met en cache les données reçues. Ainsi, la bande passante mémoire est utilisée plus efficacement, et une partie des données, correctement prédites et reçues de la mémoire à l'avance, entre dans le processeur sans accéder à la mémoire. Les chipsets analogiques existants ne peuvent que mettre en file d'attente les demandes, mais pas les prédire. Ainsi, la technologie DASP devrait augmenter l'efficacité de TwinBank et assurer la livraison des données de la mémoire avec des délais plus faibles.

MCP de Southbridge : APU

Le NVIDIA MCP South Bridge est connecté à IGP/SPP à l'aide d'un nouveau bus HyperTransport universel, dont le principal avantage dans ce cas est sa bande passante élevée (800 Mb/s). Seuls les chipsets SIS ont un bus MuTIOL propriétaire plus rapide (1 Gb/s), et même celui en dehors des puces fonctionne deux fois plus lentement.

MCP est un pont sud moderne typique, qui comprend des contrôleurs PCI (jusqu'à cinq emplacements), LPC (connectant un microcircuit flash avec une ROM et une puce E/S), USB (jusqu'à six ports), ATA/ATAPI (UltraATA/100 mode), un contrôleur réseau de niveau MAC et deux interfaces AC pour les codecs audio et modem. Mais ce pont a également une caractéristique unique - un contrôleur de son intégré. APU(Unité de traitement audio). Il est construit sur la base de plusieurs DSP et est capable de traiter matériellement jusqu'à 256 flux audio 2D, jusqu'à 64 flux audio 3D, en appliquant divers effets spéciaux, notamment en appliquant des filtres HRTF (pour simuler le son surround). L'APU prend en charge DirectSound3D et les nouvelles fonctionnalités DirectX8, ainsi que les API et les algorithmes de Sensaura. De plus, et c'est la première fois, le contrôleur de son NVIDIA intègre une unité d'encodage Dolby Digital (AC-3), qui permet d'utiliser efficacement l'acoustique numérique ou le système home cinéma existant de l'utilisateur. Cependant, cet appareil ne fonctionne que pour la puce MCP-D (nForce420D), tandis que pour le MCP, il est désactivé.

Quel est le problème?

Eh bien, dites-vous, le chipset est génial - deux contrôleurs de mémoire, un bus HyperTransport, plus que l'audio embarqué avancé, et le cœur graphique est le meilleur à ce jour. Pourquoi, alors, ne sommes-nous pas inondés de cartes mères basées sur des chipsets nForce ?

Il y a plusieurs raisons à cela. Premièrement, le chipset est très cher. NVIDIA a demandé de l'argent irréaliste pour cela, de sorte que les fabricants de cartes mères ciblant un utilisateur pauvre ont immédiatement abandonné nForce - leurs clients potentiels ne pourront tout simplement pas acheter de cartes mères chères. Aujourd'hui, seules quelques sociétés sélectionnées avec une bonne réputation coopèrent avec NVIDIA, produisant des cartes mères dans la gamme de prix supérieure - ASUS, ABIT, MSI, Leadtek, etc.

Deuxièmement, le chipset n'a pas eu beaucoup de succès. Voici une courte liste de ses problèmes :

  1. Le BIOS n'est pas prêt, ce qui pose des problèmes de compatibilité, de vitesse et de stabilité ;
  2. le générateur d'horloge intégré n'a pas de nombreuses opportunités par réglage, ce qui limite l'aptitude de la carte à l'overclocking ;
  3. il n'y a pas assez de fonds pour régler le chipset ;
  4. la prise en charge au niveau du pilote laisse beaucoup à désirer : WinNT, Linux et certains autres systèmes d'exploitation ne sont pratiquement pas pris en charge, Win98 / ME n'est que partiellement pris en charge (par exemple, le son matériel fonctionne avec peine).

Troisièmement, le chipset ne correspondait pas du tout au créneau auquel il était destiné. La vidéo de jeu intégrée s'est avérée sans importance au prix élevé - c'est beaucoup plus important pour une machine à petit budget, mais pas pour un jeu coûteux ou poste de travail... À mon avis, au lieu de nForce420D, ils auraient dû sortir immédiatement une paire de nForce 415D + nForce 220D.

Néanmoins, les cartes mères à base de nForce 420D, après presque un an de mise au point, sont enfin apparues à la vente en quantité suffisante. L'un des articles suivants sera consacré à l'examen de l'un d'entre eux.

Équipement.
Dans une boîte colorée de taille impressionnante, en plus de la carte mère, il y avait :
1. Ponts SLI pour les modes SLI 3-Way et 2-Way conventionnel.
2. Adaptateur HDMI vers DVI.
3. Ventilateur supplémentaire pour la carte mère.
4. Adaptateur pour connecter les ventilateurs.
5. Boucles UltraDMA 133/100/66, câbles SATA.
6. Câbles d'alimentation SATA.
7. Planche supplémentaire avec 2 Ports USB 2.0 et IEEE 1394a
8. Manuel d'utilisation.
9. Disque avec pilotes et programmes d'Asus, 3Dmark06 et, ce qui m'a particulièrement surpris, avec Kaspersky Anti-Virus !
10. Disque avec le jeu Company of Heroes - version complète sous licence. Spécifications techniques.
Pour la nouvelle carte mère d'Asus, les fonctionnalités suivantes sont annoncées :
1. Socket AMD® AM2+ pour processeurs AMD Phenom™ FX / Phenom / Athlon™ / Sempron™
2. Prise AMD AM2 pour processeurs AMD Athlon 64 X2 / Athlon 64 FX / Athlon 64 / Sempron
3. Technologie AMD Cool "n" Quiet ™
4. Jeu de puces NVIDIA® nForce 780a SLI
5. Bus système jusqu'à 5200 MT/s ; Interface HyperTransport™ 3.0 pour AM2 + CPU. 2000/1600 MT/s pour CPU AM2. Comme vous pouvez le voir, un nouveau bus est utilisé ici, c'est la première différence avec les cartes mères de la série précédente.
6. Mémoire 4 x DIMM, max. 8 Go, DDR2 1066/800/667, ECC et non ECC, mémoire non tamponnée. Voici la deuxième différence. Certes, ce n'est pas le mérite du nouveau chipset, mais le mérite des nouveaux processeurs AMD. En raison du fait que le contrôleur de mémoire des nouveaux processeurs prend en charge la mémoire avec une fréquence de 1066 MHz et que la carte mère la prendra en charge lors de l'installation de nouveaux processeurs.
7. Architecture de mémoire à double canal
8. Graphiques intégrés VGA. Et ici, nous voyons les nouvelles tactiques de Nvidia quand c'était comme ça : Top carte mère avec vidéo intégrée ? Et tout cela est fait pour prendre en charge les nouvelles technologies Hybrid SLI et Hybrid Power.
9. 512 Mo Mémoire partagée maximale de Mo Prend en charge la technologie HDMI ™ avec HDCP compatible avec max. résolution 1920 x 1200
10. Prend en charge D-Sub avec max. résolution 1920 ? Prise en charge de la sortie multi VGA 1440 @ 75 Hz : DVI et D-Sub
11. Prise en charge du SLI hybride
12. Les emplacements d'extension 3 x PCIe2.0 x16 prennent en charge NVIDIA SLI Tech @ dual x16 ou [email protégé], x8, x8. C'est une autre différence entre le Pci-Exp à 3 emplacements.
13.2 x PCIe x1, PCIex1_1 (noir) est compatible avec le slot audio 2 x PCI 2.2
14. Stockage 6 x ports SATA 3Gb/s avec prise en charge RAID 0, 1, 0 + 1, 5 et JBOD
15,1 x Ultra DMA 133/100/66/33
16.LAN Contrôleurs LAN Dual Gigabit, tous deux dotés d'AI NET2
16A. Haute définition Carte audio SupremeFX II
- CODEC audio haute définition 8 canaux ADI 1988B
- Filtre à bruit
-Coaxial, sortie optique S/PDIF à l'arrière des E/S
17.IEEE 1394 2 ports 1394a (1 port à l'arrière I/O, 1 port à bord)
18.USB max. 12 ports USB2.0 / 1.1 (6 ports par carte mère, 6 ports par boîtier)
19. L'overclocking ASUS ROG comprend Extreme Tweaker
20. Nouveau système d'alimentation 8 + 2 phases.
21. Utilitaires pour l'overclocking :
- Niveau CPU supérieur
- AI Overclocking (syntoniseur de fréquence CPU intelligent)
- Utilitaire ASUS AI Booster
- Profil O.C
22. Système de protection contre l'overclocking :
- COP EX (Protection contre la surchauffe des composants EX)
- Voltiminder LED
- ASUS C.P.R. (Rappel des paramètres du processeur)
23. Affiche LCD des fonctions spéciales ASUS ROG
24. Fond d'écran ROG BIOS
25. Interrupteurs embarqués : Alimentation / Réinitialisation / Clr CMOS (à l'arrière)
26. Q-Connecteur
27. ASUS EZ Flash2
28. ASUS CrashFree BIOS2
29. Pile cool 2
30. ASUS Q-Shield
31. ASUS MyLogo3
32. Seuls des condensateurs solides sont utilisés.

33. Ports d'E/S arrière :
1xHDMI
1 x SUB-D
1 x port clavier PS/2 (violet)
1 x sortie optique + 1 x sortie coaxiale S/PDIF
2 ports LAN (RJ45)
6 ports USB 2.0 / 1.1
1 port IEEE1394a
1 x commutateur CMOS Clr

34. Ports internes :
3 x connecteurs USB 2.0 prennent en charge 6 ports USB 2.0 supplémentaires
1 x connecteur de lecteur de disquette
1 x connecteur IDE pour deux appareils
6 connecteurs SATA
8 x connecteurs de ventilateur : 1 x CPU / 1 x PWR / 3 x châssis / 3 x en option
3 x connecteurs de capteur thermique
1 connecteur IEEE1394a
1 x connecteur de sortie S/PDIF
1 x connecteur d'intrusion de châssis
Connecteur d'alimentation ATX 24 broches
Connecteur d'alimentation ATX 12V à 8 broches
1 x En/Désactiver Clr CMOS
1 x affiche LCD
1 x connecteur d'éclairage ROG
Connecteur du panneau système

35.BIOS 8Mb Award BIOS, PnP, DMI2.0, WfM2.0, SM BIOS 2.4, ACPI2.0a BIOS multilingue
36. Gérabilité WOL by PME, WOR by PME, Chasis Intrusion, PXE
37. Facteur de forme Facteur de forme ATX, 12 "x 9,6" (30,5 cm x 24,4 cm)

Overclocking.
Sur la nouvelle carte mère, le processeur Phenom 9850, il était facile de conquérir son cher 2,94 GHz à une tension nominale de 1,25 V.
Lorsque la tension a augmenté, le refroidisseur n'a pas pu faire face à sa fonction, il a donc été décidé d'abandonner cette manipulation. Tester la configuration et les résultats des tests.

Tester la configuration :
1. Formule Asus Crosshair II
2. BOÎTE AMD Phenom 9850
3. Gainward 8800 GTS 512 Mo Blitz
4.2x1GbSamsung PC6400 DDR800
5.2xHD WD 250AAJS dans la baie Raid 0.
6. Étui Colors-it
7. Bloc d'alimentation FSP 450W
8. Moniteur ASUS 222U

Les tests ont été effectués dans les tests suivants :

2. Marque PC 2005.
3. 3Dmark 06.

1. Crysis (tout au maximum, résolution 1280x1024)

Comme vous pouvez le constater, le nouveau bus HyperTransport 3.0 donne ses résultats. Le nouveau chipset montre des résultats décents.

Dans le test synthétique, le nouveau chipset surclasse également.

Dans ce test, nous voyons également l'avantage du nouveau chipset. Je dois dire tout de suite que l'avantage se fait au détriment du test du processeur.

4. Test du disque dur du package Everest Ultimate.


La vitesse de lecture linéaire de la matrice Raid 0 est également supérieure à celle du chipset précédent.


Le temps d'accès aux données sur les disques durs est également plus rapide sur le nouveau chipset. Conclusion :
1. Le nouveau chipset affiche d'excellents résultats de performance. Dans tous les tests, il s'avère être plus rapide que son prédécesseur.
2. J'ai été particulièrement satisfait de l'augmentation des performances du travail avec des disques durs. C'est dans ce que je suis Dernièrement Je fais de plus en plus attention, car je pense que le point le plus faible d'un ordinateur moderne, ce sont les disques durs.
3. C'est dommage, mais le système de refroidissement du processeur n'a pas permis d'évaluer toutes les qualités d'overclocking de la carte mère et du processeur. Mais je suis sûr que les caractéristiques d'overclocking du processeur ne seraient pas aussi étonnantes que le triomphe du nouveau chipset.
4. Tout ce qui précède n'est éclipsé que par les nouveaux processeurs d'AMD. Oui, si vous n'envisagez pas d'overclocker, vous pouvez acheter une nouvelle carte mère avec un processeur AMD. Mais d'un autre côté, vaut-il la peine de payer 600 $ pour un ensemble de carte mère et de processeur ? Oui, bien sûr, vous pouvez obtenir un processeur moins cher. Mais il ne serait pas logique d'acheter une carte mère pour 330 $, mais Processeur de phénomène Le 170$ X3 ou le 100$ Athlon X2.
5. D'où la conclusion - cette carte mère est excellente pour les fans d'AMD et rien de plus.
6. Nous, utilisateurs avisés, attendrons les cartes mères basées sur les chipsets nForce 750a SLI, car des cartes mères basées sur les nouveaux chipsets nForce 750i SLI sont déjà disponibles à la vente.
Article préparé FireAiD en particulier pour Méga Obzor.

Voir dans cet article :

Cartes vidéo basées sur NVIDIA GeForce RTX 2070, qui sont dédiées à ce materiel, sont des modèles juniors parmi ceux déjà présentés pour le moment adaptateurs graphiques nouvelle génération avec l'architecture NVIDIA Turing.

Outre la très spécifique NVIDIA Titan RTX à 2 500 $, les cartes graphiques personnalisées avec architecture NVIDIA Turing sont représentées par les familles NVIDIA GeForce RTX 2080 Ti, RTX 2080 et RTX 2070. Ce sont des cartes graphiques haut de gamme, et d'autres sont prévues après un certain temps. . appareils simples tapez RTX 2060.

On regarde les caractéristiques

Les GPU des nouvelles cartes graphiques Turing sont fabriqués à l'aide d'une technologie de traitement "plus fine" de 12 nm. Mais, selon les rumeurs, cette technologie de processus n'est pas quelque chose de fondamentalement nouveau, mais n'est qu'une version légèrement modifiée de la technologie de processus de 16 nanomètres utilisée dans ses prédécesseurs.

Pour faciliter la comparaison, les caractéristiques des nouvelles GeForce RTX 2080 Ti, RTX 2080 et RTX 2070 et des prédécesseurs des GeForce GTX 1080 Ti, GTX 1080 et GTX 1070, nous les avons rassemblées dans un seul tableau.

De génération en génération de cartes vidéo NVIDIA, le coût des cartes vidéo peut être observé. Mais si auparavant, c'était plutôt fluide, dans ce cas, les adaptateurs NVIDIA Turing dépassaient considérablement leurs prédécesseurs en termes de prix.

Pour quoi payons-nous ?

Une partie de cette augmentation peut être attribuée à la complexité accrue des nouveaux GPU. Notez qu'ils ont un nombre considérablement accru de transistors et une surface de matrice considérablement plus élevée. En conséquence, on peut supposer que le coût de tels cristaux est plus élevé.

Il y a quelques écarts dans les fréquences GPU. Le souvenir est nouveau maintenant. Au lieu de GDDR5X et GDDR5, les cartes graphiques RTX ont reçu la GDDR6.

Mais il est à noter que la capacité mémoire de la nouvelle génération de cartes vidéo est restée au même niveau que celle de leurs prédécesseurs.

Il est très important que des noyaux RT et des noyaux tenseurs complètement nouveaux soient apparus. C'est précisément la raison d'une telle augmentation du nombre de transistors et de la surface du cristal GPU.

tracé laser

La génération de cartes vidéo RTX 2080 Ti, RTX 2080, RTX 2070 basée sur l'architecture Turing NVIDIA se dit révolutionnaire et l'associe à la prise en charge matérielle du lancer de rayons en temps réel.

Pour cela, les cœurs RT mentionnés ci-dessus sont implémentés. NVIDIA considère cela si important que le préfixe GTX habituel des nouvelles cartes vidéo a même été remplacé par RTX, où RT signifie Ray Tracing.

Presque l'attention principale a été accordée à cette technologie lors de la présentation des cartes vidéo de nouvelle génération.

Pour faire simple, le Ray Tracing est associé à de nouveaux effets de reflets sur les objets (y compris mutuels), des reflets lumineux et des rayons traversant les objets. Dans ce cas, les rayons peuvent avoir une réfraction, un chevauchement, etc. réalistes. Le lancer de rayons vous permet également d'utiliser des ombres adoucies plus réalistes et de former un éclairage crédible.

Il s'agit en effet d'une innovation très importante pour l'industrie, mais, paradoxalement, c'est à la technologie Ray Tracing qu'est associée l'acceptation plutôt froide des nouvelles cartes vidéo par les utilisateurs.

Les nouveaux noyaux RT ont rendu le cristal plus gros et plus cher, mais qu'est-ce que les utilisateurs obtiennent en retour ?

Au moment de la sortie des cartes graphiques RTX, aucun jeu ne prenait en charge le Ray Tracing. Maintenant, la situation évolue, mais très lentement.

Par exemple, il est devenu possible d'essayer le Ray Tracing en général dans n'importe quel jeu assez récemment avec la sortie de Battlefield V.

Il s'est avéré que l'image dans Battlefield V avec des effets ne change pas radicalement. Il y a des améliorations, mais vous ne pouvez pas du tout dire que vous obtenez un niveau de perception fondamentalement nouveau.

Mais les ressources informatiques du Ray Tracing « s'épuisent » considérablement. Lorsque le lancer de rayons est activé, les performances peuvent être réduites de plus de moitié.

En conséquence, même avec le coûteux NVIDIA GeForce RTX 2080 Ti haut de gamme, le niveau FPS en résolution Full HD, les paramètres de qualité maximale utilisant le Ray Tracing ne satisferont pas toujours le joueur exigeant.

Mais qu'en est-il alors des résolutions plus simples RTX 2080, RTX 2070 et supérieures ?

Il s'avère que à l'heure actuelle Il n'y a pratiquement pas de jeux avec Ray Tracing, la différence visuelle dans l'image avec les effets RT n'est pas si dramatique et l'activation du traçage entraîne une baisse importante du niveau de FPS.

Pour les utilisateurs, le Ray Tracing en temps réel n'est encore qu'une technologie potentiellement prometteuse. Voyons comment la situation va évoluer.

Anti-aliasing DLSS, noyaux tenseurs et intelligence artificielle

En plus des tout nouveaux cœurs RT, les cartes graphiques RTX ont également des cœurs tenseurs conçus pour les calculs d'IA et de réseau neuronal. Ils fonctionnent en conjonction avec les noyaux RT, mais les noyaux tenseurs peuvent également être utilisés pour d'autres fonctions.

Sur la base de leurs travaux, une nouvelle méthode d'anti-aliasing a été implémentée - DLSS (Deep Learning Super Sampling). Une résolution de rendu réduite est utilisée, mais en raison de l'IA et des cœurs tenseurs, la carte vidéo transforme l'image en une image de meilleure qualité, "en pensant" à de nouveaux détails.

Selon les spécificités de la mise en œuvre, cela peut entraîner une productivité accrue, une qualité d'image améliorée, ou les deux.

Encore une fois, comme pour le Ray Tracing, DLSS nécessite la prise en charge des jeux pour fonctionner. Il est indiqué que plusieurs dizaines de jeux à venir supporteront l'anti-aliasing DLSS.

L'un des rares tests où vous pouvez vérifier DLSS en ce moment est le Benchmark Final Fantasy XV. Si une carte vidéo GeForce RTX est installée dans le système, un élément approprié apparaît dans les paramètres, ce qui vous permet d'activer DLSS.

Lors de nos tests, l'activation du DLSS a entraîné des gains de performances significatifs.

Qualité d'image en utilisant DLSS et avec anti-aliasing TAA conventionnel dans cette annexe comparable. Vous pouvez comparer vous-même les cadres avec DLSS et avec TAA.

DLSS
AAT

Quelles sont les autres nouvelles ?

La technologie d'overclocking automatique du GPU continue de s'améliorer. Les cartes graphiques NVIDIA RTX utilisent la quatrième génération de GPU Boost.

Ajout de la possibilité d'ajuster manuellement l'algorithme d'overclocking. Mais ce qui est plus intéressant, c'est que pour la première fois, il y avait une fonction d'overclocking automatique.

Si auparavant, pour déterminer la fréquence GPU maximale, il fallait expérimenter, exécuter divers jeux, applications, maintenant le processus peut être considérablement simplifié.

Dans des applications telles que MSI AfterBurner, nouvel article Scanner Nvidia. En appuyant sur un seul bouton, après 15 minutes de tests automatiques, vous obtiendrez respectivement une courbe fréquence / tension GPU modifiée avec des valeurs de fréquence plus élevées.

Lors de nos tests, nous avons testé cet overclocking automatique pour toutes les cartes graphiques RTX 2070. Bien entendu, pour obtenir des résultats d'overclocking encore meilleurs, vous devrez toujours effectuer des overclockings plus complexes "manuellement".

Deux moniteurs 8K peuvent être connectés simultanément aux cartes graphiques RTX. La fréquence d'images maximale sera de 60 Hz pour les deux appareils d'affichage.

DisplayPort est maintenant DisplayPort 1.4a et HDMI est HDMI 2.0b. Faites également attention à la présence d'un connecteur USB Type-C directement sur la carte vidéo. Il est conçu pour les nouveaux casques VR.

Cependant, ce port peut être utilisé pour n'importe quel périphérique USB Type-C.

On s'attend à ce que des travaux aient été effectués avec divers codecs vidéo. Par exemple, la prise en charge de la compression de données H.265 (HEVC) en mode résolution a été ajoutée et la qualité de l'encodage a été améliorée. Étant donné qu'aujourd'hui les cartes vidéo sont activement utilisées dans le montage vidéo, cela est très important.

La possibilité de combiner plusieurs cartes graphiques dans un seul système n'est désormais disponible que sur les cartes graphiques haut de gamme. NVIDIA GeForce RTX 2070 ne dispose pas d'une telle fonction.

Participants au test

Dans un test, nous avons réussi à assembler quatre cartes vidéo à la fois basées sur NVIDIA GeForce RTX 2070 de différents fabricants.

Il s'agit de l'édition ASUS ROG Strix GeForce RTX 2070 OC, Gigabyte AORUS GeForce RTX 2070 XTREME 8G, Inno3D GeForce RTX 2070 Gaming OC X2 et MSI GeForce RTX 2070 GAMING Z 8G.

Tous présentent des différences significatives par rapport à la référence RTX 2070, ont reçu des fréquences plus élevées et utilisent des systèmes de refroidissement propriétaires.

Tableau comparatif des caractéristiques

Identificateur de code de modèle ROG-STRIX-RTX2070-O8G-GAMING GV-N2070AORUS X-8GC N20702-08D6X-2511683 -
Fournisseur Représentant ASUS Représentant de Gigabyte Représentation Inno3D Représentant MSI
Prix, $ 796 742 675 725
Résultats de mesure
Performance 87,49 87,73 86,21 87,93
100 96,91 98,54 98,79
Performances / Prix 86,7 93,26 100 95,66
Caractéristiques
Jeu de puces NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070
Technologie de processus de chipset, nm 12 12 12 12
Type et taille de la mémoire, Go GDDR6, 8 GDDR6, 8 GDDR6, 8 GDDR6, 8
Conception du système de refroidissement marqué marqué marqué marqué
Nombre de ventilateurs de refroidissement 3 3 2 2
Nombre d'emplacements occupés 3 3 2 3
Évaluation subjective du bruit de refroidissement Excellent Excellent D'accord Excellent
Fréquence nominale du GPU 1410 1410 1410 1410
Fréquence d'amplification du GPU 1815 1815 1755 1830
Fréquence de mémoire résultante, MHz 14000 14142 14000 14000
Bus mémoire, bit 256 256 256 256
Nécessite une alimentation supplémentaire ? Oui Oui Oui Oui
Type de connecteur ajouter. nutrition 6 broches + 8 broches 6 broches + 8 broches 6 broches + 8 broches 6 broches + 8 broches
Nombre de sorties HDMI / DisplayPort / USB Type-C 2/2/1 3/3/1 1/3/1 2/2/1

ASUS ROG Strix GeForce RTX 2070 édition OC (ROG-STRIX-RTX2070-O8G-GAMING)

Présenté dans le test ASUSROGStrixGeForceRTX 2070COl'édition est actuellement la plus puissante en terme de fréquenceGPU, et le plus avancé parmi toutes les cartes graphiquesBasé sur ASUSRTX 2070.

Il a la conception traditionnelle ASUS ROG Strix, qui n'a pas beaucoup changé depuis la dernière génération.

L'appareil s'est avéré assez volumineux et occupera trois emplacements d'extension dans le système.

Il utilise une carte modifiée avec une configuration de phase de puissance 10 + 2 et un système de refroidissement propriétaire avec trois ventilateurs.

On dit que les ventilateurs sont spécialement conçus et que l'intérieur est étanche à la poussière. À propos, le sens de rotation de tous les ventilateurs est le même.

Le radiateur à CO massif est percé de six caloducs. La semelle du dissipateur thermique a un traitement spécial, qu'ASUS appelle la technologie MaxContact.

Lors de l'examen de l'édition ASUS ROG Strix GeForce RTX 2070 OC (ROG-STRIX-RTX2070-O8G-GAMING), des détails intéressants sont révélés de tous les côtés.

Deux microcircuits sont installés sur la carte à la foisBIOS avec des modes de fonctionnement légèrement modifiés de la carte. L'un d'eux (Performance) offre une efficacité de refroidissement accrue, obtenue grâce à des vitesses de ventilateur plus élevées, et le second (Silencieux) est conçu pour un fonctionnement plus silencieux. Sélection du BIOS effectué par un interrupteur spécial.

À propos, l'arrêt complet des ventilateurs à faible charge n'est disponible que lors de l'utilisation de la version du BIOS avec le mode silencieux.

À la fin, il y a un bouton spécial pour éteindre / allumer rapidement le rétro-éclairage. C'est une bonne solution lorsque vous devez éteindre la lueur sans utiliser de logiciel propriétaire.

La carte fournit également une plate-forme pour la mesure manuelle de la tension de la RAM, du GPU, de la PLL et un ensemble de contacts pour connecter la bande LED et les ventilateurs du boîtier. La vitesse de rotation de ces ventilateurs peut être liée à la température du GPU. C'est une fonctionnalité intéressante.

Sur un côté de l'édition ASUS ROG Strix GeForce RTX 2070 OC, vous pouvez voir les contacts pour connecter la bande LED et les ventilateurs du boîtier

La fréquence mémoire de ce modèle correspond à celle de référence, mais la fréquence GPU Boost a été augmentée de manière très significative - de 1620 à 1815 MHz.

En conséquence, ASUS ROG Strix GeForce RTX 2070 édition OC fait partie des leaders de la référence en termes de performances. Il n'a pas été possible de surpasser les Gigabyte AORUS GeForce RTX 2070 XTREME 8G et MSI GeForce RTX 2070 GAMING Z 8G en termes de vitesse, car les trois modèles, y compris ASUS, ont des fréquences de fonctionnement similaires. Des cartes vidéo très puissantes participent au test.

Surveillance de l'édition ASUS ROG Strix GeForce RTX 2070 OC dans l'application MSI Afterburner

Lors d'un travail en charge dans nos conditions, la températureLe GPU n'était qu'à 57°C... Le BIOS avec le mode Performance a été utilisé pour tous les tests de performances et mesures de température.

Compte tenu de la consommation d'énergie assez élevée de la carte vidéo, il s'agit simplement d'un excellent résultat. Soit dit en passant, il s'agit de la valeur de température la plus basse parmi toutes les cartes vidéo basées sur RTX 2070 testées dans ce test.

La vitesse du ventilateur était d'environ 1600 tr/min. Pendant le fonctionnement, la carte vidéo ne créera pas d'inconfort sonore.

Lors de l'utilisation de l'overclocking automatique avec les paramètres initiaux, la fréquence GPU maximale a presque atteint la barre des 2100 MHz.

L'édition ASUS ROG Strix GeForce RTX 2070 OC vous permet d'augmenter la limite de consommation d'énergie jusqu'à 125 %. Il s'agit de la valeur la plus élevée du test.

Le système d'éclairage se compose de plusieurs éléments avec un éclairage RVB sur le panneau avant, un logo ASUS ROG illuminé sur le côté et un autre grand logo affiché sur la plaque arrière.

Le fonctionnement du rétroéclairage peut bien entendu être contrôlé. Un certain nombre d'effets sont disponibles, ainsi que la possibilité de changer les couleurs en fonction de la température du GPU.

Caractéristique : la couleur de la lueur peut changer, mais en même temps, tous les éléments de rétroéclairage ont la même couleur.

Pas mal, mais aujourd'hui, il existe déjà des solutions plus avancées, y compris parmi les participants aux tests. Le rétroéclairage des cartes graphiques Gigabyte AORUS et MSI s'est avéré encore plus froid.

Le logiciel propriétaire ASUS en termes de capacités est à peu près une combinaison de MSI Afterburner et de GPU-Z

ASUS ROG Strix GeForce RTX 2070 édition OC est une carte graphique RTX 2070 très puissante avec un excellent système de refroidissement.

Il fait partie des leaders en termes de performances, possède un certain nombre de fonctions supplémentaires intéressantes sous la forme de deux puces BIOS, de contacts pour les ventilateurs du boîtier et d'une bande LED.

Mais pour tous ses mérites, l'édition ASUS ROG Strix GeForce RTX 2070 OC a également le coût le plus élevé parmi les autres participants aux tests basés sur RTX 2070.

Évaluation ASUS ROG Strix GeForce RTX 2070 édition OC (ROG-STRIX-RTX2070-O8G-GAMING):

Excellent système de refroidissement

La limite de consommation d'énergie est supérieure à celle des autres participants

BIOS double

Broches RVB Bandes LED et les fans de cas

- le coût le plus élevé

- grandes dimensions

- équipement relativement modeste

Si les cartes graphiques ASUS ROG Strix de la nouvelle génération ont presque la même apparence que la précédente, alors MSI a considérablement modifié sa série GAMING.

Le design reconnaissable avec une prédominance de rouge et des inserts ressemblant à des griffes de dragon a été décidé de ne plus être utilisé.

Le modèle, bien que pas si long, est large et prendra la place de trois emplacements d'extension dans le système.

MSI GeForce RTX 2070 JEUZ8g(attention au préfixe Z dans le nom) se démarque avec des fréquences plus élevées par rapport aux jumeaux MSI GeForce RTX 2070 JEUX 8g et MSI GeForce RTX 2070 JEU 8g et est le RTX 2070 le plus rapide de MSI à ce jour.

La carte est généralement repensée pour la série GAMING. La configuration des phases de l'alimentation est 8 + 2. Le CO se compose de deux ventilateurs et d'un radiateur puissant avec six caloducs.

Si vous regardez de près, dans chaque ventilateur, deux types de pales alternent. La technologie s'appelle TORX FAN 3.0. Combiné avec la nouvelle conception des plaques de dissipation du dissipateur thermique, cela, selon le fabricant, contribuera à une meilleure efficacité.

Le système de refroidissement s'est vraiment avéré très efficace.

La température fixe sous charge est de 66°C. Mais autre chose surpris. Cette température est maintenue à une vitesse de ventilateur de seulement 1100 tr/min.

En conséquence, la carte vidéo est très silencieuse.... En termes d'efficacité de refroidissement, MSI a dépassé les autres participants à l'exception, peut-être, de l'édition ASUS ROG Strix GeForce RTX 2070 OC. Mais il est difficile de comparer avec SO ASUS. D'une part, le concurrent a une température plus basse, et d'autre part, cela est obtenu à des vitesses de ventilateur sensiblement plus élevées.

Fréquence d'amplification carte graphique GPU MSI GeForce RTX 2070 GAMING Z 8G est à 1830 MHz. Il s'agit de la valeur la plus élevée parmi tous les participants au test. Mais la supériorité sur ASUS ROG Strix GeForce RTX 2070 édition OC et Gigabyte AORUS GeForce RTX 2070 XTREME 8G est très maigre. Pour ces cartes vidéo, cette valeur est de 1815 MHz.

La fréquence de la mémoire est standard. Il est logique que le RTX 2070 GAMING Z 8G figurait parmi les leaders de la performance. Avec l'overclocking automatique, la fréquence maximale atteint 2100 MHz.

Courbes de fréquence et de tension GPU Spécifications MSI GeForce RTX 2070 GAMING Z 8G (données d'application GPU-Z) avec paramètres standards(en haut) et après overclocking automatique

La limite de consommation d'énergie disponible est de 111 %.

J'ai été très satisfait du nouveau système de rétroéclairage de cette carte vidéo.... Des ventilateurs entouraient les zones lumineuses autour du périmètre. Le logo sur le côté est également mis en évidence.

Tout dépend de la façon dont les effets dynamiques sont implémentés ici. Dans certains modes, il s'agit d'une sorte de spectacle de couleurs. Bien qu'il n'y ait pas d'élément lumineux sur la plaque arrière, MSI a plus apprécié ce rétroéclairage que la solution d'ASUS.

Un support supplémentaire est fourni avec la carte vidéo pour une fixation plus fiable de la carte vidéo dans le boîtier. La carte vidéo est vraiment lourde, mais, à notre avis, il n'y a pas grand besoin d'une telle barre. Probablement, cela n'interférera pas lors du transport de l'étui.

La barre est vissée dans le boîtier de l'ordinateur sous la carte vidéo, après quoi l'appareil repose sur cette barre à travers des fentes souples

MSI GeForce RTX 2070 GAMING Z 8G se distingue par un overclocking d'usine élevé, un excellent système de refroidissement en termes d'efficacité et un nouveau rétro-éclairage intéressant. Bon modèle s'est avéré.

Score MSI GeForce RTX 2070 GAMING Z 8G :

Excellent système de refroidissement

Arrêt du ventilateur à faible charge

Fréquences GPU considérablement augmentées

Système d'éclairage RVB avancé

Barre de montage supplémentaire incluse

- grandes dimensions

Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

Même comparée à d'autres grandes cartes vidéo du test Gigabyte AORUS GeForce RTX 2070 XTREME 8G, elle s'avère encore plus massive.

Gigabyte AORUS GeForce RTX 2070 XTREME 8G gauche

Mais la principale contribution à l'épaisseur de l'appareil n'est pas apportée par le radiateur à CO, mais par le placement assez curieux des ventilateurs.

Ils sont légèrement superposés. Ainsi, à une longueur modérée, il était possible de placer trois ventilateurs de 100 mm à la fois.

GigaoctetAORUSGeForceRTX 2070XTREME 8G est le plus rapideRTX 2070 de Gigabyte.

La fréquence de boost est de 1815 MHz, ce qui est cependant comparable à l'édition ASUS ROG Strix GeForce RTX 2070 OC testée et à la MSI GeForce RTX 2070 GAMING Z 8G.

Il est curieux que la mémoire ait également reçu un overclocking d'usine. Dans toutes les autres cartes vidéo RTX 2070 de ce test, les fréquences mémoire correspondent à celles de référence.

Mais l'augmentation de la mémoire dans le cas de l'AORUS GeForce RTX 2070 XTREME 8G est purement nominale et a peu d'effet sur les performances finales. La fréquence a été augmentée de la norme 14 000 à 14 140.

Les performances du Gigabyte AORUS GeForce RTX 2070 XTREME 8G étaient au niveau des cartes graphiques MSI et ASUS.

En utilisant l'overclocking automatique, la valeur maximale de la fréquence GPU était d'environ 2100. C'est à peu près la même chose que les résultats de MSI et ASUS.

Courbes de fréquence et de tension du GPU Gigabyte AORUS GeForce RTX 2070 XTREME 8G avec réglages standards (en haut) et après overclocking automatique

La limite de consommation électrique maximale pouvant être modifiée est de 109%.

Configuration des phases du système d'alimentation - 10 + 2.

Contrairement à d'autres participants, dans la conception du système de refroidissement, au lieu d'une plaque polie ou d'une chambre d'évaporation, une option est utilisée lorsque les caloducs eux-mêmes touchent le GPU.

Il y a cinq caloducs au total.

Le fabricant accorde une attention particulière au fait que le ventilateur central a un sens de rotation différent par rapport aux extrêmes. Il est indiqué que cela évite les turbulences et augmente l'efficacité du CO.

Le modèle sait arrêter les ventilateurs à faible charge. Le panneau latéral, qui est traditionnel pour Gigabyte, a même une inscription « Fan Stop » illuminée, qui s'allume lorsque les ventilateurs sont inactifs.

Comment un tel CO s'est-il manifesté dans la pratique ?

Les températures et vitesses de ventilateur enregistrées sous charge étaient de 67°C à 1700 tr/min. Très bien, mais il s'avère que l'efficacité des CO participant au test ASUS ROG Strix GeForce RTX 2070 édition OC et MSI GeForce RTX 2070 GAMING Z 8G est légèrement supérieure.

Le système de rétroéclairage du Gigabyte AORUS GeForce RTX 2070 XTREME 8G est très inhabituel.

Sur le bord d'une des pales de chaque ventilateur se trouve un Diode RVB. Cette diode peut changer de couleur en fonction du secteur du cercle dans lequel elle se trouve lorsque le ventilateur tourne. Les effets sont impressionnants.

La carte vidéo est vraiment capable d'attirer beaucoup d'attention.

De plus, les logos placés à l'avant, à l'arrière et sur les côtés de la carte vidéo sont mis en évidence.

Du fait que le rétro-éclairage de l'AORUS GeForce RTX 2070 XTREME 8G est associé à la rotation des ventilateurs, certaines fonctionnalités peu agréables ont été découvertes. Premièrement, les effets de sonnerie ne fonctionnent que lorsque les ventilateurs fonctionnent. Deuxièmement, un léger scintillement est perceptible. Le deuxième inconvénient, cependant, n'est pas si prononcé. Si la carte vidéo n'est pas constamment dans votre champ de vision, il n'y aura aucun inconvénient.

La carte vidéo Gigabyte AORUS GeForce RTX 2070 XTREME 8G possède le plus grand nombre de sorties vidéo nuisant aux autres cartes vidéo basées sur RTX 2070 dans cette revue

L'ensemble comprenait un pied pour fixer solidement la carte vidéo dans le boîtier. Oui, la carte vidéo est lourde, mais à notre avis, un tel support supplémentaire n'est pas urgent.

Soit dit en passant, le niveau de matériaux et de fabrication sur cette jambe est tout simplement incroyable.

Ce genre d'accessoires devient-il une tendance pour les cartes graphiques haut de gamme ?

En résumé, on peut dire que le Gigabyte AORUS GeForce RTX 2070 XTREME 8G se démarque non seulement par un overclocking d'usine important, mais aussi par un design plutôt audacieux associé à un curieux système de rétroéclairage.

C'est un concurrent très digne des autres puissants participants à ce test.

Score Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC) :

Système de refroidissement efficace

Arrêt du ventilateur à faible charge

Fréquences GPU considérablement augmentées

Système d'éclairage RVB spectaculaire

Pied de montage supplémentaire inclus

- grandes dimensions

- Les effets du système d'éclairage dépendent du fait que les ventilateurs tournent ou non

Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683)

L'Inno3D GeForce RTX 2070 Gaming OC X2 est loin d'être un modèle ordinaire. Ici et l'overclocking d'usine du GPU, le système de refroidissement propriétaire et le rétroéclairage avec des éléments RVB.

Mais dans le contexte des autres Cartes vidéo GeForce RTX 2070 de ce test, qui s'est avéré être des modèles très avancés, il s'annonce plus modeste.

Carte vidéo deInno3D est le seul du test à occuper non pas trois, mais deux emplacements d'extension.

Le radiateur contient quatre caloducs et est soufflé par une paire de ventilateurs.

Compte tenu de la classe plus modeste de l'appareil, en termes d'efficacité de refroidissement, Inno3D GeForce RTX 2070 Gaming OC X2, comme prévu, a cédé aux autres participants au test.

Surveillance de l'Inno3D GeForce RTX 2070 Gaming OC X2 dans l'application MSI Afterburner

La température était de 66°C sous charge. C'est plus qu'un niveau confortable, mais la vitesse du ventilateur en même temps s'est avérée être au niveau de 2050 tr/min, ce qui est nettement supérieur à celui des cartes vidéo présentées par ASUS, Gigabyte, MSI.

En conséquence, Inno3D GeForce RTX 2070 Gaming OC X2 ne fonctionne pas aussi silencieusement, mais son niveau de bruit ne devrait pas créer beaucoup d'inconfort.

La carte vidéo est capable d'arrêter les ventilateurs à faible charge, mais elle le fait d'une manière un peu particulière. Avant l'arrêt final, les ventilateurs tournent une douzaine de fois de 0 à environ 600 tr/min. Il est tout à fait possible que ce "bug" puisse être résolu dans une nouvelle version du firmware, bien que ce ne soit pas un problème significatif même maintenant.

L'histogramme montre comment les ventilateurs « pulsent » pendant un certain temps à une vitesse de 0 à 600 tr/min avant un arrêt complet.

La fréquence d'amplification du GPU a été augmentée de la norme 1620 MHz à 1755 MHz. Il s'agit d'un bon overclocking d'usine, mais, encore une fois, les concurrents se sont révélés trop puissants et leur paramètre est encore plus élevé.

En conséquence, Inno3D GeForce RTX 2070 Gaming OC X2 était légèrement inférieur en performances à ses rivaux.

Si nous analysons la courbe fréquence/tension GPU résultante avec overclocking automatique, nous pouvons voir que la fréquence GPU maximale est d'environ 50 MHz inférieure à celle des autres cartes vidéo RTX 2070 dans le test à des valeurs de tension données.

Courbes de fréquence et de tension du processeur graphique Inno3D GeForce RTX 2070 Gaming OC X2 avec réglages standards (en haut) et après overclocking automatique

L'Inno3D GeForce RTX 2070 Gaming OC X2 est rétro-éclairé avec plusieurs éléments. Sur le panneau avant, le logo Inno3D est surligné en blanc. Les inserts jaunes à côté de ce logo s'allument également. Mais le logo Inno3D sur le côté peut briller dans n'importe quelle couleur (rétroéclairage RVB).

Le rétroéclairage peut être contrôlé à l'aide de l'application.

Oui, Inno3D GeForce RTX 2070 Gaming OC X2 est quelque peu inférieur à ses concurrents en termes de vitesse et d'efficacité du système de refroidissement. Mais pour beaucoup, tout cela peut être facilement égalé par ceux quelleInno3GeForceRTX 2070JeuxCO Le X2 a un prix nettement plus abordable et, en termes de performances et de prix, il surpasse tous les autres participants à ce test.

Et l'Inno3D GeForce RTX 2070 Gaming OC X2 a un package très avancé. Le modèle est livré avec un tapis de jeu et des clés pour les tests VRMark, 3DMark.

Score Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683) :

Meilleur rapport prix/performances de n'importe quel GPU RTX 2070 dans le benchmark

Arrêt du ventilateur à faible charge

GPU overclocké en usine

Matériel intéressant

- rétroéclairage relativement modeste

- comportement étrange des ventilateurs lors du passage en mode arrêt

Comment nous avons testé les cartes vidéo

Les cartes vidéo fonctionnaient avec les paramètres du pilote d'origine, les profils de jeu optimisés n'étaient pas appliqués.

Les cartes vidéo ont été testées sans overclocking et sans utiliser de profils propriétaires (OC, Gaming, Silence, etc.), qui sont parfois disponibles lors de l'installation de logiciels propriétaires.

Nous avons comparé les cartes graphiques RTX 20170 testées avec des adaptateurs vidéo de génération précédente basés sur GTX 1080 et GTX 1080 Ti, qui étaient les MSI GeForce GTX 1080 GAMING X 8G et Gigabyte GeForce GTX 1080 Ti Gaming OC 11G.

En tant qu'applications de test pour déterminer les performances des cartes vidéo, nous avons utilisé des jeux modernes prenant en charge DirectX 11 et DirectX 12, qui ont des références intégrées. Le programme comprend également les tests synthétiques populaires 3DMark.

Chaque jeu a utilisé les paramètres graphiques maximum ou proche du maximum. Dans les jeux, nous avons utilisé 2560 × 1440 et 3840 × 2160 pixels. (résolution 4K). Dans 3DMark 11, les cartes vidéo ont été testées avec le préréglage Extreme, et dans 3DMark (2013), les benchmarks Fire Strike Extreme, Fire Strike Ultra et DirectX 12 Time Spy ont été utilisés.

Le suivi de la température maximale du GPU et de la consommation électrique du système (sans moniteur) a été effectué dans le jeu Metro: Last Light. C'est dans ce jeu que les cartes vidéo, selon les observations, se sont échauffées le plus intensément et que la consommation d'énergie maximale s'est produite.

Le système lui-même fonctionnait à l'extérieur du boîtier du PC (banc ouvert) à une température ambiante d'environ 21°C. Le niveau de bruit généré par le fonctionnement des systèmes de refroidissement des cartes vidéo a été évalué de manière subjective.

Le score final dans la catégorie Performance a été déterminé sur la base de tous les tests avec une contribution égale de chaque test. Dans le même temps, si nous parlons de jeux, afin de réduire l'influence de la dépendance au processeur, lors du calcul des performances globales (catégorie "Performance"), seuls les résultats avec une résolution de 3840 × 2160 pixels ont été pris en compte. (quatre K) .

Résultats avec une résolution de 2560 × 1440 pixels. sont donnés pour votre référence.

Les histogrammes sont normalisés en pourcentage, avec des modèles triés par résultats de test. Les résultats spécifiques sous forme de points et de FPS sont également indiqués.

Le coût des cartes vidéo est indiqué dans la base de données des grands magasins en ligne (au moment de la publication) du site Web Hotline.

Dans un autre benchmark Final Fantasy XV, des expériences ont été menées avec la technologie DLSS (voir l'histogramme ci-dessus).

Configuration de la plate-forme de test :

CPU: Intel Core i7-3770K overclocké à 4,4 MHz

Carte mère : Biostar Hi-Fi Z77X

RAM : 4 × 4 Go DDR3 1600

Disques : SSD (système), HDD

Système d'exploitation : Windows 10 Pro 64 bits

Moniteur : Philips 272P7VPTKEB résolution 4K

Utilisé Pilote NVIDIA pour toutes les cartes vidéo : GeForce 416.94

Résultats de test

conclusions

Comme le montrent les résultats des tests, par rapport aux solutions de la génération précédente, les performances des nouvelles cartes graphiques basées sur la RTX 2070 se situent entre la NVIDIA GeForce GTX 1080 et la GTX 1080 Ti plus proche de la GTX 1080.

Le trio ASUS ROG Strix GeForce RTX 2070 édition OC, Gigabyte AORUS GeForce RTX 2070 XTREME 8G et MSI GeForce RTX 2070 GAMING Z 8G sont des cartes graphiques très sophistiquées. Ils ont des systèmes d'éclairage avancés, des fréquences GPU considérablement augmentées.

Vous ne remarquerez certainement pas la différence de vitesse entre eux sans tests spéciaux. En termes d'efficacité des systèmes de refroidissement, les modèles d'ASUS et de MSI sont en tête de ce trio.

ASUS vous permet d'augmenter la limite de consommation d'énergie plus fortement que les autres. Soit dit en passant, le même modèle se distingue par le coût le plus élevé parmi tous les participants au test.

D'après les impressions du rétroéclairage, Gigabyte AORUS et MSI peuvent être mis un peu plus haut que ASUS. Inno3D est un outsider ici.

La GeForce RTX 2070 Gaming OC X2 présentée dans le test Inno3D est plus modeste par rapport au trio ASUS, Gigabyte AORUS et MSI, même si elle est également loin d'être un modèle ordinaire. elle a plus basses fréquences GPU, pas un système de refroidissement aussi avancé et cédera la place en termes de capacités de rétroéclairage et d'overclocking.

Mais, d'un autre côté, ce modèle d'Inno3D est le plus abordable. En termes de performances et de coût, il surpasse les autres participants au test.

Il y a une différence de vitesse entre Inno3D et le trio ASUS, Gigabyte AORUS, MSI, mais ce n'est pas si significatif. Si vous voulez économiser de l'argent, c'est une option très intéressante.

Il y a un ordre complet avec les participants au test eux-mêmes. Toute carte vidéo du test est un appareil de haute qualité avec un refroidissement efficace et performant sans aucun inconvénient majeur.

Mais une nouvelle génération de cartes graphiquesRTXen général, laisse un certain nombre de motifs de réflexion, bien que ce soit précisément le passage àRTXle fabricant l'appelle révolutionnaire.

Si vous ne "creusez" pas très loin dans le passé et tenez compte des transitions de la génération GTX 700 à la GTX 900 (la série 800 dans les cartes vidéo de bureau a été ignorée) et de la GTX 900 à la GTX 1000, alors le La nouvelle génération de cartes vidéo s'est toujours distinguée par des performances considérablement accrues avec une consommation d'énergie nettement améliorée. Dans le même temps, il n'y avait pas de grand saut dans le coût des modèles équivalents.

Que voyons-nous maintenant avec la sortie de la génération NVIDIA GeForce RTX ?

Oui, il y a une augmentation des performances, mais elle n'est pas aussi perceptible qu'elle l'était auparavant avec la nouvelle génération de cartes vidéo.

En termes d'efficacité énergétique, les nouveaux éléments sont meilleurs que les modèles GTX 1000, mais seulement légèrement.

Aussi, avez-vous remarqué qu'il n'y a pas eu d'augmentation de la mémoire vidéo dans la génération RTX ?

Mais l'essentiel est que les nouvelles cartes vidéo se sont avérées beaucoup plus chères que leurs prédécesseurs.

De plus, il est assez difficile de s'attendre à une réduction significative du coût des cartes vidéo NVIDIA RTX. Ils ont reçu des GPU beaucoup plus complexes et coûteux à fabriquer.

Le problème est que une partie importante des complications dans les nouveauxGPUest allé utilisé pour la première foisRT-kernels (support matériel pour le lancer de rayons), qui jusqu'à présent peut être utilisé dans peu d'endroits... Soit dit en passant, au moment de la sortie des cartes vidéo RTX, il n'y avait aucun jeu avec un support matériel pour le traçage !

Et il reste une grande question à savoir si les changements d'image apportés par le lancer de rayons valent la très sérieuse dégradation des performances qui se produit lorsque cette fonction est activée.

Il s'avère qu'à l'heure actuelle, en termes de rapport performances/coût, les nouveaux RTX 2000 sont inférieurs aux prédécesseurs de la série GTX 1000 (la dernière génération sur l'architecture Pascal).

Oui, le RTX 2000 pourrait potentiellement gagner en attrait au fil du temps avec plus de jeux prenant en charge le lancer de rayons et l'anticrénelage DLSS, mais il est trop tôt pour en parler.

Merci Philips d'avoir fourni ce moniteur Philips 272P7VPTKEB 4K

Récemment, l'activité des fabricants de jeux logiques est tout simplement surprenante. Les chipsets sortent les uns après les autres et, franchement, nous parvenons à peine à apporter à nos lecteurs tous les détails sur l'architecture et les performances de ces nouveaux produits. En effet, si dans un passé récent toute la concurrence sur le marché des chipsets était principalement entre VIA et Intel, alors récemment AMD, SiS et ALi les ont rejoints et ont commencé à sortir des produits assez compétitifs. Cependant, il semble que ce ne soit pas tout. De nouveaux acteurs tentent maintenant d'entrer sur le marché des chipsets système. Par exemple, au printemps de cette année, NVIDIA a annoncé la sortie de son premier chipset pour cartes mères, qui jusqu'à présent produisait exclusivement des chipsets graphiques.
Selon les représentants de NVIDIA, extrêmement optimistes, pour une entreprise qui développe des accélérateurs 3D, qui incluent parfois des dizaines de millions de transistors, concevoir une logique système est une tâche extrêmement simple. De plus, NVIDIA était le développeur du chipset de base pour la console de jeu X-BOX de Microsoft, qui est presque un PC à part entière. Cependant, il s'est avéré que tout n'est pas si simple. Malgré le fait que NVIDIA a promis de commencer à expédier des cartes mères et des systèmes basés sur un ensemble de logiques internes en août, ce n'est que maintenant que ces cartes mères ont commencé à apparaître en vente. Si tel est le cas, le moment est venu de procéder à des tests complets de ce nouveau chipset.
Le premier chipset de NVIDIA, nommé nForce et prenant en charge les processeurs Socket A d'AMD, est un chipset intégré avec un cœur graphique GeForce2 MX intégré. Cependant, en tant que chipset discret, nForce présente également un intérêt considérable, puisqu'il implémente plusieurs technologies intéressantes, principalement liées au contrôleur mémoire supportant la DDR SDRAM. Par conséquent, nous allons structurer notre examen de nForce comme suit : tout d'abord, parlons des fonctionnalités de nForce en tant que chipset conventionnel, puis examinons séparément son cœur graphique, son contrôleur audio et d'autres fonctionnalités similaires.

Les bases

La famille de nouveaux chipsets de NVIDIA, nForce, comprend deux produits différant par l'implémentation du bus mémoire. Un des principales caractéristiques nForce est l'architecture dite TwinBank : nForce dispose généralement de deux contrôleurs de mémoire indépendants fonctionnant avec la DDR SDRAM. En conséquence, en fonction du nombre de contrôleurs de mémoire impliqués, nForce permet d'organiser soit un accès mémoire 64 bits, soit un accès 128 bits double canal.
Le chipset NVIDIA nForce se compose de deux microcircuits, appelés "processeurs" dans la terminologie du constructeur. Le North Bridge, processeur graphique intégré (IGP), combine un contrôleur mémoire, un cœur graphique GeForce2 MX intégré, prenant en charge les processeurs de la famille Athlon / Duron, et une interface AGP 4x pour connecter des cartes vidéo externes. Afin de distinguer les ponts nord avec un bus mémoire 64 bits et un bus double canal 128 bits, NVIDIA utilise des marquages ​​différents pour eux, IGP-128 et IGP-64, respectivement.
Le South Bridge, Media and Communication Processor (MCP) contient un contrôleur audio matériel Audio Processor Unit (APU) avec prise en charge matérielle pour Dolby Digital, un contrôleur réseau intégré, un contrôleur PCI, et prend également en charge les capacités typiques des South Bridges modernes : USB 1.1 ports, interface ATA 100, interface AC'97, etc. Semblable au Northbridge, NVIDIA propose également deux versions du Southbridge : MCP-D avec encodeur Dolby Digital 5.1 et MCP sans.
Les ponts nord et sud de nForce sont connectés par un bus série HyperTransport point à point.

Pour une meilleure compréhension, comparons les capacités de nForce avec celles d'autres chipsets DDR modernes (les capacités de la carte graphique intégrée ne sont pas prises en compte pour l'instant).

* Une version du south bridge supportant l'ATA-133 est fournie en option au fabricant de la carte mère.


Ainsi, en regardant le tableau présenté, on peut noter que les principales innovations mises en œuvre dans nForce sont :

Contrôleur de mémoire qui implémente la technologie TwinBank, qui permet l'organisation d'un accès mémoire 128 bits à deux canaux. Une autre caractéristique unique de ce contrôleur est à noter séparément, la présence d'un préprocesseur dynamique adaptatif et spéculatif (DASP).
Utilisation du bus HyperTransport pour relier les ponts nord et sud.
Noyau graphique intégré hautes performances GeForce2 MX.
Unité de traitement audio (APU) intégrée, processeur de son matériel compatible avec DirectX 8.0 et avec encodeur Dolby Digital 5.1 intégré.

Selon la combinaison des ponts nord et sud nForce, la version du chipset peut avoir des noms différents :

En théorie, comme déjà mentionné, nForce répète en grande partie l'ensemble de la logique système que NVIDIA a conçu pour Microsoft pour la console de jeu XBOX. Cependant, il faut comprendre que le chipset utilisé dans la console de jeu prend en charge les processeurs avec l'architecture P3 et, par conséquent, dispose d'un bus de processeur différent de nForce. Intel n'a pas fourni à NVIDIA de licence pour utiliser ses bus processeurs dans des ensembles logiques système, par conséquent, NVIDIA a orienté son premier chipset pour les processeurs Socket A d'AMD. Cependant, il est possible que cette situation change, et la société proposera également des chipsets pour la plate-forme Pentium 4 : tout dépend finalement de la volonté d'Intel.

Détails : contrôleur de mémoire

L'une des principales caractéristiques de nForce, qui le distingue des autres chipsets, est le contrôleur de mémoire DDR innovant, qui permet d'organiser deux canaux de transmission de données indépendants avec une largeur de bus totale de 128 bits. Compte tenu du fait que le chipset nForce prend en charge la mémoire SDRAM DDR PC2100 / PC1600, la bande passante mémoire maximale de ce chipset peut atteindre 4,2 Go par seconde. C'est-à-dire que parmi tous les chipsets d'aujourd'hui conçus pour être utilisés dans les PC de bureau, nForce fournit la bande passante mémoire la plus élevée, puisque tous les autres chipsets ont un bus mémoire 64 bits.
Voyons comment tout cela fonctionne. nForce implémente l'architecture dite TwinBank. Cela signifie que le contrôleur de mémoire utilisé dans cet ensemble de logique ressemble en fait au contrôleur Croosbar du chipset vidéo GeForce3 et est simplement divisé en deux contrôleurs indépendants MC0 et MC1.

Autrement dit, afin d'obtenir une bande passante élevée du sous-système mémoire, NVIDIA n'a pas inventé de nouveaux types de mémoire pour son chipset, mais a simplement ajouté un contrôleur DDR SDRAM supplémentaire à son chipset. Il est à noter que les contrôleurs MC0 et MC1 sont égaux et totalement indépendants, ils sont donc capables de traiter les requêtes en même temps. En conséquence, la largeur totale du bus mémoire a atteint 128 bits, cependant, en général, le sous-système de mémoire nForce, en raison de la présence de deux contrôleurs de mémoire, est resté optimisé pour fonctionner avec des packages de données 64 bits. C'est un fait important, car le bus processeur utilisé dans les systèmes Socket A est également large de 64 bits.
En raison de l'égalité et de l'indépendance complète de MC0 et MC1, nForce permet de travailler avec des configurations de mémoire asymétriques installées sur différents canaux. Par exemple, les modules DIMM qui fonctionnent avec MC0 et MC1 peuvent avoir des vitesses, des configurations et des tailles différentes. De plus, il est possible de ne pas utiliser du tout l'un des canaux, laissant le deuxième contrôleur de mémoire inutilisé. C'est précisément pour cette raison que Nvidia propose facilement aux fabricants de cartes mères deux variantes de son pont nord : l'IGP-128 avec deux contrôleurs mémoire et l'IGP-64 avec un contrôleur inutilisé.
L'avantage de l'architecture TwinBank de nForce semble clair. Une augmentation significative du débit, semble-t-il, devrait fournir un avantage de performance significatif de cet ensemble de logiques par rapport aux concurrents. Cependant, tout n'est pas aussi simple qu'il y paraît. Le nForce a une bande passante mémoire de pointe de 4,2 Go/s et double la bande passante du bus processeur de 2,1 Go/s. Cela signifie que le processeur à lui seul ne peut pas utiliser tout le potentiel du bus mémoire nForce. Comme nous l'avons vu sur l'exemple du chipset VIA Apollo Pro266, un tel biais dans les bandes passantes du bus ne mène à rien de bon : les performances n'augmentent pratiquement pas par rapport aux systèmes où les bandes passantes mémoire et bus processeur sont équilibrées.
Mais les ingénieurs de NVIDIA ont équipé le nForce de deux contrôleurs de mémoire pour une raison. N'oubliez pas que nForce est avant tout un chipset intégré, et pas seulement le processeur, mais aussi le cœur graphique intégré imposera des exigences élevées en matière de bande passante mémoire dans les systèmes basés sur celui-ci. Grâce à l'architecture TwinBank, qui implique la présence de deux contrôleurs de mémoire 64 bits indépendants, le cœur graphique et le processeur peuvent travailler avec la mémoire indépendamment. Considérant que le cœur graphique basé sur l'architecture GeForce2 MX a des performances relativement élevées, le besoin d'un bus mémoire productif devient évident.
Néanmoins, il n'est pas tout à fait exact de dire que le bus mémoire nForce 128 bits ne peut être utilisé que lors de l'utilisation de graphiques intégrés. En théorie, certains autres appareils peuvent également accéder directement à la mémoire, en contournant le processeur. Par exemple, les cartes vidéo AGP ou les contrôleurs intégrés au pont sud du chipset. Pour ces appareils, bien qu'elle ne soit pas aussi exigeante en bande passante mémoire, l'architecture TwinBank peut également porter ses fruits. Ainsi, si l'on considère nForce comme un ensemble logique commun non intégré, la présence de deux contrôleurs mémoire peut apporter des gains de performances dans certaines applications travaillant intensivement avec des graphiques AGP ou utilisant des opérations d'E/S en streaming avec de gros volumes de données. Dans d'autres cas, l'architecture TwinBank, considérée séparément du cœur graphique intégré, peut être utile dans certains cas.
De plus, si la présence de deux canaux mémoire indépendants permet théoriquement d'augmenter la vitesse d'écriture des données en mémoire, grâce à l'utilisation de la technique d'entrelacement des canaux, alors les opérations de lecture en mémoire ne seront pas toujours accélérées. Au contraire, du fait de la nécessité de "rechercher" des données dans les deux banques à chaque appel, la latence du sous-système mémoire, par rapport aux systèmes monocanal, augmente. L'importance de la latence du sous-système de mémoire a été discutée plus d'une fois. Souvent, une latence plus faible est encore plus importante pour les performances du monde réel qu'une bande passante mémoire élevée. Cela signifie que le nForce 220, qui utilise un northbridge IGP-64 avec un canal mémoire, peut théoriquement même surpasser le nForce 420 avec IGP-128 et deux canaux mémoire en termes de performances.
Il est clair que de tels principes ne s'appliquent pas seulement aux chipsets de NVIDIA. Et si ce n'est pour certaines technologies supplémentaires, qui seront discutées ci-dessous, le nForce à double canal pourrait bien être à la traîne non seulement de son homologue à canal unique, mais aussi des chipsets DDR d'autres fabricants. Naturellement, NVIDIA, habitué à être leader en tout, ne convenait pas du tout à cette situation. Par conséquent, les ingénieurs de la société ont été chargés de trouver un moyen de réduire la latence du sous-système de mémoire lors des opérations de lecture.
Et cette solution a été trouvée. Une unité supplémentaire a été ajoutée à NVIDIA nForce, appelée DASP - Dynamic Adaptive Speculative Pre-Processor. Le travail de DASP consiste à surveiller les accès à la mémoire du processeur et à prédire les données dont le processeur pourrait avoir besoin ultérieurement. Utilisant les capacités d'un bus mémoire 128 bits avec deux contrôleurs indépendants, DASP, parallèlement au travail du processeur, extrait ces données de la mémoire et les place dans un tampon spécial situé dans le pont nord du chipset. De ce fait, si la prédiction est correcte, le processeur n'a pas à accéder à la mémoire avec une latence relativement élevée lors de l'accès à ces données : les données nécessaires sont déjà dans le chipset. Par conséquent, DASP réduit considérablement la latence du sous-système de mémoire.

Comme vous pouvez le voir, DASP est une sorte d'analogue de la technologie Data Prefetch implémentée dans processeurs modernes... Cependant, DASP a un avantage important sur Data Prefetch - son fonctionnement n'est pas associé à une charge supplémentaire sur le bus du processeur. Et comme le bus mémoire chargé par DASP n'est pas un goulot d'étranglement dans nForce, le fonctionnement de cette unité ne provoque aucune collision liée à une charge excessive des canaux de transfert de données dans le chipset.
Il est important de comprendre que DASP dans nForce traite exclusivement les appels du processeur et que les données qui peuvent être requises, par exemple, par un cœur graphique ou une carte vidéo AGP externe, ne sont pas mises en mémoire tampon. Ces appareils, étant donné qu'ils sont beaucoup moins critiques pour une latence de mémoire élevée que les processeurs, doivent travailler directement avec la mémoire.
C'est l'architecture DASP, et non TwinBank, qui est la principale technologie affectant les performances de nForce. Lorsqu'il est utilisé avec nForce externe carte graphique la bande passante élevée du bus mémoire s'avère pratiquement inutile, car le processeur ne peut pas l'utiliser à pleine capacité en raison des limitations imposées par la bande passante du bus processeur. Les cartes vidéo AGP modernes utilisent la mémoire vidéo locale pour stocker les textures, de sorte qu'elles n'interagissent pas activement avec la mémoire système. DASP, d'autre part, vous permet de réduire la latence du sous-système de mémoire indépendamment de quoi que ce soit. Et la seule chose qu'il faut regretter, c'est la petite taille du buffer utilisé par DASP. Dans la version moderne de nForce, son volume n'est que de 64 Ko, mais même cela suffit amplement pour que nForce affiche d'excellentes performances.

Détails : Hypertransport

À l'heure actuelle, presque tous les fabricants de chipsets ont abandonné l'utilisation du bus PCI pour organiser la communication entre les ponts nord et sud. La seule exception est ALi, mais ses plans immédiats incluent le refus d'utiliser PCI à cette fin. Qu'est-ce qui pousse les fabricants de chipsets à rechercher des solutions alternatives ? La réponse, comme toujours, est simple. La bande passante du bus PCI, 133 Mo par seconde, n'est plus suffisante pour que tous les contrôleurs situés dans le pont sud communiquent sans entrave avec le pont nord. Voyons, par exemple, de quoi Nvidia a bourré son pont sud (ou, dans la terminologie de l'entreprise, MCP).

Outre le pont PCI traditionnel pour les ponts sud, un contrôleur ATA-100 double canal, une paire de concentrateurs USB, un modem logiciel intégré, un codec AC'97 à 6 canaux et des périphériques LPC, MCP contient également quelques éléments. Il s'agit d'une part d'un contrôleur réseau pour Ethernet 10/100 Mbit et HomePNA 2.0, et d'autre part d'un APU (Audio Processor Unit). C'est la présence de ces deux blocs dans le pont sud qui a poussé Nvidia à rechercher une solution pour connecter les ponts de son nForce, qui garantit une bande passante plus élevée que le PCI.
En gardant à l'esprit que l'APU est un contrôleur de son matériel compatible DirectX 8.0 à part entière qui prend en charge l'audio 3D positionnel et dispose d'un encodeur Dolby Digital 5.1, nous pouvons supposer que cet appareil est capable de « manger » jusqu'à 150 Mo par seconde de bus bande passante. À la lumière de cela, NVIDIA a immédiatement attiré l'attention sur les bus à grande vitesse. Et bien, puisque Nvidia a participé activement au développement de la technologie Hypertransport, il n'est pas du tout surprenant que ce bus ait été choisi pour la communication bridge dans nForce.
En général, Hypertransport est un double port bus série d'une largeur de 2 à 32 bits, destiné à établir une connexion point à point. Les ponts nForce utilisent Hypertransport avec une largeur de 8 bits et une fréquence de 200 MHz. Considérant que le protocole Hypertransport suppose le transfert de données sur les deux fronts du signal, nous obtenons que la bande passante du bus lors du transfert de données dans un sens est de 400 Mo par seconde. NVIDIA fonctionne avec un nombre plus important, 800 Mo/s, mais cela signifie seulement que la bande passante entre les ponts dans nForce est de 400 Mo/s dans les deux sens.

Détails : tableau de référence

En plus de la création de chipsets vidéo, avec le chipset nForce, NVIDIA a également développé une conception de référence de carte mère basée sur celui-ci. Notez que ce design de référence sera utilisé par un certain nombre de fabricants de cartes mères pour sortir leurs produits en utilisant nForce, et donc la carte mère de référence de NVIDIA mérite un examen détaillé.

La conception de référence de la carte mère basée sur le chipset nForce est réalisée dans le facteur de forme MicroATX. Et cela en dit immédiatement long. NVIDIA voit l'application principale de son nForce principalement comme une solution pratique pour les constructeurs d'ordinateurs, et a donc choisi le format MicroATX. Cependant, l'entreprise a en partie raison. Il est vraiment pratique d'assembler des ordinateurs sur des cartes mères avec le chipset nForce : une seule carte mère élimine immédiatement le besoin à la fois d'une carte graphique performante et d'un carte son, et même dans le contrôleur de réseau et le modem. Par conséquent, malgré le coût relativement élevé, les constructeurs de PC devront aimer nForce comme une bonne plate-forme pour les ordinateurs personnels de milieu de gamme.
Cependant, l'utilisation du facteur de forme Micro ATX entraîne inévitablement une réduction des options d'extension. En effet, en plus des slots mémoire et des slots AGP 4x, la carte de référence ne contient que deux slots PCI et un slot ACR. Cependant, pour une carte mère sur laquelle tous les périphériques imaginables sont intégrés, ce nombre de slots d'extension peut être largement suffisant.
La carte de référence utilise l'IGP-128 Northbridge.

Comme son nom l'indique, cette version du northbridge prend en charge le bus mémoire 128 bits et l'architecture TwinBank. Les trois emplacements DIMM DDR à 184 broches de la carte sont répartis entre les contrôleurs comme suit : le premier contrôleur de mémoire MC0 a le premier emplacement DIMM et le deuxième contrôleur de mémoire MC1 a les deuxième et troisième emplacements. Un léger indice de ceci est, en passant, un emplacement quelque peu isolé sur la carte du premier emplacement DIMM. Ainsi, lors de l'installation de modules mémoire dans les premier et deuxième ou troisième emplacements DIMM, la carte utilisera un accès mémoire 128 bits. Si un seul DIMM DDR est utilisé, ou deux modules installés dans les deuxième et troisième slots, le bus mémoire a une largeur de 64 bits, comme dans les jeux logiques classiques, et le deuxième contrôleur mémoire du pont nord est désactivé.
Notez qu'il n'y a pas de radiateur sur la carte de référence du pont nord et, en principe, malgré cela, la carte fonctionne de manière stable. Cependant, en même temps, la puce est chauffée à une température telle que son sort ultérieur commence involontairement à susciter des inquiétudes. Par conséquent, sur les cartes série, le pont nord sera équipé d'un refroidisseur de chipset.
Comme pont sud pour la carte de référence, NVIDIA a choisi la puce MCP-D, qui possède un encodeur Dolby Digital 5.1 intégré, comme en témoigne la lettre « D » dans le nom du pont.

Bien que le southbridge prenne en charge l'audio 3D à 6 canaux, sortie numérique pour un amplificateur avec un décodeur Dolby Digital, Ethernet 10/100 Mbit et un modem logiciel, il n'y a pas de connecteurs sur la carte de référence elle-même pour mettre en œuvre le fonctionnement de tous ces appareils. Tous les connecteurs nécessaires sont situés sur une carte de montage supplémentaire incluse dans le kit et installée dans l'emplacement ACR.

Vous pouvez voir ici un emplacement pour le montage d'une sortie audio numérique, deux sorties audio analogiques pour connecter des haut-parleurs arrière, un haut-parleur central et un subwoofer, une prise pour connecter une ligne téléphonique et un connecteur réseau RJ45.
La carte utilise le BIOS Phoenix, qui n'a que les paramètres minimum les plus nécessaires : vous pouvez oublier l'overclocking.

Comment nous avons testé

Étant donné que ce matériel est consacré à considérer NVIDIA nForce comme une solution discrète, tous les tests ont été effectués avec une carte vidéo externe et un cœur graphique intégré désactivé. Nous avons testé la carte de référence basée sur nForce dans deux modes : avec un accès mémoire 128 bits, lorsque les deux contrôleurs mémoire sont activés, et avec un accès mémoire 64 bits, lorsque l'un des contrôleurs mémoire est désactivé. Ainsi, nous pourrons juger des performances à la fois du nForce 420 et du nForce 220, puisque ces deux chipsets ne diffèrent de NVIDIA que par la largeur du bus mémoire.
Les performances de NVIDIA nForce ont été comparées à celles d'autres chipsets DDR Socket A modernes : VIA KT266A, SiS 735 et Ali MAGiK 1 révision C.
Les systèmes de test ont été configurés comme suit :

Sur les systèmes de test, système opérateur Microsoft Windows XP.
Les résultats des tests du cœur graphique, du son et des contrôleurs IDE intégrés à nForce seront présentés dans la deuxième partie de cette revue.

Performance

Théorie - théorie, il est temps de passer à la pratique. Tout d'abord, comme toujours, il existe des tests synthétiques des performances du sous-système mémoire.

Tout d'abord, on note que même un test synthétique, comme SiSoft Sandra, ne montre pas une supériorité significative de la bande passante mémoire dual-channel nForce 420 par rapport aux autres chipsets fonctionnant avec un bus mémoire 64 bits. Comme on peut le voir, le processeur seul ne peut pas utiliser toute la bande passante du bus mémoire nForce 420. Ainsi, tous les avantages de l'architecture TwinBank ne peuvent être libérés qu'en utilisant le cœur graphique nForce intégré, qui, avec le processeur, est un des composants les plus gourmands en mémoire. ... Lorsque le cœur graphique intégré n'est pas utilisé, comme par exemple dans notre cas, même le test synthétique ne montre qu'une supériorité de 5% dans la bande passante pratique d'un chipset 128 bits sur un chipset similaire avec un bus 64 bits.
En outre, il est important de noter que les deux nForce, 420 et 220, surpassent sensiblement le reste des participants au test. Et le point ici n'est plus dans la largeur du bus mémoire. L'écart de 10 % entre le nForce 220 et le VIA KT266A ne peut être attribué qu'au DASP, puisque cette modification du chipset de NVIDIA n'a pas de bus mémoire 128 bits. Les résultats montrent que l'efficacité du DASP est extrêmement élevée : l'utilisation de cette technologie a permis à NVIDIA de créer un chipset Socket A avec le sous-système de mémoire le plus rapide.
Cependant, l'avance en bande passante mémoire telle que mesurée par le benchmark SiSoft Sandra 2001 n'est pas la clé de la victoire. Comme nous l'avons noté à plusieurs reprises, avec la bande passante, la latence de la mémoire a également un impact significatif sur les performances du système. Voyons comment le nForce s'en sort.

Et ici, nForce n'a tout simplement pas d'égal. Destiné principalement à réduire la latence, le DASP frappe droit sur la cible.
A noter également que, aussi étrange que cela puisse paraître à première vue, le chipset nForce 220 avec un contrôleur mémoire et un bus 64 bits a une latence plus faible que le nForce 420 avec deux contrôleurs mémoire et un bus 128 bits. Cependant, ce n'est pas surprenant. Puisque Nvidia s'est donné pour mission de créer un tel sous-système mémoire qui serait capable de fournir des données à plusieurs "consommateurs" en même temps (par exemple, CPU et GPU), la société n'a pas utilisé la technique classique d'entrelacement dans sa logique ensemble. Les contrôleurs de mémoire du nForce 420 sont complètement indépendants et, contrairement, par exemple, au même i850, ils permettent l'installation de modules DIMM de différentes configurations dans différentes banques de mémoire. Par conséquent, avant de récupérer les données de la mémoire dans le cas de l'utilisation de deux canaux, un arbitre spécial doit décider lequel des contrôleurs doit traiter la demande entrante. C'est exactement pour cela que les barres supplémentaires sont dépensées. Par conséquent, dans certains cas, le nForce 220 avec un bus mémoire plus étroit peut être plus rapide que le nForce 420 avec un bus mémoire plus large.
Dans les tests synthétiques, nForce semble bon. Voyons comment il se comporte dans des applications réelles.

SYSmark 2001, qui montre la performance moyenne pondérée du système dans les applications de bureautique et de création de contenu typiques, confirme les références synthétiques. nForce, bien que pas tellement, surpasse les autres chipsets en termes de vitesse. Cependant, il faut comprendre que pour les applications utilisées dans SYSmark 2001, non seulement la vitesse de la mémoire est importante ; par exemple, les performances du sous-système de disque ont également un impact significatif sur le résultat. De plus, les avantages d'un système de mémoire plus rapide ne sont visibles que lors d'opérations avec de grandes quantités de données qui ne rentrent pas dans le cache du processeur.

Par exemple, dans la partie Création de contenu Internet du test, où les applications utilisent de grandes quantités de données stockées de manière séquentielle, nForce n'est pas si rapide, car l'effet de la latence dans les tâches de cette classe est minimisé et le bus mémoire à bande passante élevée nForce 420 n'est pas pris en charge par la limitation de la bande passante.la capacité du bus du processeur.

Dans la partie bureautique du même test, au contraire, les deux nForce surpassent les deux rivaux de manière plus significative : la faible latence du sous-système mémoire de ce chipset joue déjà ici un rôle. En particulier, la supériorité du nForce 420 sur le précédent leader de nos tests, le VIA KT266A, est de 4%.

Pour avoir une vision complète du rapport de force dans les tâches bureautiques, nous avons également mesuré la vitesse d'archivage d'une grande quantité d'informations (répertoires avec jeu installé Unreal Tournament) par le célèbre archiveur WinZIP au niveau de compression habituel. La signification de ce test est qu'en plus des accès constants à la mémoire, l'archiveur travaille également en permanence avec le sous-système de disque. Par conséquent, les résultats présentés par les systèmes ici nous permettent également d'évaluer la qualité des pilotes IDE Bus Master. Le diagramme ci-dessus montre le temps d'exécution de la sauvegarde, donc un résultat inférieur correspond à de meilleures performances.

Nous avons également mesuré les performances lors de l'encodage d'un flux vidéo DVD au format DivX MPEG-4. Ce test est remarquable en ce que la modification nForce 220 avec un bus mémoire 64 bits s'est avérée plus rapide que son homologue 128 bits nForce 420. Bien que cette différence soit très faible, le fait demeure : cela est possible non seulement dans théorie, mais aussi en pratique.
La prochaine étape de nos tests consiste à mesurer les performances des systèmes dans les jeux.

Notez que les résultats du nForce 420 et du nForce 220 dans ce test sont presque les mêmes. C'est-à-dire que même Quake3, dans lequel les performances dépendent fortement de la vitesse du sous-système mémoire, ne peut pas profiter de l'architecture TwinBank, à condition qu'une carte vidéo externe soit utilisée dans le système. Le DASP, qui est présent dans les deux nForce, leur donne une bonne accélération : les deux nForce dépassent leur concurrent le plus proche, le VIA KT266A, de 4,5%.

En augmentant la résolution et en l'amenant au niveau couramment utilisé par le joueur moyen, la différence de performances diminue. Deux contrôleurs de mémoire n'aident pas non plus le nForce 420 dans ce cas.

L'image dans Unreal Tournament répète les résultats que nous avons déjà vus dans Quake3. Cependant, l'avantage du nForce220 par rapport au nForce 420 a légèrement augmenté et ne peut plus être attribué à une erreur de mesure insignifiante.

Nous aimons utiliser le jeu DroneZ lors des tests de chipsets, principalement parce qu'il est très réactif à la vitesse de la mémoire. Par conséquent, il n'est pas surprenant que DASP donne aux deux nForce l'opportunité de dépasser VIA KT266A jusqu'à 7%, ce qui est une assez grande victoire pour les kits logiques système. Notez également qu'une fois de plus, le nForce 220 a réussi à surpasser son grand frère, le nForce 420, d'environ 2 ips.

Benchmark professionnel OpenGL SPECviewperf 6.2.1 est un benchmark dans lequel les performances dépendent fortement de la bande passante mémoire. Par conséquent, personne ne devrait être surpris que le nForce 420 surpasse le nForce 220 dans toutes les tâches incluses dans ce test.Cependant, il convient de noter que les résultats du nForce 420 ne sont pas si exceptionnels, bien qu'ils soient deux fois plus larges que dans d'autres. , bus mémoire. Dans Awadvs-04 et DRV-07, nForce 420 est en retard sur VIA KT266A. Quant à la version plus jeune, nForce 220, ses performances dans les trois premiers sous-tests sont presque les pires. Il semble que la raison de ce résultat réside dans le fait que le buffer de 64 kilo-octets utilisé par DASP s'avère totalement inutile lors du transfert séquentiel d'une grande quantité d'informations stockées en mémoire.

conclusions

Comme une grand-mère. Comme nos recherches l'ont montré, nForce, bien que considéré comme distinct de son cœur graphique en tant que chipset discret, est extrêmement avancé et constitue le chipset Socket A le plus puissant du marché aujourd'hui. Bien qu'il se soit avéré être un leader grâce aux technologies avancées appliquées par NVIDIA, il convient de noter ce qui suit. L'élément principal de nForce, grâce auquel ce chipset a montré des performances élevées, est le DASP. Le seul "mais" que l'on puisse dire à propos de ce bloc est la taille insuffisante du buffer, ce qui n'est pas suffisant pour les applications OpenGL professionnelles. L'architecture Twinbank, comme les tests l'ont montré, s'est avérée totalement inutile dans les cas où le cœur graphique intégré n'est pas utilisé.
Ainsi, la version nForce 220 est plus adaptée à une utilisation dans des systèmes avec accélérateurs graphiques externes que le nForce 420. Les performances du nForce 220 dans la plupart des tests sont pratiquement les mêmes que celles du nForce 420, et dans certaines tâches le nForce 220 même surpasse son grand frère. Dans le même temps, le coût des cartes mères basées sur nForce 220 devrait être inférieur en raison de l'absence d'un deuxième contrôleur mémoire et du câblage qui l'accompagne. Dans ce cas, nForce 420 doit être perçu avant tout comme une solution intégrée.
Quant aux perspectives de marché pour nForce en général, de nombreuses ambiguïtés subsistent. Si, pour 3 à 7% de performances supplémentaires, vous êtes prêt à payer 1,5 fois plus pour une carte mère, puis à ne pas utiliser de carte vidéo intégrée "payante", alors nForce est un ensemble logique pour vous. Si vous recherchez une solution adaptée en termes de rapport qualité-prix, alors nForce n'est pas votre ami ici.
Et en conclusion, permettez-moi de vous rappeler une fois de plus que tout ce qui précède s'applique à nForce en tant qu'ensemble logique discret. Les capacités intégrées de ce chipset, telles que la vidéo, le son, etc., seront discutées plus tard, dans la prochaine partie de ce document.

Vous avez aimé l'article ? Partagez-le