Contactos

Comparación de los chipsets de NVIDIA. NVIDIA NFORCE Chipsets familiares. Voltaje de suministro del procesador, en

Los gráficos incorporados de la nueva generación vinieron primero en la plataforma AMD. ¿Porqué es eso? No hay secreto aquí.

Primero, la lógica del sistema para la plataforma AMD es mucho más fácil que la plataforma Intel. Por la razón por la que los componentes más complejos ya están incorporados en el procesador central, y la parte del conjunto de chips de la placa base explica solo el apoyo periférico. En consecuencia, para incrustar un núcleo gráfico más complejo en el cristal de Chipset Northern Bridge para la plataforma AMD es mucho más fácil técnicamente.

En segundo lugar, Intel, el principal proveedor de chipsets para su plataforma, aún no ha podido presentar un núcleo gráfico decente, que debe temerse NVIDIA. No es sorprendente que el liderazgo de este último exija hacer todo lo posible para realizar la liberación oportuna de nuevos chips integrados para la plataforma AMD. Después de todo, la propia AMD, que tiene el Departamento de Desarrollo de los Chipsets ATI, comenzó a desarrollar activamente con precisión la dirección de las decisiones integradas. Y el chipset con el nuevo núcleo de gráficos, llamado AMD 780G, lanzado el primero que es.

Sin embargo, NVIDIA se detuvo bastante rápido. Y, a juzgar por signos indirectos, su chipset resultó ser más confiable y sometido a la mente, aunque sea más caro. En realidad, el chipset no es uno, toda su línea, desde lo más sencillo y barato hasta el soporte de tri-sli con todas las funciones. De estos, los chipsets GeForce 8000 están dirigidos al mercado de centros de medios de medios, que están diseñados para instalar en placas base con el número máximo de funciones multimedia.

Entonces, ¿qué podemos ofrecer un chipset GeForce 8200, básico en la línea mencionada? Está equipado con un núcleo de gráficos G86 recortado, aplicado con éxito en su tiempo en las tarjetas de video de la serie GeForce 8400. El soporte declarado para DirectX 10 y Shaders versión 4.0 es poco probable que utilice el propietario de la placa base integrada, ya que no hay memoria local (En particular, no hay un sistema de memoria local, disponible a través de un controlador común), el rendimiento en 3D será bastante bajo. Pero, por otro lado, el chip G86 es capaz de procesar hardware la corriente de video comprimida por nuevos códecs, acelerando así la reproducción. Al mismo tiempo, el nuevo chipset es compatible con la interfaz HDMI para conectar televisores digitales, le permite transmitir el sonido y el video multicanal digital a la misma interfaz.

La nueva característica de los gráficos "híbridos" también puede parecer importante, lo que le permite agregar una tarjeta de video discreta a los gráficos conjuntos 3D (GeForce Boost). Es cierto que solo funcionará para el modelo más joven como el mismo 8400, la compra de la cual, entre nosotros, no tiene ningún sentido. Si equipa una nueva placa con una potente tarjeta de la tarjeta de video 9800 GT, la tecnología híbrida se puede aplicar a otra: para apagar esta tarjeta de video cuando se opera en 2D, lo que da una disminución en la temperatura y el ruido de la computadora.

Desde el punto de vista del soporte de la periferia, los chipsets NVIDIA han estado durante mucho tiempo en orden: Gigabit Ethernet, RAID hasta el nivel 5, 12 puertos USB. La nueva línea se implementa Soporte para PCI Express 2.0. Obviamente, la situación permanece solo con SATA externa: en cargos con chipsets NVIDIA, se encuentra el conector correspondiente si se le atiende por un controlador adicional, no un chipset. Pero los modelos de discos duros externos con SATA externos ya no son infrecuentes.

Gigabyte M78SM-S2H. Diseño, funcionalidad

A pesar del hecho de que los chipsets de la serie GeForce 8000 son prácticamente inferiores al chipset AMD 780G, y otros modelos de la nueva generación son muy buenos, las preferencias de Gigabyte exactamente los chipsets AMD 700-OH. Esto se debe, posiblemente con un alto costo de los chips NVIDIA. En particular, sobre la base del chipset GeForce 8200, Gigabyte tiene (en el momento de la preparación del artículo) solo un modelo - M78SM-S2H.

Y este modelo es interesante. Empecemos con el hecho de que está equipado inmediatamente. tres salidas de video - VGA analógico (con conector D-Sub) y DVI digital y HDMI. Cabe señalar que los puertos digitales dividen un controlador de CRTC para dos, es decir, emiten la misma imagen, mientras que el puerto VGA funciona independientemente de ellos. Esta desventaja puede manifestarse, por ejemplo, la incapacidad de implementar el modo "Teatro" cuando se muestra un video de pantalla completa en el televisor, que en el monitor al mismo tiempo se reproduce en la ventana.

Por otro lado, no hay soporte para FireWire (1394), aunque la mayoría de las cámaras de video están conectadas a través de ella. En el panel Puertos hay un ajuste de hasta tres juegos de "tomas" analógicas, pero se muestra el eléctrico S / PDIF.

Resulta que el fabricante recomienda conectar tanto el televisor como el sonido "en el dígito". Audio Codec Realtek ALC888 es un códec de 8 canales regular con soporte para funciones básicas. El códec de red también es Realtek, con soporte para redes Gigabit. El resto de la funcionalidad, incluido el apoyo a los discos duros, es proporcionado por NVIDIA CHIPSET.

Leer más Considere el diseño.

La placa está hecha en el factor de forma de microatx, pero en ancho se corta en casi 3 cm. Desafortunadamente, solo se ajustan a dos ranuras DIMM, que no serían críticas para la placa de nivel de entrada, pero el modelo Gigabyte no es más barato. Un conjunto de otras ranuras es típico de este factor de forma: un PCI Express, X16 y X1, más dos PCI. Los seis puertos de ATA en serie están divorciados, como los 12 puertos USB (incluidos los 8 conectores de PIN internos).

El módulo de suministro de energía del procesador se realiza utilizando un diagrama de 4 fases, no se implementa el control de fase dinámica.

Las cadenas utilizan condensadores de estado sólido, pero solo para el procesador VRM. Tanto el conector de alimentación se encuentran en ubicaciones convenientes.

Para refrescar el chipset, o más bien, un único chip de MCP78S, desde el cual la GeForce 8200 consiste en un gran radiador de aluminio, pintado "bajo oro".

Para no interferir con la instalación de la tarjeta de expansión en la ranura PCIe X1, que es solo una tarjeta, el radiador en la ubicación de esposa apropiada.

Todos los conectores se encuentran en lugares convenientes, con la excepción del audio delantero, que se acerca más al modelo de audio. La peculiaridad de los últimos modelos de gigabyte, y el M78SM-S2H en particular, es que todos los conectores no solo se pintan en detalle, sino que también están provistos de firmas directamente en las almohadillas (grandes y legibles), así como marcos de fijación confiable.

Esperemos que otros fabricantes comiencen a poner tales almohadillas.

El panel de puertos de la placa no es estándar. Ya hemos mencionado la salida de tres videos y S / PDIF, como aproximadamente 4 puertos USB. También hay un puerto arcaico LPT (difícil de asumir por qué puede necesitar en una computadora doméstica), pero no hay puerto PS / 2 para un mouse, hay dos USB en su lugar.

BIOS, AJUSTES

Por tradición, la tarifa M78SM-S2H está equipada con el BIOS de adjudicación, que realizó algunos cambios de marca. Por ejemplo, las opciones más "peligrosas" están disponibles después de presionar CTRL-F1 en el menú principal de configuración del BIOS.

Para mejorar el rendimiento y el overclocking, mire la sección de Tweaker de MB, porque en las otras secciones, no se detectó nada interesante.

El volumen de configuraciones para el overclocking es muy pequeño e incluye:

  • la selección de la frecuencia de referencia de bus de bus de la cual depende la frecuencia del reloj del procesador (de forma predeterminada de 200 MHz);
  • la elección de un multiplicador (para los procesadores de la serie de edición negra);
  • elegir un multiplicador (en forma de frecuencia) y el ancho del canal HT entre el procesador y el conjunto de chips;
  • configuración de la frecuencia del bus PCI Express;
  • cambiando el voltaje en el procesador y los módulos de memoria; El procesador muestra el voltaje nominal (para hablar, para referencia).

En la subsección de administración de la memoria, puede especificar la frecuencia deseada de su frecuencia (400, 533, 667, 800 o 1066 MHz), que no siempre coincidirá con lo real (debido a las características del reloj de memoria en los procesadores AMD).

Un conjunto de tiempos está oculto al usuario, solo puede cambiar la latencia CAS.

En la sección Estado de salud de PC, es posible especificar el umbral de temperatura nuevamente por la tradición de la cual la "sirena" se enciende y active la advertencia sobre detener el refrigerador del procesador y el ventilador en la caja.

El control de la rotación del refrigerador del procesador está disponible, pero no está configurado; El ventilador en el caso no está controlado.

En general, el conjunto de configuración M78SMSM-S2H M78SM-S2H es extremadamente modesto para la cita en el hogar y más bien caracterizada por la tarjeta de oficina.

Equipo

En una caja con un tablero Gigabyte M78SM-S2H, un CD (conductores y utilidades para tableros en los chipsets de NVIDIA), un enchufe para panel de puertos, dos cables de ATA en serie, un IDE y una FDD.

El manual del usuario es muy detallado, hay una pequeña instrucción en francés y turco (aparentemente, estos países están prohibidos vendiendo productos sin instrucción). No hay otros accesorios que puedan ser útiles para el usuario están en el kit.

Pruebas

Realizamos una prueba de tablero gigabyte como parte de una computadora siguiente de configuración:

  • athlon 64 x2 5000+ Procesador de edición negra (2.6 GHz);
  • dDR2 Goodram Pro DDR2-900 2 x 1 GB;
  • wD Caviar SE 250 GB Duro.

Para comparación, damos los resultados de las pruebas del producto en competencia: la placa de micro-estrella en el chipset AMD 780G. Esta tarifa es inferior al M78SM-S2H (sin soporte para el conector RAID y DVI), y algo supera, incluso en términos de costo.

Actuación. En la prueba de Sysmark 2007, se involucran varias aplicaciones modernas, lo que resuelve este o ese escenario es una secuencia de acciones de usuario. Lanzamos este paquete y Windows XP, y en Windows Vista.

Y, aparentemente, la tarifa gigabyte es de 5-10% más. El resultado de la devolución se observó solo en Vista, en el escenario de una edición de video, que es para culpar a Sysmark 2007 en su lugar.

Pero con el desempeño de los gráficos incrustados en los juegos 3D para este tablero (y todos los analógodos) problemas.

Puede contar con la capacidad de la jugabilidad solo en el terremoto 4 o en los juegos de llamadas para Duty 2, e incluso luego con un ajuste mínimo y la resolución por debajo de 1024x768. En los gráficos incorporados del chipset AMD 780G, los indicadores son mejores, pero también lejos de lo deseado.

Aceleración. La placa M78SM-S2H es capaz de trabajar con la frecuencia de soporte del bus HT igual a 405 MHz (Si el procesador lo permite, por supuesto). El valor por encima de este BIOS simplemente no le permite ingresar. En cuanto a los resultados específicos del overclocking, el procesador de prueba de Athlon 64 x2 5000, resultó el resultado de solo 2.75 GHz, o 6% de aumento. Y todo porque el BIOS no permite el voltaje VCORE superior a 1.55 V.

La placa Gigabyte M78SM-S2H es interesante principalmente por la presencia de tres salidas a la vez en el monitor, incluyendo HDMI. Sus gráficos incrustados son capaces de soportar juegos en 3D (aunque en una capacidad mínima), así como de decodificación de hardware Video HD en discos Blu-ray. Además, también escribirán soporte para RAID y la presencia de seis conectores ATA en serie. Al mismo tiempo, esta tarifa no es adecuada para el overclocking (al menos con un gráfico incrustado activado) y no tiene ninguna función adicional que se pongan en un buen modelo para PC doméstico.

Pros:

  • tres salidas de video;
  • diseño práctico, ancho reducido;
  • 6 Puertos Serial ATA y 12 USB;
  • capacitores de estado sólido en las cadenas del procesador VRM.

Menos:

  • solo dos ranuras DIMM;
  • no firewire;
  • la conexión analógica de la acústica 7.1 no es compatible;
  • configuraciones de BIOS pobres.

Agradecemos a la compañía "JethsService" para la placa base Gigabyte proporcionada

Calificación del autor:

NVIDIA es bien conocido por los usuarios de PC como un líder reconocido del mercado de tarjetas de video del juego. Gracias a sus aceleradores de 3D GeForce, la compañía logró tomar una posición prácticamente monopoly, ya que está compitiendo solo por una empresa gráfica, Tecnologías ATI. Sin parar lo que sucedió, NVIDIA ha intentado invadir otro mercado, el mercado de los chipsets para las placas base.

Sin embargo, es imposible nombrar este intento. En mi opinión, la situación se repitió con el lanzamiento del negocio gráfico de NVIDIA. Como usted sabe, la compañía debutó en el mercado con el chip NV1, un controlador integrado que combina y video, y la parte de sonido. Sin embargo, como resultado, tuve que abandonar el sonido y liberar el NV2 (es RIVA128): un clásico acelerador gráfico 3D.

Por supuesto, hoy todo no es la forma en que fue al principio. NVIDIA no es nuevo en el desarrollo de productos de alta tecnología. Sin embargo, los chipsets para las placas base tienen su propia especificidad: este no es solo un subsistema, como en el caso de un controlador gráfico, este es el nodo más importante del sistema, actuando como un aglutinante entre todos los demás componentes. Casi todos los parámetros del sistema dependen en gran medida de los chipset: rendimiento, compatibilidad, extensibilidad, funcionalidad, estabilidad, etc. Desde la primera vez para liberar el producto, que no es inferior en todos los parámetros Análogos de las empresas que no comieron en el desarrollo de chipsets, parece simplemente irreal.

Sin embargo, es necesario rendir homenaje al coraje de NVIDIA. La compañía no se propuso simplemente su análogo, utilizó las tecnologías más avanzadas y prometedoras, haciendo una solicitud de liderazgo tanto en el segmento de PC productivo como en los segmentos básicos (general) y los sistemas de presupuesto (valor). Desafortunadamente, todo va al hecho de que el intento de todo fracasó. Sin embargo, esto es un poco más tarde, y ahora, una breve descripción general de los chipsets de la serie NFORCE con una comparación de lo que NVIDIA quería, y lo que sucedió.

Chipsets nforce: 420d, 415d, 220d, 220

La familia NVIDIA CHIPSET incluye cuatro modificaciones básicas actuales: NFORCE 420DDD, 415D, 220D y 220 (valor descendente). Además, se agregarán dos más chipsets, NFORCE 620D y 615D en un futuro próximo, que no son más que las modificaciones finales 420D y 415D, respectivamente (al menos dicha información están disponibles en el momento de escribir el artículo).

La estructura del conjunto de chipset es una dos fases clásica: la conjugación del procesador, la memoria y la tarjeta de video AGP se dedican al puente del Norte, y el Puente Southern es responsable de trabajar con dispositivos periféricos. Puentes Nordic NFORCE Hay tres: IGP-128, IGP-64 y SPP.

"IGP" es "procesador de gráficos integrado" (procesador de gráficos integrado), el puente norte con un núcleo gráfico incorporado, que NVIDIA llama al procesador. Ideológicamente, es incorrecto, ya que no hace el procesamiento de datos, sino que solo desplaza los flujos y comandos de datos. Aquí es parte, el núcleo gráfico es de hecho un procesador. Las opciones del chip con índices -128 y -64 se distinguen por el ancho total del bus de memoria (aproximadamente a lo siguiente). El chip IGP-128 es la base de NFORCE 420D, y IGP-64 - NFORCE 220D y 220.

SPP se descifra como "procesador de plataformas del sistema". De hecho, es todo el mismo IGP-128, pero con un núcleo gráfico desconectado. NVIDIA tuvo que abandonar los gráficos incorporados, de acuerdo con las normas actuales, ya que no satisface los requisitos modernos. El mercado de computadoras productivas no aceptó el NFORCE 420D, sin embargo, en el caso de NFORCE 415D (este conjunto de chips usa el SPP de North Bridge), la situación puede cambiar de forma radical. Algo similar a un tiempo pasó a Intel y el chipset i815. Por ejemplo, no está claro por qué Nvidia ha presionado el mismo rastrillo.

Como Puente Sur, NVIDIA, ofrece un chip MCP-D o su versión MCP simplificada. "MCP" se descifra como "procesador de medios y comunicación". Incluye una NVIDIA "unidad de procesamiento de audio), controladores de interfaz USB y ATA, PCI y LPC, un controlador de red de nivel Mac, un controlador SMBUS, otros controladores y algo inusual, un generador de reloj. La comunicación con el puente norte se lleva a cabo a través del bus HyperTransport, de hecho, este es el primer producto de masas que tiene apoyo para este último desarrollo de AMD.

Consideremos las características de la arquitectura y la operación de fichas.

Puentes Norte IGP y SPP: Twinbank, DASP, NV11

El Nforce 420D Chipset North Bridge es un chip que proporciona un procesador, memoria, tarjetas de video AGP y Puente MCP. Consiste en los siguientes bloques:

  • interfaz de neumáticos (soporte para neumáticos EV6 con una frecuencia efectiva de 200 y 266 MHz, utilizada por los procesadores AMD K7);
  • controlador de host AGP (4x, Fastwrites, Modos SBA, Frecuencia 66 MHz);
  • el controlador de bus HyperTransport (para la comunicación con MCP, el ancho de banda es de 800 MB / s);
  • dos controladores de memoria independientes, soporte para SDRAM y DDR SDRAM, frecuencia, hasta 133 MHz, volumen, hasta 1,5 GB;
  • core de gráficos GPU incorporado (NV11 GeForce2 MX);
  • interruptor intelectual del arbitro.

NForce Chipset es compatible con los procesadores AMD Athlon y Duron. Sin embargo, NVIDIA no tiene problemas técnicos con la implementación del apoyo para otros procesadores, en particular, Intel Pentium-4. Por varias razones - marketing, legal, etc. - En este momento hay una versión de los chipset para la plataforma AMD.

El núcleo gráfico incorporado es completamente equivalente al chip NV11 (GeForce2 MX). Diferencias solo en frecuencias de reloj y interfaz de memoria. El kernel incorporado utiliza controladores del sistema que proporcionan acceso a la memoria a otros componentes del sistema (principalmente el procesador). El núcleo gráfico se puede desactivar si se instala una tarjeta de video externa en la ranura AGP. Para la mayoría de los usuarios que usan juegos o aplicaciones gráficas, oportunidades y velocidad, GeForce2 MX, no serán suficientes.

Para implementar la salida al televisor y el monitor digital, el chipset admite los tableros de extensión especiales instalados en la ranura AGP. Sin embargo, no son mucho más comunes, por lo que no es posible aprovechar esta oportunidad.

El chip SPP difiere de IGP solo deshabilitado de video incorporado.

Twinbank - La característica clave de la arquitectura de NFORCE, debido a que, en realidad, el rendimiento del conjunto de chips era bastante alto. Su esencia es que el chipset no tiene uno, sino dos controladores de memoria independientes independientes de 64 bits a los que se pueden girar todos los bloques del chipset. Cada uno de los controladores funciona con su conjunto de bancos (primero, con DIMM0, el segundo, con DIMM1 y DIMM2). Los datos se encuentran en todos los bancos con alternancia. Cuando accede a la memoria constantemente, el dispositivo recibirá datos de ambos bancos alternativamente en el modo de transportador, lo que reducirá los retrasos asociados con la apertura / cierre de las páginas, los retrasos en la regeneración, etc. Si varios dispositivos aparecen inmediatamente en la memoria, no tienen que soportar la espera hasta que el controlador se complete con otro dispositivo. Por lo tanto, se garantiza un aumento en la velocidad de trabajar con la memoria y un aumento en su ancho de banda máximo a 4.2 GB / s.

El uso de dicha arquitectura no debe llevar a un aumento significativo en el desempeño de todo el sistema por la simple razón de que la capacidad del bus de procesador EV6 es de solo 2.1 GB / s, un adicional de 2.1 GB / con él casi nada será nada dado. La arquitectura de Twinbank está optimizada principalmente para las necesidades del núcleo gráfico incorporado. Gracias a ello, el GeForce2 MX integrado será menos susceptible a los desafíos de la separación del bus de memoria con otros componentes del sistema, principalmente con el procesador. Si se utilizará una tarjeta de video separada, se notará el aumento de velocidad, ya que el colapso de las texturas del canal AGP generalmente no es tan intenso para cargar la memoria del sistema.

NVIDIA argumenta que si solo instala un módulo DIMM, solo se utilizará un controlador de memoria. Por lo tanto, es deseable poner dos módulos, uno en el primero, el otro en la segunda ranura. Dado que los controladores son independientes, puede poner diferentes módulos y configurarlos por separado. De acuerdo con información, si los módulos de memoria no se reconocen como compatibles oficialmente (consulte la lista de módulos compatibles en el sitio web de NVIDIA), se activará el modo "Modo de estabilidad", en el que se reducen los horarios de la memoria. Por lo tanto, NVIDIA lucha con el problema de la baja estabilidad de su chipset identificado inmediatamente después de las primeras placas base en su base.

El chip IGP-64 no le permite usar Twinbank (el segundo controlador de memoria está deshabilitado), por lo que su video incrustado puede estar en teoría alcanzar solo el nivel de GeForce2 MX200. Sin embargo, hasta hace poco, la NFORCE 220D basada en el chip IGP-64 no se reclama debido a precios demasiado altos, desproporcionados con su funcionalidad y productividad.

Otra característica clave del chip IGP (más precisamente, su árbitro): un analizador de apelaciones de memoria DASP. Precopsor especulativo adaptativo dinámico). Monitorea las solicitudes de lectura, analiza su carácter y construye patrones con los que puede predecir las solicitudes posteriores. Una vez que se define la plantilla, el bloque DASPS comienza a generar solicitudes, predecirlas y almacenar en caché los datos obtenidos. Por lo tanto, el ancho de banda de memoria se usa de manera más eficiente y parte de los datos, que se predice y recibe adecuadamente de la memoria por adelantado ingresa al procesador sin acceder a la memoria. Los chipsets existentes solo pueden establecer solicitudes a la cola, pero no predecirlos. Por lo tanto, la tecnología DASP debe aumentar la eficiencia de Twinbank y proporcionar una salida de datos de la memoria con retrasos más pequeños.

South Bridge MCP: APU

El Puente Sur NVIDIA MCP está conectado a IGP / SPP utilizando el nuevo bus HyperTransport Universal, la principal ventaja de la cual, en este caso, es alto rendimiento (800 MB / s). Solo los chipsets de SIS tienen un autobús más rápido en autobús, mutiol (1 Gb / s), y que fuera de los chips es el doble de más lento.

MCP: un puente sureño moderno típico, que tiene en su composición controladores PCI (hasta cinco ranuras), LPC (microcircuitos de flash de conexión con ROM y I / O Chip), USB (hasta seis puertos), ATA / ATAPI (Ultraata / 100 Modo), controlador de red de nivel Mac y dos interfaces de CA para códecs de sonido y módem. Pero hay un puente y una característica única: un controlador de sonido incorporado Apu Unidad de procesamiento de audio). Se basa en un DSP múltiple y es capaz de procesar hardware de hasta 256 transmisiones de sonido 2D, hasta 64 flujos de sonido 3D, aplican varios efectos especiales, incluidos los filtros HRTF (para la imitación del sonido envolvente). APU es compatible con DirectSound3D y nuevas características DirectX8, así como APIs y algoritmos de Sensaura. Además, y esto se implementa por primera vez, el controlador de sonido NVIDIA tiene una unidad de codificación de audio incorporada en Formato Digital Dolby Digital (AC-3), lo que permite utilizar de manera efectiva la acústica digital del usuario o la "casa sistema de teatro ". Sin embargo, esta unidad funciona solo en el chip MCP-D (NFORCE420D), y el MCP está deshabilitado.

¿Cuál es el problema?

Bueno, usted le dirá, el maravilloso chipset es dos controladores de memoria, el bus HyperTransport, más que un sonido incorporado avanzado y el núcleo de gráficos, lo mejor de hoy. ¿Por qué no estamos locos con tarifas en chipsets de NForce?

Hay varias razones para esto. Primero, el chipset es muy caro. NVIDIA le pidió dinero poco realista, por lo que los fabricantes de placas base se centraron en un usuario deficiente, inmediatamente abandonó a NForce, sus clientes potenciales simplemente no podrán comprar tarifas caras. Hoy, NVIDIA colabora solo a las compañías de favoritos con una reputación positiva que liberan las rangos de precios superiores: Asus, Abit, MSI, Leadtek, etc.

En segundo lugar, el chipset no fue demasiado exitoso. Aquí hay una lista corta de sus problemas:

  1. incapaz de preparar BIOS, por lo que hay problemas con la compatibilidad, la velocidad y la estabilidad;
  2. el generador de reloj incorporado no tiene capacidades extensas de ajuste, lo que limita la idoneidad de la placa de aceleración;
  3. no proporcionó fondos suficientes para configurar el conjunto de chips;
  4. el soporte a nivel del conductor deja mucho que desear: Winnt, Linux y algún otro sistema operativo prácticamente no son compatibles, Win98 / ME, solo parcialmente (por ejemplo, el sonido de hardware funciona con pena por la mitad).

En tercer lugar, el chipset no encajó en ese nicho, que estaba dirigido. El video de juego incorporado resultó ser inapropiado a un precio alto, es mucho más importante que es para la máquina presupuestaria, pero no para un juego o estación de trabajo costosa. En mi opinión, en lugar de NFORCE420D, fue necesario liberar inmediatamente un par de NFORCE 415D + NFORCE 220D.

Sin embargo, los tableros de base de datos NFORCE 420D después de casi el año, los terminados finalmente llegaron a la venta en cantidades suficientes. Uno de los siguientes artículos se dedicará a la revisión de uno de ellos.

Equipo.
En una caja colorida, impresionantes tamaños, excepto la placa base.
1. Puentes SLI para modo SLI de 3 vías y 2 vías de 3 vías.
2. Adaptador HDMI a DVI.
3. Ventilador adicional para la placa base.
4. Adaptador para conectar a los fanáticos.
5. Pullizca UltraTMA 133/100/66, cables SATA.
6. Cables de alimentación SATA.
7. Cargo adicional con 2 USB 2.0 e IEEE 1394A
8. Manual para la operación.
9. ¿Disco con controladores y programas de ASUS, 3DMARK06 y que me sorprendió especialmente, con Kaspersky Anti-Virus?
10. Disco con la compañía de juegos de héroes - versión completa con licencia. Especificaciones técnicas.
Las siguientes características se indican para la nueva placa base de ASUS:
1. AMD® Socket AM2 + para procesadores AMD Phenom ™ FX / PHENOM / ATHLON ™ / SEMPRON ™
2. AMD Socket AM2 para AMD Athlon 64 x2 / Athlon 64 Fxlon 64 / Sempron
3. AMD Cool "n" Tecnología Quiet ™
4. CHIPSET NVIDIA® NFORCE 780A SLI
5. Autobús del sistema hasta 5200 mt / s; Interfaz HyperTransport ™ 3.0 para AM2 + CPU. 2000/1600 MT / S para AM2 CPU. Como puede ver, aquí se usa un neumático nuevo, esta es la primera diferencia de las tarjetas matrices de la serie anterior.
6. Memoria 4 x DIMM, máx. 8GB, DDR2 1066/800 / 667, Memoria ECC y no ECC, sin tamponería. Hay una segunda diferencia. Es cierto que este no es el mérito de un nuevo chipset, sino el mérito de los nuevos procesadores AMD. Debido al hecho de que los nuevos procesadores, el controlador de memoria admite la memoria con una frecuencia de 1066MHz y la placa base al instalar nuevos procesadores la respaldará.
7. Arquitectura de memoria de doble canal
8. Gráficos integrados VGA. Y aquí vemos nuevas tácticas de NVIDIA, cuando fue esto: la placa base superior con un video integrado? Y esto se hace todo para apoyar a las nuevas tecnologías Hybrid SLI y POWER HYBRID.
9. La memoria compartida máxima de 512 MB de MB admite la tecnología HDMI ™ con HDCP que cumple con MAX. Resolución 1920 x 1200
10. Soporta D-Sub con Max. Resolución 1920? 1440 @ 75 Hz Multi VGA Soporte de salida: DVI & D-Sub
11. Soporte Hybrid SLI
12. Slots de expansión 3 x PCIE2.0 X16 Soporte NVIDIA SLI TECH @ DUAL X16 O [Correo electrónico protegido], x8, x8. Esta es otra diferencia de la PCI-EXP de 3 ranuras.
13. 2 x PCIe X1, PCIEx1_1 (Negro) es compatible con la ranura de audio 2 x PCI 2.2
14. Almacenamiento 6 x Puertos SATA 3GB / S con RAID 0, 1, 0 + 1, 5 y Soporte de JBOD
15.1 x Ultra DMA 133/100 / 66/33
16. LAN DUAL GIGABIT LAN Controlers, ambos con AI NET2
16a. Tarjeta de audio Audio SupremeFX II de alta definición
- ADI 1988B 8-canal CODEC de audio de alta definición
- Filtro de ruido.
-Cuaxial, óptico S / PDIF en la parte posterior E / S
17. IEEE 1394 2 x 1394A Puertos (1 puerto en la parte posterior de E / S, 1 Port a bordo)
18. USB máx. 12 puertos USB2.0 / 1.1 (6 puertos en la placa base, 6 puertos en el cuerpo)
19. ASUS ROG Overclocking cuenta con un jeaker extremo
20. Nuevo sistema de potencia de 8 + 2 fases.
21. Utilidades para el overclocking:
- CPU nivelada
- Overclocking AI (Sintonizador de frecuencia inteligente de CPU)
- ASUS AI BOOSTER UTILIDAD
- O.C Perfil
22. Sistema de protección de overclocking:
- COP EX (Protección de sobrecalentamiento de componentes ex)
- VoltiMinder LED.
- Asus C.P.R. (Recuperación de parámetros de CPU)
23. ASUS ROG Características especiales Cartel LCD
24. Fondo de pantalla de ROG BIOS
25. Interruptores a bordo: Potencia / reinicio / CLR CMOS (en la parte trasera)
26. Q-Conector
27. asus ez flash2
28. Asus CrashFree BIOS2
29. pila fresco 2
30. Asus Q-Shield
31. asus mylogo3
32. Sólo se utilizan condensadores acuícolas.

33. Puertos de entrada en el panel posterior:
1 x hdmi
1 x D-sub
Puerto de teclado PS / 2 PS / 2 (púrpura)
1 x Optical + 1 x Solución coaxial S / PDIF
2 x Puerto LAN (RJ45)
6 x USB 2.0 / 1.1 Puertos
1 x IEEE1394A PORT
1 x CLR CMOS Switch

34. Puertos internos:
3 x Conectores USB 2.0 admiten 6 puertos USB 2.0 adicionales
1 x conector de unidad de disquete
1 x conector IDE para dos dispositivos
6 x conectores SATA
8 x Conectores de ventilador: 1 x CPU / 1 x PWR / 3 x chasis / 3 x opcional
Conectores de sensores térmicos 3 x
1 x IEEE1394A Conector
Conector de salida 1 x S / PDIF
1 x conector de intrusión de chasis
Conector de alimentación ATX de 24 pines
Conector de alimentación ATX 12V de 8 pines
1 x en / CLR des-CAPS CMOS
1 x cartel lcd
1 x Conector de luz ROG
Conector del panel del sistema

35. BIOS DE AUTÍO DE AUTÍO DE 8 MB, PNP, DMI2.0, WFM2.0, SM BIOS 2.4, ACPI2.0A BIOS MULTI-LANICAMENTE
36. Destacatividad WOL por PME, China por PME, Chasis Intrusión, PXE
37. Factor de forma ATX del factor ATX, 12 "x 9.6" (30.5 cm x 24,4 cm)

Overclocking
En la nueva placa base, el procesador Phenom 9850, fue fácilmente capaz de conquistar sus preciados a 2, 94 GHz en un voltaje nominal de 1.25 V ..
Con un voltaje creciente, el enfriador no hizo frente a su función, por lo que se decidió abandonar esta manipulación. Configuración de prueba y resultados de pruebas.

Configuración de prueba:
1. Asus Crosshair II Fórmula
2. Caja AMD Phenom 9850
3. GAINWARD 8800 GTS 512MB BLITZ
4. 2x1GBSAMSUNG PC6400 DDR800
5. 2xhd WD 250Aajs en RAID 0 Array.
6. Casos de colores:
7. BP FSP 450W
8. Asus 222U Monitor

Las pruebas se realizaron en las siguientes pruebas:

2. PC Mark 2005.
3. 3DMARK 06.

1. Crysis (todo por resolución máxima 1280x1024)

Como puede ver, el nuevo neumático Hypertransport 3.0 da sus resultados. El nuevo chipset muestra resultados decentes.

En la prueba sintética, el nuevo chipset también demuestra los resultados de salida.

En esta prueba, también vemos la ventaja de un nuevo chipset. Inmediatamente debe hacer una reserva, - la ventaja va a expensas de la prueba del procesador.

4. Pruebe el disco duro del paquete Ultimate Everest.


La velocidad de lectura lineal con la matriz RAID 0 también es más alta que la del conjunto de chips anteriores.


Tiempo de acceso en discos duros, también más rápido en un nuevo chipset. Conclusiones:
1. El nuevo chipset muestra excelentes resultados de rendimiento. En todas las pruebas, resulta ser el más rápido del predecesor.
2. Aumenta especialmente la velocidad de trabajar con discos duros. Recientemente he prestado más atención a esto, ya que creo que en la computadora moderna, el lugar más rápido es unidades difíciles.
3. Es una pena, pero el sistema de enfriamiento del procesador no permitió todas las cualidades de overclocking de la placa base y el procesador. Pero estoy seguro, las características de aceleración del procesador no serían tan impresionantes como el triunfo de un nuevo chipset.
4. Todas las sobrecargas anteriores, solo los nuevos procesadores AMD están eclipsados. Sí, si no planea overclocking, puede comprar una nueva placa base con un procesador AMD. Pero, por otro lado, vale la pena pagar $ 600 por un montón de placa base y procesador. Sí, por supuesto, puedes tomar un procesador más barato. Pero no es lógico comprar una placa base por $ 330, y el procesador Phenom X3 por $ 170 o Athlon X2 por $ 100.
5. De ahí la salida: esta placa base es ideal para los fanáticos de AMD y no más.
6. Nosotros, usuarios prudentes, esperemos las placas base en los chipsets SLI de NFORCE 750A, el beneficio de las placas base en los nuevos chips de NFORCE 750i SLI ya están disponibles en venta.
Se prepara el artículo. FOTEID. especialmente para Mega obzor.

Ver este artículo:

Las tarjetas de video basadas en NVIDIA GeForce RTX 2070, que se dedica a este material son modelos bajos de los adaptadores gráficos de nueva generación que ya se envían en estos datos con la arquitectura de NVIDIA TUTING.

Si no tiene en cuenta el número de NVIDIA TITAN RTX muy específico $ 2500, luego las tarjetas de video del usuario con la arquitectura de NVIDIA Turing están representadas por el NVIDIA GEFORCE RTX 2080 TI, RTX 2080 y la familia RTX 2070. Estas son tarjetas de video de alta clase, y después de un tiempo está previsto que aparezca y se simplifican los dispositivos tipo RTX 2060.

Miramos las características.

Los procesadores gráficos para tarjetas de video nuevos se realizan en un proceso más "delgado" de 12 nanómetros. Pero, según los rumores, este proceso técnico no es algo fundamentalmente nuevo, pero representa solo una versión ligeramente refinada del proceso técnico de 16 nanómetros, que se utiliza en los predecesores.

Para la comodidad de la comparación, las características de la nueva GeForce RTX 2080 TI, RTX 2080 y RTX 2070 y los predecesores de GeForce GTX 1080 TI, GTX 1080 y GTX 1070, los redujeron a una mesa.

Desde la generación hasta la generación de tarjetas de video NVIDIA, puede observar el costo de las tarjetas de video. Pero si antes era bastante suave, entonces, en este caso, los adaptadores de NVIDIA Turing superaron significativamente a los predecesores por el precio.

¿Qué pagamos?

En parte, este aumento se puede explicar por la mayor complejidad de las nuevas GPU. Tenga en cuenta que tienen una cantidad muy aumentada de transistores y un área de cristal significativamente mayor. En consecuencia, se puede suponer que el costo de tales cristales es mayor.

Hay algunas desviaciones por los valores de la frecuencia de la GPU. La memoria es ahora nueva. En lugar de GDDR5X y GDDR5, la tarjeta de video RTX recibió GDDR6.

Pero cabe destacar que la cantidad de memoria en la nueva generación de tarjetas de video permaneció en el mismo nivel que los predecesores.

Es muy importante que aparezcan completamente nuevos kernels y kernel de Tensor. Esto es exactamente lo que tal aumento en el número de transistores y el área de cristal de la GPU se debe.

Rayos de rastreo

La generación de tarjetas de video RTX 2080 TI, RTX 2080, RTX 2070, basado en la arquitectura de Turing, NVIDIA, llama a un revolucionario y lo une con soporte de hardware para los rayos de trazado en tiempo real.

Para esto, se introduce el núcleo RT mencionado anteriormente. NVIDIA lo considera tan importante que la consola GTX habitual en las nuevas tarjetas de video incluso se reemplazó por RTX, donde RT - Ray Raying (RAYS TRACTING).

Esta tecnología en la presentación de tarjetas de video de la nueva generación se le dio casi la atención principal.

Si se simplifica, entonces, con el rastreo de rayos, se conectan nuevos efectos de las reflexiones sobre los objetos (incluidos los reflejos mutuos), los reflejos de la luz y los rayos a través de los objetos. Al mismo tiempo, los rayos pueden tener refracción realista, imposición, etc. El trazado de rayos también le permite usar sombras suaves más realistas y formar una iluminación creíble.

Esta es realmente una innovación muy importante para la industria, pero, sin importar cuán paradójicamente, sea con la tecnología de rastreo de rayos y conecte una recepción bastante fría de nuevos usuarios de tarjetas de video.

Los nuevos núcleos RT hicieron que el cristal sea más grande y caro, y ¿y qué obtiene los usuarios a cambio?

En el momento del lanzamiento de las tarjetas de video RTX, no hubo un solo juego que hubiera soportado el rastreo de rayos. Ahora la situación cambia, pero muy lentamente.

Por ejemplo, intente el rastreo de rayos en general en cualquier juego, se hizo posible recientemente con la liberación de Battlefield V.

Como resultó, la imagen en Battlefield V con efectos no está cambiando y dramáticamente. Hay mejoras, pero no dirá en absoluto que obtiene un nuevo nivel de percepción fundamentalmente.

Pero los recursos informáticos de rastreo de rayos "cosechados" es esencial. Cuando se activa la traza de rayos, el rendimiento puede caer más de dos veces.

Como resultado, incluso con la parte superior más cara de NVIDIA GeForce RTX 2080 TI, el nivel FPS con resolución Full HD, la configuración de máxima calidad utilizando RAY TRACING no siempre podrá satisfacer a un jugador exigente.

¿Y luego qué hablar de Simpler RTX 2080, RTX 2070 y Permisos más altos?

Resulta que en este momento Prácticamente no hay juegos con juegos de rastreo de rayos, visualmente la diferencia en la imagen con efectos RT no es tan cardinal, y la activación de traza conduce a una gran caída en el nivel FPS.

Para los usuarios de trazado de rayos en tiempo real, solo es solo una tecnología potencialmente prometedora. Veamos cómo se desarrollará la situación.

Suavizado DLSS, núcleos tensores y inteligencia artificial.

Además de los nuevos nuevos núcleos RT en tarjetas de video RTX, aparecieron kernels de tensión, destinado a calcular la red de AI y Neural. Trabajan en un paquete con núcleos RT, pero los granos de tensión pueden usarse para otras funciones.

Sobre la base de su trabajo, se implementa un nuevo método de suavizado: DLSS (Ejemplos de aprendizaje profundo). Se utiliza una resolución reducida de la representación, pero a expensas del AI y los núcleos tensores de la tarjeta de video convierten la imagen a un nuevo detalle "deterioro".

Dependiendo de la implementación de la implementación, debido a esto, es posible lograr un aumento de la productividad, mejorar la calidad de la imagen o ambos al mismo tiempo.

Nuevamente, como en el caso del rastreo de rayos, se necesita apoyo de los juegos para DLSS. Se indica que varias docenas de juegos de preparación de juegos apoyarán el alisado DLSS.

Una de las pocas pruebas, donde puede verificar el DLSS ahora, se ha convertido en el punto de referencia Final Festy XV. Si la tarjeta de video GeForce RTX está instalada en el sistema, el elemento apropiado aparece en la configuración que le permite activar los DLSS.

Según nuestras pruebas, la activación de DLSS llevó a un aumento significativo en la productividad.

La calidad de la imagen utilizando DLSS y con el consumo de TAA habitual en esta aplicación es comparable. Puede comparar de forma independiente los marcos con DLSS y con TAA.

DLSS.
Taa

¿Cuáles son las otras noticias?

La tecnología de aumento automático en la frecuencia de la GPU continúa mejorándose. La cuarta generación de BOOST GPU se utiliza en tarjetas de video NVIDIA RTX.

Añadió la capacidad de ajustar manualmente el algoritmo de aceleración. Pero mucho más interesante es que la función del overclocking automático apareció por primera vez.

Si se requería antes de determinar la frecuencia límite de la GPU para experimentar, ejecutar varios juegos, aplicaciones, ahora el proceso se puede simplificar enormemente.

El escáner NVIDIA está disponible en aplicaciones MSI Afterburner. Al presionar solo un botón, después de 15 minutos de pruebas automáticas, recibirá una curva de frecuencia / voltaje de GPU modificada, respectivamente, con valores de frecuencia más altos.

En nuestras pruebas para todas las tarjetas de video RTX 2070, revisamos dicha aceleración automática. Por supuesto, para obtener resultados de overclocking incluso más altos, aún tiene que llevar a cabo una dispersión más compleja "manualmente".

Las tarjetas de video RTX se pueden conectar a la vez dos monitores con una resolución de 8k. La frecuencia máxima del marco será de 60 Hz en ambos dispositivos de salida de imagen.

Los puertos de DisplayPort ahora corresponden a las versiones de VersionPort 14A, y HDMI - HDMI 2.0B. También presta atención al conector de tipo C USB directamente en la tarjeta de video. Está destinado a nuevos cascos VR.

Sin embargo, este puerto se puede utilizar para cualquier dispositivo con soporte de tipo c USB.

Se espera que trabaje con varios códigos de video. Por ejemplo, el soporte para la compresión de datos en formato H.265 (HEVC) se agrega en modo de permiso, así como la calidad de codificación. Teniendo en cuenta que hoy en día las tarjetas de video se usan activamente cuando la edición de video es muy relevante.

La capacidad de combinar múltiples tarjetas de video en un sistema ya está disponible solo en tarjetas de video de clase alta. NVIDIA GEFORCE RTX 2070 Dicha función está privada.

Masa de los participantes

En una prueba, logramos recolectar cuatro tarjetas de video basadas en NVIDIA GEFORCE RTX 2070 de diferentes fabricantes.

Esta edición ASUS ROG STRIX GEFORCE RTX 2070 OC, GIGABYTE AORUS GEFORCE RTX 2070 XTREME 8G, INNO3D GEFORCE RTX 2070 GAMING OC X2 y MSI GeForce RTX 2070 GAMING Z 8G.

Todos ellos tienen diferencias significativas de la referencia RTX 2070, recibidas frecuencias elevadas y usan sistemas de enfriamiento de marca.

Características de la tabla comparativa

Modelo de identificador de código Rog-strix-rtx2070-o8g-gaming GV-N2070AORUS X-8GC N20702-08D6X-2511683. -
Proveedor Representando a asus Representando gigabyte Representa inno3d Representando a MSI
Precio, $ 796 742 675 725
Resultados de la medición
Actuación 87,49 87,73 86,21 87,93
100 96,91 98,54 98,79
Fabricación / Precio 86,7 93,26 100 95,66
Especificaciones
Chipset NVIDIA GEFORCE RTX 2070 NVIDIA GEFORCE RTX 2070 NVIDIA GEFORCE RTX 2070 NVIDIA GEFORCE RTX 2070
Proceso técnico de chipset, nm 12 12 12 12
Tipo y tamaño de memoria, GB GDDR6, 8. GDDR6, 8. GDDR6, 8. GDDR6, 8.
Diseño de sistema de enfriamiento. de marca de marca de marca de marca
Número de fanáticos del sistema de enfriamiento 3 3 2 2
Número de ranurado 3 3 2 3
Evaluación subjetiva del ruido de enfriamiento. Excelente Excelente Okey Excelente
Frecuencia nominal GPU. 1410 1410 1410 1410
GPU de frecuencia de refuerzo 1815 1815 1755 1830
Frecuencia resultante de la memoria, MHz 14000 14142 14000 14000
Autobús de memoria, bit 256 256 256 256
Requiere nutrición adicional?
Tipo de conector extras. Nutrición 6Pin + 8Pin. 6Pin + 8Pin. 6Pin + 8Pin. 6Pin + 8Pin.
Número de HDMI / DisplayPort / USB Tipo-C OUTS 2/2/1 3/3/1 1/3/1 2/2/1

Asus Rog Strix GeForce RTX 2070 OC Edición (ROG-STRIX-RTX2070-O8G-Gaming)

Presentado en la prueba AsusRog.Strix.GeForce.RTX 2070.JEFE.la edición es actualmente la más poderosa en términos de frecuencia.GPU y avanzado entre todas las tarjetas de video.Asus en la baseRTX 2070..

Tiene un diseño tradicional para Asus Rog Strix, que prácticamente ha cambiado desde la generación pasada.

El dispositivo era bastante grande y el sistema tomará tres ranuras de expansión.

Utiliza una placa modificada con una configuración de fase de 10 + 2 y un sistema de enfriamiento de marca con tres ventiladores.

Como se declara, los fanáticos tienen un diseño especial, y los interiores están protegidos contra el polvo. Por cierto, la dirección de rotación de todos los fanáticos es la misma.

El radiador masivo C está impregnado con seis tubos térmicos. La salida del receptor de calor tiene un procesamiento especial que Asus llama a la tecnología MaxContact.

Al examinar la edición ASUS ROG STRIX GEFORCE RTX 2070 OC (ROG-STRIX-RTX2070-O8G-GAMING), las partes curiosas se encuentran en todos los lados.

Se instalan dos microcircuitos en la placa de inmediato.BIOS. Con un bit de los modos de trabajo de la placa modificada. Uno de ellos (rendimiento) proporciona una mayor eficiencia de refrigeración, que se logra mediante velocidades de operación de ventilador más altas, y la segunda (silenciosa) está diseñada para una operación más tranquila. La selección del BIOS se realiza mediante un interruptor especial.

Por cierto, la parada completa de los ventiladores a baja carga se vuelve solo cuando se usa la opción BIOS con modo silencioso.

Al final, se muestra un botón especial para desconectar / encender rápidamente la luz de fondo. Esta es una buena solución cuando necesita pagar el brillo sin el uso del software corporativo.

Además, la placa proporciona una plataforma para la medición manual del RAM, GPU, voltaje PLL y un conjunto de contactos para conectar cintas LED y ventiladores de cuerpo. La velocidad de rotación de estos ventiladores puede asociarse con la temperatura de la GPU. Esta es una característica genial.

En uno de los lados de la edición ASUS ROG STRIX GEFORCE RTX 2070 OC, puede notar los contactos para conectar la cinta LED y los fanáticos del cuerpo

La frecuencia de la memoria en este modelo corresponde a la referencia, pero la frecuencia de refuerzo de la GPU se incrementa de manera muy significativa, de 1620 a 1815 MHz.

Como resultado, la edición ASUS ROG STRIX GEFORCE RTX 2070 OC se encuentra entre los líderes de la prueba de rendimiento. Limpie el GIGABYTE AORUS GEFORCE RTX 2070 XTREME 8G y MSI GeForce RTX 2070 GAMING Z 8G En la velocidad falló, ya que los tres modelos, incluidos ASUS, tienen frecuencias operativas similares. Tarjetas de video muy fuertes participan en la prueba.

Monitoreando Asus ROG STRIX GEFORCE RTX 2070 OC Edición en el Afterburner de MSI

Al trabajar bajo carga en nuestras condiciones, la temperaturaGPU compuesto solo 57 °C.. Para todas las pruebas de rendimiento y las pruebas de medición, se usó un BIOS con el modo de rendimiento.

Dado el consumo de energía bastante alto de la tarjeta de video, es solo un gran resultado. Por cierto, este es el valor de temperatura más bajo entre todas las tarjetas de video probadas basadas en RTX 2070 en esta prueba.

La velocidad de rotación de los fanáticos ascendió a aproximadamente 1600 rpm. Cuando la tarjeta de video no crea incomodidad de ruido.

Cuando se utiliza la aceleración automática con la configuración inicial, la frecuencia máxima de la GPU casi alcanzó 2100 MHz.

Asus ROG Strix GeForce RTX 2070 OC Edición le permite aumentar el límite de potencia hasta un 125%. Este es el valor más alto en la prueba.

El sistema de retroiluminación consta de varios elementos con RGB-Lightlight en el panel frontal, luminoso por el logotipo de ASUS ROG en el lateral y otro logotipo grande derivado de la placa posterior.

La luz de fondo de trabajo, por supuesto, puede ser controlada. Hay varios efectos disponibles, así como la capacidad de cambiar el color, dependiendo de la temperatura de la GPU.

Característica: El color del brillo puede cambiar, pero al mismo tiempo, todos los elementos de iluminación tienen el mismo color.

Es bastante agradable, pero hoy también hay soluciones más avanzadas, incluyendo entre los participantes de la prueba. La luz de fondo de la tarjeta de video Gigabyte Aorus y MSI resultó ser incluso más frescas.

Corporativo en Asus en términos de oportunidades está a punto de combinar MSI Afterburner y GPU-Z

Asus Rog Strix GeForce RTX 2070 OC Edición es una tarjeta de video muy potente basada en RTX 2070 con un sistema de enfriamiento fácil a otro.

Se encuentra entre los líderes en el rendimiento, tiene una serie de funciones adicionales curiosas en forma de dos fichas BIOS, contactos para los fanáticos de la carcasa y la cinta LED.

Pero con todas sus ventajas, Asus ROG Strix GeForce RTX 2070 OC Edición tiene el más costo entre otros participantes dietéticos basados \u200b\u200ben RTX 2070.

Asus Rog Strix GeForce RTX 2070 OC Edición (ROG-STRIX-RTX2070-O8G-GAMING):

Excelente sistema de enfriamiento.

Límite de consumo de energía más alto que otros participantes

Doble BIOS.

Contactos para conectar cintas LED RGB y fanáticos del casco

- el valor más alto

- grandes dimensiones

- equipo relativamente modesto

Si ASUS ROG Strix Tarjetas de video en la nueva generación se vea casi tan bien como en la anterior, entonces MSI His Series Gaming modificó significativamente.

El diseño reconocible con predominio de rojo e inserciones, que recuerda a las garras del dragón, decidió no usar más.

El modelo no es tan largo, pero ancho y en el sistema llevará el lugar de tres ranuras de expansión.

MSI GeForce RTX 2070 Juego de azar.Z 8.GRAMO. (Atención al prefijo Z en el título) está resaltado por frecuencias más altas en comparación con MSI GeForce RTX 2070 Twins Juego de azar.X 8.GRAMO. y MSI GeForce RTX 2070 JUEGO 8.GRAMO.y es el RTX 2070 más rápido para MSI en este momento.

La tarifa es típica de la serie de juegos reciclada. Muestra la configuración de las fases de alimentación 8 + 2. CO consiste en dos fanáticos y un potente radiador con seis tubos térmicos.

Si miras, entonces en cada ventilador alternan las cuchillas de dos tipos. La tecnología se llama Torx Fan 3.0. En combinación con el nuevo diseño de las placas de dispersión del radiador, esto, según el fabricante, contribuirá a una mejor eficiencia.

El sistema de enfriamiento realmente resultó ser muy efectivo.

Temperatura fija bajo carga - 66 ° C. Pero sorprendió a otro. Esta temperatura se mantiene a la velocidad de rotación del ventilador de solo 1100 rpm.

Como resultado, la tarjeta de video funciona muy tranquila.. De acuerdo con la eficiencia de enfriamiento, MSI superó a otros participantes, excepto la edición ASUS ROG STRIX GEFORCE RTX 2070 OC. Pero con Asus es difícil de comparar. Por un lado, un competidor tiene una temperatura más baja, y, por otro lado, se logra con velocidades de ventilador notablemente más altas.

La frecuencia de impulso de la tarjeta de video GPU MSI GeForce RTX 2070 GAMING Z 8G es de 1830 MHz. Este es el valor más alto entre todos los participantes de la masa. Pero la superioridad sobre Asus Rog Strix GeForce RTX 2070 OC Edición y Gigabyte Aorus GeForce RTX 2070 Xtreme 8G es completamente escasa. Estas tarjetas de video, este valor es de 1815 MHz.

Frecuencia de memoria, mientras que estándar. Es lógico que RTX 2070 Gaming Z 8G estuvo entre los líderes en el rendimiento. Con la aceleración automática, la frecuencia máxima llega a 2100 MHz.

Curvas de la frecuencia y voltaje del procesador de gráficos MSI GeForce RTX 2070 GAMING Z 8G Características (datos de aplicación GPU-Z) con ajustes estándar (arriba) y después de la aceleración automática

Un límite de consumo de energía asequible es del 111%.

Muy satisfecho con un nuevo sistema de retroiluminación de esta tarjeta de video.. Áreas luminosas alrededor del perímetro rodeado a los fanáticos. El logotipo en el lateral está resaltado.

La cosa es cómo se implementan los efectos dinámicos aquí. En algunos modos, este es un espectáculo de color. Aunque no hay un elemento luminoso en la placa posterior. Esta luz de fondo se gustó más que la solución en Asus.

Incluido con la tarjeta de video viene con una tabla adicional para un sujetador más confiable de la tarjeta de video en la carcasa. La tarjeta de video es realmente pesada, pero, en nuestra opinión, no hay una gran necesidad en tal bar. Es probable que no haga daño, al transportar el caso.

La barra se atornilla en la carcasa de la computadora debajo de la tarjeta de video, después de lo cual el dispositivo se basa en esta barra a través de las prolecciones suaves

MSI GeForce RTX 2070 GAMING Z 8G se distingue por alto overclocking de fábrica, y un excelente sistema de enfriamiento de manera eficiente, y una nueva retroiluminación interesante. Un buen modelo resultó.

Evaluación MSI GeForce RTX 2070 GAMING Z 8G:

Excelente sistema de enfriamiento.

Apagando a los fans a baja carga

Aumentando significativamente las frecuencias de la GPU

Sistema avanzado RGB-Backlight

Barra de sujeción adicional incluida

- grandes dimensiones

Gigabyte Aorus GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

Incluso en comparación con otras tarjetas de video importantes en la prueba Gigabyte Aorus GeForce RTX 2070 Xtreme 8G sigue siendo más masiva.

Gigabyte Aorus GeForce RTX 2070 Xtreme 8G izquierda

Pero la principal contribución al grosor del dispositivo no trae el radiador CO, sino una colocación bastante curiosa de los fanáticos.

Están ubicados un poco de latón. De este modo, con una longitud moderada, fue posible colocar tres fanáticos de 100 mm a la vez..

GigabyteAorus.GeForce.RTX 2070.Xtreme 8.G es el más rápidoRTX 2070 en GIGABYTE.

Aumento de la frecuencia es de 1815 MHz, que, sin embargo, es comparable a la EDICIÓN TESTADA ASUS ROG STRIX GEFORCE RTX 2070 OC y MSI GeForce RTX 2070 GAMING Z 8G.

Es curioso que el overclocking de fábrica recibió la memoria. En todas las demás tarjetas de video RTX 2070, esta prueba de frecuencia de prueba es referencia.

Pero la ganancia de memoria en el caso del Aorus GeForce RTX 2070 XTREME 8G es puramente nominal y poco afecta el rendimiento final. La frecuencia se elevó con un estándar de 14,000 a 14 140.

El rendimiento del Gigabyte Aorus GeForce RTX 2070 Xtreme 8G fue a nivel de las tarjetas de video MSI y ASUS.

Uso de la aceleración automática, el valor máximo de la frecuencia GPU fue de aproximadamente 2100. Lo que repite aproximadamente los resultados de MSI y ASUS.

Curvas de la frecuencia y voltaje del procesador gráfico Gigabyte Aorus Geforce RTX 2070 XTREME 8G con ajustes estándar (arriba) y después de la aceleración automática

Disponible para cambiar el límite máximo de energía - 109%.

Configuración del sistema de fuente de alimentación - 10 + 2.

A diferencia de otros participantes, en el diseño del sistema de enfriamiento en lugar de una placa pulida o una cámara evaporativa, la opción se usa cuando los propios tubos de calor se refieren a la GPU.

Los tubos térmicos totales son cinco.

El fabricante agrega cierta atención que el ventilador central tiene una dirección de rotación diferente en comparación con el extremo. Se indica que evita la turbulencia y aumenta la efectividad de CO.

Cuida el modelo y detenga a los fanáticos a baja carga. En la barra lateral, tradicionalmente para Gigabyte, incluso retiró la inscripción "Parada de fanáticos", que se ilumina cuando los fanáticos están inactivos.

¿Cómo se mostró tal caso?

Los valores fijos de temperatura y revoluciones bajo carga fueron de 67 ° C a 1700 rpm. Es muy bueno, pero resulta que la eficiencia con la edición ASUS ROG STRIX GEFORCE RTX 2070 OC y MSI GeForce RTX 2070 GAMING Z 8G es un poco más alta.

El sistema de retroiluminación en Gigabyte Aorus GeForce RTX 2070 Xtreme 8G es muy inusual.

En el borde de una de las cuchillas de cada ventilador colocadoDiodo rgb. Este diodo puede cambiar el color dependiendo de qué sector del círculo es cuando se gira el ventilador. Los efectos resultantes son impresionantes.

La tarjeta de video es realmente capaz de atraer mucha atención.

Además, se resaltan los logotipos colocados en el frente, los lados inversos y en el lado de la tarjeta de video.

Debido al hecho de que la luz de fondo del Aorus Geforce RTX 2070 Xtreme 8G está conectada con la rotación de los ventiladores, y no se revelan características muy agradables. Primero, los efectos con anillos solo trabajan con los fanáticos de la ejecución. En segundo lugar, notablemente un poco de parpadeo. El segundo inconveniente, sin embargo, no se expresa tan significativo. Si la tarjeta de video no está constantemente en su campo de vista, no habrá inconvenientes.

La tarjeta de video Gigabyte Aorus Geforce RTX 2070 Xtreme 8G resultó ser la mayor cantidad de salidas de video en las tarjetas de video propias del país según RTX 2070 en esta revisión

El conjunto mostró una pata para una fijación confiable de la tarjeta de video en el caso. Sí, una tarjeta de video de peso, pero la necesidad urgente de dicho apoyo adicional, en nuestra opinión, no lo es.

Por cierto, el nivel de materiales y procesamiento en esta pierna es simplemente increíble.

¿Este tipo de accesorios se convierte en tendencias para tarjetas de video de clase alta?

Resumiendo, podemos decir que el Gigabyte Aorus GeForce RTX 2070 Xtreme 8G se resalta no solo por el overclocking de fábrica significativo, sino también un diseño bastante audaz en combinación con un curioso sistema de retroiluminación.

Este es un oponente muy digno para otros participantes más poderosos en esta prueba.

Gigabyte Aorus GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC):

Sistema de enfriamiento efectivo

Apagando a los fans a baja carga

Aumentando significativamente las frecuencias de la GPU

Espectacular sistema de retroiluminación RGB

Montaje adicional de pie incluido

- grandes dimensiones

- Los efectos del sistema de retroiluminación dependen de si los fanáticos giran o no

Inno3D GeForce RTX 2070 GAMING OC X2 (N20702-08D6X-2511683)

Inno3d GeForce RTX 2070 GAMING OC X2 no es un modelo ordinario. Aquí y la fábrica overclocking la GPU, y el sistema de enfriamiento de la marca, y la luz de fondo con elementos RGB.

Pero en el contexto de otras tarjetas de video GeForce RTX 270 de esta prueba, y resultó ser modelos muy avanzados, parece más modesto.

Tarjeta de video OT.Inno3.D El único en la masa no toma tres, sino dos ranuras de expansión.

El radiador contiene cuatro tubos térmicos y es soplado por un par de ventiladores.

Dada la clase más modesta del dispositivo, en términos de eficiencia de enfriamiento Inno3D GeForce RTX 2070 GAMING OC X2, se esperaba que le diera a otros participantes en la prueba.

Monitoreo de la operación del juego inno3d GeForce RTX 2070 OC X2 en la aplicación MSI Afterburner

Bajo la temperatura de carga ascendió a 66 ° C. Esto es más que un nivel cómodo, pero los giros del ventilador están en el nivel de 2050 rpm, lo que es notablemente más alto que el de la asus, gigabyte, tarjetas de video MSI.

En consecuencia, Inno3D GeForce RTX 2070 GAMING OC X2 no es tan silencioso, pero el nivel de su ruido de ruido no debe crear.

La tarjeta de video puede detener a los fanáticos a baja carga, pero lo hace un poco peculiar. Antes de la parada final, los fanáticos se retorcen un par de docenas de 0 a hasta aproximadamente 600 rpm. Es posible que este "error" pueda resolverse en la nueva versión del firmware, aunque ahora no es un problema importante.

El histograma muestra cómo los ventiladores son "pulsat" antes de la parada completa a una velocidad de 0 a 600 rpm.

La frecuencia de refuerzo de la GPU se eleva desde el estándar de 1620 a 1755 MHz. Esta es una buena fábrica de overclocking, pero nuevamente, los competidores resultan ser demasiado potentes y tienen este parámetro aún más alto.

Como resultado, el juego de GeForce RTX 2070 INNO3D GeForce RTX 2070 se perdió ligeramente para los rivales de rendimiento.

Si analiza la curva de frecuencia de gPU / voltaje recibida durante la aceleración automática, puede ver que la frecuencia máxima de GPU es de aproximadamente 50 MHz más baja que la de otras tarjetas de video RTX 2070 en la prueba a valores de voltaje especificados.

Curvas de la frecuencia y voltaje del procesador de gráficos OC X2 de GEFORCE RTX 2070 INNO3D GeForce RTX 2070 con ajustes estándar (arriba) y después de la aceleración automática

La iluminación en el juego Inno3D GeForce RTX 2070 OC X2 está equipado con varios elementos. En el panel frontal Inno3D logo se resalta con blanco. Los inserciones amarillos también se encienden al lado de este logotipo. Pero el logotipo Inno3D en el lado puede brillar con cualquier color (RGB-Lightlight).

Control retroiluminado disponible utilizando la aplicación.

Sí, Inno3D GeForce RTX 2070 GAMING OC X2 perdido ligeramente a los rivales en velocidad y en la eficiencia del sistema de enfriamiento. Pero para muchos, todo puede ser fácilmente nivelado por quéInno3.D.GeForce.RTX 2070.Juego de azar.JEFE.X2 se distinguen notablemente costos más asequibles y, en términos de productividad y relación de precio, reproduce a todos los demás participantes en esta prueba.

Y en el juego OC X2 de Inno3D GeForce RTX 2070 es un equipo muy avanzado. El modelo viene con una alfombra de juego y llaves para pruebas VRMARK, 3DMARK.

Evaluación Inno3D GeForce RTX 2070 GAMING OC X2 (N20702-08D6X-2511683):

El mejor balance general y rendimiento entre todas las tarjetas de video basadas en RTX 2070 en la prueba

Apagando a los fans a baja carga

Fábrica Overclocking GPU.

Equipo interesante

- Iluminación relativamente modesta.

- Comportamiento de los fanáticos extraños al cambiar al modo de parada

Cómo probamos tarjetas de video

Las tarjetas de video trabajaban utilizando la configuración inicial del controlador, no se aplicaron perfiles de juegos optimizados.

Las tarjetas de video se probaron sin aceleración y sin el uso de perfiles de marca (OC, juegos, silencio, etc.), que a veces están disponibles al instalar software de marca.

Pruebe las tarjetas de video en función del RTX 20170, se compararon con el Adaptador de video GTX 1080 y GTX 1080 TI sobre la base del cual se realizó la MSI GeForce GTX 1080 GAMING X 8G y GIFORCE GEFORCE GTX 1080 TI GAMING OC 11G.

Como aplicaciones de prueba para determinar el rendimiento de las tarjetas de video, utilizamos juegos modernos con el soporte DirectX 11 y DirectX 12 que tienen puntos de referencia incorporados. El programa también incluye pruebas sintéticas Populares 3DMARK.

Cada juego utilizado máximo o cerca de la configuración máxima de gráficos. En los juegos utilizamos una resolución de 2560 × 1440 y 3840 × 2160 pix. (Permiso 4K). En 3DMARK 11, las tarjetas de video se probaron con un ajuste preestablecido extremo, y en 3DMARK (2013) se utilizaron Extreme Fire Strike, Strike Ultra y DirectX 12-Test Time Spy.

El seguimiento de la temperatura máxima de la GPU y el consumo de energía del sistema (sin monitor) se produjo en el juego de metro: última luz. Está en este juego que la tarjeta de video, de acuerdo con las observaciones, se calentó de manera más intensiva y se realizó el máximo consumo de energía.

El sistema en sí fue operado fuera de la carcasa de PC (soporte abierto) a temperatura ambiente de aproximadamente 21 ° C. El nivel de ruido creado por el trabajo de los sistemas de refrigeración de las tarjetas de video fue estimado subjetivamente.

La evaluación final en la categoría "Rendimiento" se determinó sobre la base de todas las pruebas con la contribución equivalente de cada prueba. Al mismo tiempo, si hablamos de juegos, para reducir el efecto de la dependencia del procesador, al calcular el rendimiento general (Rendimiento de la categoría ")), solo se tuvieron en cuenta los resultados con una resolución de 3840 × 2160 PIX. (cuatro K.) .

Resultados con una resolución de 2560 × 1440 píxis. Llevó a familiarizarse.

Los histogramas se normalizan como un porcentaje de modelos de clasificación según los resultados de las pruebas. También se indican resultados específicos en forma de puntos y FPS.

El costo de las tarjetas de video se indica en la base de datos de grandes tiendas en línea (en el momento de la publicación) desde el sitio web de la línea directa.

En una prueba separada, Final Fantasy XV Benchmark, los experimentos se llevaron a cabo con la tecnología DLSS (ver Histograma anterior).

Configuración de la plataforma de prueba:

Procesador: Intel Core i7-3770K, dispersado a 4.4 MHz

Placa base: Biostar Hi-Fi Z77X

Tamaño del RAM: 4 × 4 GB DDR3 1600

Accionamientos: SSD (SISTEMA), HDD

Sistema operativo: Windows 10 Pro 64 bit

Monitor: Philips 272P7VPTKEB con resolución 4K

Conductor NVIDIA usado para todas las tarjetas de video: GeForce 416.94

Resultados de la prueba

conclusiones

Como se puede ver en los resultados de las pruebas, si se compara con las soluciones de la generación pasada, el rendimiento de las nuevas tarjetas de video en función del RTX 2070 está entre NVIDIA GEFORCE GTX 1080 y GTX 1080 TI más cerca de GTX 1080.

Troika Asus Rog Strix GeForce RTX 2070 OC Edición, Gigabyte Aorus GeForce RTX 2070 XTREME 8G y MSI GeForce RTX 2070 GAMING Z 8G son tarjetas de video muy "confiables". Tienen sistemas de retroiluminación avanzados, aumentaron significativamente las frecuencias de GPU.

Definitivamente no notificará la diferencia en la velocidad entre ellos sin pruebas especiales. Según la eficiencia de los sistemas de refrigeración en este triple, los modelos de ASUS y MSI están liderando.

Asus lo hace más fuerte que otros para aumentar el límite de consumo de energía. El mismo modelo, por cierto, se destaca y el más alto costo entre todos los participantes de la prueba.

Las impresiones de la luz de fondo del Gigabyte Aorus y MSI se pueden colocar ligeramente más alto que ASUS. Inno3D aquí en forasteros.

Presentado en la prueba inno3d GeForce RTX 2070 GAMING OC X2, en el fondo de la Troika Asus, Gigabyte Aorus y MSI, aunque también hay un modelo bastante ordinario. Tiene frecuencias de GPU más bajas, no un sistema de enfriamiento avanzado y cierta forma a la iluminación y el overclocking.

Pero, pero este modelo de Inno3D y el precio más asequible. En la proporción de rendimiento y costo, excede a otros participantes de la prueba.

La diferencia en la velocidad entre Inno3D y la Troika Asus, Gigabyte Aorus, MSI es, pero no es tan significativa. Si hay un deseo de salvar, esta es una opción muy digna.

Con los propios participantes de la masa. Cualquier tarjeta de video de masa es un dispositivo de alta calidad con alto rendimiento, enfriamiento eficiente sin ningún inconveniente significativo.

Pero la nueva generación de tarjetas de video.Rtx En general, deja varias razones para el pensamiento, aunque es la transición aRtx El fabricante llama al revolucionario.

Si no "caving" está fuertemente lejos y tiene en cuenta las transiciones de la generación GTX 700 al GTX 900 (Serie 800 en las tarjetas de video de escritorio se omitieron) y de GTX 900 a GTX 1000, luego la nueva generación de tarjetas de video fue Siempre una productividad altamente mayor con el consumo de energía de mejora significativa simultánea. Al mismo tiempo, no se produjo un gran salto en el costo de los modelos equivalentes.

¿Y qué vemos ahora con la salida de la generación NVIDIA GEFORCE RTX?

Sí, hay un aumento en el rendimiento, pero no es tan notable, ya que anteriormente fue antes con la nueva generación de tarjetas de video.

Según la eficiencia energética, la novedad es mejor que los modelos GTX 1000, pero bastante ligeramente.

¿Ha notado que en la generación de RTX no hubo un crecimiento en el volumen de la memoria de video?

Pero lo principal es que las nuevas tarjetas de video eran mucho más caras que sus predecesores..

Además, para esperar una reducción significativa en el costo de las tarjetas de video NVIDIA RTX es bastante difícil. Recibieron muchos procesadores gráficos más complejos y costosos en la producción.

El problema es ese gran cantidad de complicaciones en NuevoGPU Fui a los utilizados por primera vez.RT.- Syadra (soporte de hardware para los rayos), que aún son pequeños donde puede usar. ¡Por cierto, en el momento de la liberación de tarjetas de video, los juegos RTX con soporte de hardware para el rastreo no fue en absoluto!

Y todavía existe una gran pregunta, ya sea que esos cambios en la imagen que trae el trazado de rayos es una caída muy grave en el rendimiento que se produce cuando esta función está activada.

Resulta que en este momento, en la proporción de productividad y valor de la novedad, RTX 2000 es inferior a los predecesores, predecesores de la serie GTX 1000 (generación pasada en la arquitectura Pascal).

Sí, potencialmente RTX 2000 puede aumentar su atractivo con el tiempo, con la llegada de más juegos que apoyan los rayos y el rastreo de alisado de DLSS, pero hasta ahora es demasiado pronto para hablar de ello.

Gracias por Philips para el SIGNIFICADO 4K MONITOR PHILIPS 272P7VPTKEB

La actividad de los fabricantes de conjuntos lógicos se sorprende simplemente últimamente. Los chipsets pasan por alto uno tras otro y, honestamente, apenas tenemos tiempo para traer todos los detalles sobre la arquitectura y la productividad de estos nuevos productos con dificultad. De hecho, si en el pasado cercano, toda la lucha competitiva en el mercado de los chipsetes fue principalmente solo entre VIA e Intel, y recientemente, AMD, SIS y Ali se unieron a ellos, que comenzaron a producir productos bastante competitivos. Sin embargo, parece que esto no es todo. El mercado de los chipsets del sistema ahora está tratando de sacar a los jugadores completamente nuevos. Por ejemplo, en la primavera de este año, NVIDIA se ha anunciado en el lanzamiento de su primer chipset para las placas base, que aún producen chipsets excepcionalmente gráficos.
Según la declaración de representantes de NVIDIA, que han sido extremadamente optimistas, para la compañía que desarrolla aceleradores 3D, que incluye a veces varias decenas de millones de transistores, diseñando la lógica del sistema, la tarea de extrema inactividad. Además, NVIDIA fue un conjunto básico de microcircuito para la consola de juegos de Microsoft, X-Box, que es casi una PC completa. Sin embargo, como resultó, no tan simple. A pesar del hecho de que NVIDIA prometió el inicio del suministro de placas base y sistemas sobre la base de un conjunto de lógica patentada en agosto, solo ahora estas juntas comenzaron a aparecer en la venta. Bueno, si es así, es hora de pasar las pruebas integrales de este nuevo chipset.
El primer conjunto de chips de NVIDIA, llamado NFORCE y SOCKING SOCKING AMD Processors, es un conjunto integrado de lógica con el núcleo de gráficos GeForce2 MX incorporado. Sin embargo, y como un conjunto discreto de la lógica de NForce es un interés considerable, ya que tiene varias tecnologías interesantes implementadas, principalmente el controlador de memoria que soporta el SDRAM DDR. Por lo tanto, construiremos la consideración de NForce de la siguiente manera: primero hablemos de las características de NFORCE, como un chipset ordinario, y luego investigamos por separado su núcleo gráfico, controlador de sonido y otras características similares.

Lo esencial

La familia de nuevos chipsets de NVIDIA, NFORCE incluye dos productos que difieren en la implementación del bus de memoria. Una de las características clave de NFORCE es la llamada arquitectura de Twinbank: NForce en el caso general tiene dos controles de memoria independientes que operan con DDR SDRAM. En consecuencia, dependiendo de la cantidad de controladores de memoria involucrados, NForce le permite organizar un acceso a la memoria de 64 bits o el bit de 128 bits de 64 bits.
El conjunto lógico NVIDIA NFORCE consta de dos microcircuitos llamados la terminología del fabricante de "procesadores". El Puente Norte, el procesador de gráficos integrado (IGP), combina el controlador de memoria, el núcleo de gráficos GeForce2 MX integrado que admite la interfaz de los procesadores de la familia Athlon / Duron y la interfaz AGP 4X para conectar las tarjetas de video externas. Para distinguir los puentes del norte con un bus de memoria de 64 bits y un autobús de 128 bits de dos canales, NVIDIA utiliza varios etiquetajes, IGP-128 e IGP-64, respectivamente.
El South Bridge, Media and Communication Processor (MCP) contiene una unidad de procesador de audio de controlador de audio Hardware (APU) con soporte de hardware Dolby Digital, un controlador de red incorporado, un controlador PCI, y también es compatible con la típica de las características de Bridges del Sur moderno: USB 1.1 Puertos, Interfaz ATA 100, Interfaz AC'97, etc. Similar a los puentes norteños, NVIDIA también también beneficia a dos versiones del puente sur: MCP-D con Dolby Digital 5.1 Encoder y MCP, sin ella.
Los puentes norte y sur en NForce están conectados por el bus HyperTransport Serial con una topología de punto a punto.

Para una mejor comprensión de las posibilidades de NForce con las capacidades de otros DDR Modernos, conjuntos lógicos (las posibilidades de los gráficos incrustados en consideración aún no se han tomado).

* La versión del puente sur que soporta el ATA-133 es suministrada por los fabricantes de placas base opcional.


Entonces, mirando la tabla presentada, se puede observar que las principales innovaciones implementadas en NForce son:

Controlador de memoria que implementa tecnología twinbank que permite organizar un acceso de memoria de 128 bits de dos canales. Por separado, se debe tener en cuenta otra característica única de este controlador, la presencia de pre-procesador especulativo adaptativo dinámico (DEF).
Uso del bus HyperTransport para la conexión del puente norte y sur.
Core de gráficos integrado de alto rendimiento GeForce2 MX.
Unidad de procesamiento de audio incorporado (APU), un procesador de audio de hardware compatible con DirectX 8.0 y con un codificador de Dolby Digital 5.1 incorporado.

Dependiendo de qué combinación, se usan los puentes de Northern y Southern Nforce, la versión de Chipset puede tener nombres diferentes:

Teóricamente, como ya se mencionó, NForce repite en gran medida un conjunto de lógica del sistema, que NVIDIA diseñó por Microsoft para la consola de juegos Xbox. Sin embargo, es necesario comprender que el chipset utilizado en la consola de juegos admite procesadores con la arquitectura P3 y, en consecuencia, tiene un bus de procesador diferente que es diferente del NFORCE. Intel no proporcionó licencias de NVIDIA por usar sus neumáticos del procesador en los conjuntos lógicos del sistema, por lo tanto, NVIDIA su primer chipset orientado en el socket A AMD Procesadores. Sin embargo, es posible que esta situación pueda cambiar, y la compañía también ofrecerá chipsets bajo la plataforma Pentium 4: todo depende en última instancia del deseo de Intel.

Detalles: Controlador de memoria

Una de las características principales de la NFORCE, que la convierte en comparación con otros conjuntos de lógicos es un innovador controlador de memoria DDR que permite a la organización de dos canales de transmisión de datos independientes con un ancho total de autobuses de 128 bits. Teniendo en cuenta el hecho de que el chipset de NForce admite la memoria de la memoria SDRAM DDR PC2100 / PC1600 DDR, la capacidad máxima del subsistema de memoria de este conjunto de chips puede alcanzar 4.2 GB por segundo. Es decir, entre todos los conjuntos de aplicaciones orientadas a la lógica en la PC de escritorio, NFORCE proporciona el mayor ancho de banda de memoria, ya que todos los demás chipsets tienen un bus de memoria de 64 bits.
Veamos cómo funciona todo. NForce implementa la llamada arquitectura de Twinbank. Esto significa que el controlador de memoria utilizado en este conjunto lógico es esencialmente recordatorios del controlador Croosbar del conjunto de chips de video GeForce3 y simplemente se divide en dos controladores MC0 y MC1 independientes.

Es decir, para obtener un alto ancho de banda del subsistema de memoria NVIDIA, nuevos tipos de memoria para su conjunto lógico, y simplemente agregó otro controlador DDR SDRAM a sus chipsets. Cabe señalar que los controladores MC0 y MC1 son iguales y totalmente independientes, por lo que pueden procesar solicitudes al mismo tiempo. Como resultado, el ancho total del bus de memoria alcanzó 128 bits, sin embargo, en general, el subsistema de memoria NFORCE, debido a la presencia de dos controladores de memoria, se mantuvo optimizado para trabajar con paquetes de datos de 64 bits. Este es un hecho importante, ya que el neumático del procesador utilizado en el socket A sistemas también tiene un ancho de 64 bits.
Gracias a la igualdad y la independencia completa de MC0 y MC1, NForce le permite trabajar con configuraciones de memoria asimétricas instaladas en diferentes canales. Por ejemplo, los módulos DIMM que operan con MC0 y MC1 pueden tener velocidades diferentes, diferentes configuraciones y diferentes volúmenes. Además, no puede usar uno de los canales en absoluto, dejando el segundo controlador de memoria sin usar. Es precisamente debido a esto, NVIDIA ofrece fácilmente los fabricantes de la placa base dos opciones para su puente norte: IGP-128 con dos controladores de memoria y IGP-64 con un controlador no utilizado.
La ventaja de la arquitectura de Twinbank Nforce parece obvia. Un aumento significativo en el ancho de banda parece asegurar una superioridad significativa en el desempeño de esta lógica establecida sobre los competidores. Sin embargo, no todo aquí es tan simple como parece. El ancho de banda máximo del subsistema de memoria NFORCE es de 4.2 Gb / s y es el doble de la capacidad del neumático del procesador 2.1 GB / s. Y esto significa que el procesador en sí no puede usar todo el potencial del neumático de memoria NFORCE. Como hemos visto en el ejemplo del conjunto de lógica VIA Apollo Pro266, dicho ancho de banda de neumáticos no conduce a nada bueno: rendimiento en comparación con los sistemas, donde los anchos de banda de los neumáticos de memoria y el procesador están equilibrados, casi no aumenta.
Pero los ingenieros de NVIDIA equiparon NForce con dos controladores de memoria después de todo. No debemos olvidar que NForce sigue siendo principalmente un chipset integrado, y los requisitos de alto ancho de banda de memoria en los sistemas basados \u200b\u200ben él harán que no solo la CPU, sino también un núcleo gráfico incorporado. Gracias a la arquitectura de Twinbank que implica la presencia de dos controladores de memoria independientes de 64 bits, el núcleo de gráficos y el procesador pueden funcionar con la memoria de forma independiente. Y dado el hecho de que el núcleo de gráficos, basado en la arquitectura GeForce2 MX, tiene una velocidad relativamente alta, la necesidad de un bus de memoria productiva se vuelve obvia.
Sin embargo, no es del todo correcto decir que el bus de memoria NFORCE de 128 bits solo se puede usar cuando se usa gráficos integrados no es del todo cierto. Teóricamente, directamente a la memoria, evitando el procesador, también puede incluir algunos otros dispositivos. Por ejemplo, tarjetas de video AGP o controladores incrustados en el puente sur del conjunto de chips. Para estos dispositivos, aunque no son tan exigentes al ancho de banda de memoria, la arquitectura de Twinbank también puede traer ciertos dividendos. Por lo tanto, si consideramos nForce como un conjunto lógico no integrado regular, la presencia de dos controladores de memoria puede permitirle obtener ganancia de rendimiento en algunas aplicaciones que están funcionando intensivamente con gráficos AGP o usando operaciones de E / S de transmisión con un gran volumen. . En otros casos, la arquitectura de Twinbank, considerada por separado del núcleo de gráficos incorporado, puede ser útil.
Además, si la presencia de dos canales de memoria independientes te permite aumentar la velocidad de escribir datos en la memoria, gracias al uso de técnicas de canales, las operaciones de lectura de la memoria no siempre estarán aceleradas. Por el contrario, debido a la necesidad de una "búsqueda" de manejo, los datos en ambos bancos, la latencia del subsistema de memoria, en comparación con los sistemas de un solo canal, aumenta. ¿Qué valor es la latencia del subsistema de memoria, se ha dicho más de una vez? A menudo, la latencia más baja tiene aún mayor importancia al rendimiento en aplicaciones reales que el ancho de banda de alta memoria. Esto significa que el NFORCE 220, que utiliza el Puente del Norte IGP-64 con un canal de memoria, teóricamente, incluso puede exceder la velocidad de NFORCE 420 con IGP-128 y dos canales.
Está claro que tales principios se aplican no solo a los conjuntos de lógica de NVIDIA. Y si no hay tecnologías adicionales que se discuten a continuación, el NForce de dos canales podría retrasarse no solo de su compañero de un solo canal, sino también de chipsets de DDR de otros fabricantes. Naturalmente, NVIDIA, acostumbrada a ser un líder en todo, tal división no se adaptó a todos. Por lo tanto, en frente de los ingenieros de la compañía se tarean en encontrar una manera de reducir la latencia del subsistema de memoria durante las operaciones de lectura.
Y esta decisión fue encontrada. El NVIDIA NFORCE agregó una unidad adicional llamada DASP: preprocesador especulativo adaptativo dinámico. La tarea DASP es monitorear las referencias del procesador a la memoria y la predicción, cuyos datos pueden ser requeridos por la CPU posteriormente. Utilizando las capacidades de un bus de memoria de 128 bits con dos controladores independientes, DASP paralela a la operación del procesador extrae estos datos de la memoria y los coloca en un búfer especial ubicado en el puente de Chipset Norte. Como resultado, en el caso de la predicción adecuada, el procesador al acceder a estos datos no tiene acceso a la memoria con una latencia relativamente grande: los datos necesarios ya están en el conjunto de chips. Por lo tanto, DASP reduce significativamente la latencia del subsistema de memoria.

Como puede ver, DASP es un determinado análogo de tecnología de datos que se implementa en los procesadores modernos. Sin embargo, DASP en comparación con los datos Prefetch tiene una ventaja importante: su trabajo no está asociado con una carga adicional del neumático del procesador. Y dado que el bus de memoria que hace Descargas DASP, NFORCE no es un cuello de botella, la operación de esta unidad no causa ninguna colisión asociada con la sobrecarga de ningún canal de datos en el conjunto de chips.
Es importante entender que el DESP en NFORCE procesa un procesador de circulación extremadamente, y los datos que pueden requerirse, por ejemplo, el kernel gráfico o una tarjeta de video AGP externa en el búfer no caen. Estos dispositivos, ya que son mucho menos críticos para la alta latencia de memoria que la CPU, debe trabajar directamente con la memoria.
Es DASP, y no la arquitectura de Twinbank es la principal tecnología que afecta el desempeño de NForce. Cuando se utiliza una tarjeta gráfica externa con NForce, el alto ancho de banda del bus de memoria resulta ser prácticamente inútil, porque el procesador puede usarlo en plena fuerza debido a las limitaciones impuestas por la capacidad del neumático del procesador. Las tarjetas de video AGP modernas utilizan la memoria de video local para almacenar texturas, por lo que interactúan con la memoria del sistema. DASP le permite reducir la latencia del subsistema de memoria, independientemente de cualquier cosa. Y lo único que tiene que lamentar es sobre un pequeño tamaño de búfer utilizado por DASP. En la versión moderna de NFORCE, su volumen es de solo 64 kb, pero esto resulta ser suficiente para que NForce muestre un excelente rendimiento.

Detalles: HyperTransport

En este momento, casi todos los fabricantes de conjuntos de lógicos han abandonado el uso del bus PCI para la organización de la comunicación entre el puente del norte y sur. La excepción es excepto por Ali, pero también en sus planes más cercanos, una negativa a usar para este propósito PCI. ¿Qué buscan los fabricantes de chipsets soluciones alternativas? La respuesta, como siempre, es simple. El ancho de banda de bus PCI, 133 MB por segundo, se detiene lo suficiente como para garantizar que todos los controladores se centren en el puente del sur se pongan en contacto libremente con el puente norte. Veamos, por ejemplo, lo que dije mi Puente Sur (o, en la terminología de la compañía, MCP) NVIDIA.

Además de los puentes PCI tradicionales para los puentes del sur, un controlador ATA-100 de dos canales, un par de hub USB, un módem de software integrado, un códec de 6 canales AC'97 CODEC y dispositivos LPC, MCP contiene un par de cosas relativamente únicas . Primero, es un controlador de red para 10/100 MBIT Ethernet y HomePNA 2.0, y en segundo lugar, AUDI (unidad de procesador de audio). Es la presencia de estos dos bloques en el puente sureño forzado NVIDIA a buscar los puentes de su solución de NFORCE que garantiza más alto que la de PCI, ancho de banda.
Teniendo en cuenta que APU es un controlador de sonido de hardware DirectX 8.0 compatible con Tasticular que admite el audio 3D de posicionamiento y que tiene un codificador Dolby Digital 5.1, podemos asumir que este dispositivo puede "quitar" desde el ancho de banda de bus a 150 MB por segundo. A la luz de esta NVIDIA inmediatamente prestó atención a los neumáticos de alta velocidad. Bueno, ya que NVIDIA participó activamente en el desarrollo de la tecnología HyperTransport, no fue sorprendente que este neumático fuera elegido para comunicar puentes en NForce.
En general, HyperTransport es un bus consecutivo de dos puertos con un ancho de 2 a 32 bits, diseñado para organizar una conexión punto a punto. En NForce para la conexión de puentes, el hipertransporte se usa con 8 bits de ancho y una frecuencia de 200 MHz. Teniendo en cuenta que el protocolo HyperTransport asume la transferencia de datos en ambos frentes de la señal, obtenemos que el ancho de banda del neumático durante la transmisión de datos en una dirección es de 400 MB por segundo. NVIDIA opera con un número más grande, 800 MB / s, sin embargo, solo significa que el ancho de banda de la conexión entre los puentes en el NFORCE 400 MB / s en ambas direcciones.

Detalles: Tarifa de referencia

Además, al crear chips de video, junto con un conjunto de la lógica de NForce, NVIDIA ha desarrollado un diseño de referencia de la placa base según ello. Tenga en cuenta que este diseño de referencia será utilizado por una serie de fabricantes de tablas para producir sus productos utilizando NFORCE y, por lo tanto, la tarifa de referencia de NVIDIA merece una consideración detallada.

El diseño de referencia de la placa base sobre la base del chipset de NFORCE se realiza en el factor de forma de microatx. Y inmediatamente habla muchos. NVIDIA ve la aplicación básica de su NFORCE principalmente como una solución conveniente para las computadoras, por lo tanto, eligió un formato de microatx. Sin embargo, una empresa parcial de derecho. Recopilar computadoras en las tablas con el chipset de NFORCE es realmente conveniente: una placa base elimina inmediatamente la necesidad y en una tarjeta de video con un buen rendimiento, y en una tarjeta de sonido de alta calidad, e incluso en un controlador de red y módem. Por lo tanto, a pesar del costo relativamente alto, los coleccionistas de PC tendrán que amar a NForce como una buena plataforma para las computadoras domésticas.
Sin embargo, el uso del factor de forma micro ATX implica inevitablemente las oportunidades de reducción de la expansión. De hecho, en la placa de referencia, además de las ranuras de memoria y la ranura AGP 4X, solo se colocan dos ranuras PCI y una ACR Slot. Sin embargo, para la placa base, que integró todos los dispositivos concebibles, una serie de ranuras de expansión pueden ser bastante suficientes.
Tablero de referencia utiliza el Puente Norte IGP-128.

A medida que sigue el nombre, esta versión del Puente Northern admite un bus de memoria de 128 bits y una arquitectura de twinbank. Tres DDR DIMM disponibles en la placa de la ranura de contacto de 184 se dividen entre los controladores de la siguiente manera: El primer controlador de memoria MC0 incluye la primera ranura DIMM, y el segundo controlador de memoria MC1, la segunda y tercera ranuras. Fácil sugerencia en él es, por cierto, una ubicación algo separada en el primer tablero de ranura DIMM. Por lo tanto, al instalar módulos de memoria en las ranuras de primera y segunda o tercera DIMM, la placa utilizará el acceso de memoria de 128 bits. Si solo se usa un módulo DIMM DDR, o dos módulos instalados en la segunda y tercera ranuras: el bus de memoria tiene un ancho de 64 bits, como los conjuntos de lógicos clásicos, y el segundo controlador de memoria del puente norte está deshabilitado.
Tenga en cuenta que no hay radiador en el puente norte en la junta de referencia, y, en principio, a pesar de que esta tarifa trabaja estable. Sin embargo, el chip al mismo tiempo llega tarde a tal temperatura que su destino adicional es involuntariamente, comienza a causar ansiedad. Por lo tanto, en las tarifas en serie, el puente norte se suministrará con un enfriador de chipset.
Como un puente sur de la tarifa de referencia de NVIDIA, eligió un chip MCP-D, que tiene un codificador de Dolby Digital 5.1 incorporado, como lo demuestra la letra "D" en el título del puente.

A pesar del hecho de que el puente sur tiene soporta sonido de seis canales, salida digital para el amplificador con Decodificador Dolby Digital, 10/100 Mbps Ethernet y Módem de software, no hay conectores en la placa de referencia para implementar todos estos dispositivos. Todos los conectores necesarios se encuentran en una tarjeta de régimen adicional incluida e instalada en la ranura ACR.

Aquí puede ver un lugar para montar las salidas de audio digital, dos salidas de audio analógicas para conectar los altavoces traseros, la columna central y el subwoofer, el conector para conectar la línea telefónica y el conector RJ45 de la red.
La Junta utiliza Phoenix BIOS, que solo tiene la configuración mínima más necesaria: puede olvidarse de la aceleración.

Como probamos

Dado que este material se dedica a la revisión de NVIDIA NFORCE como una solución discreta, todas las pruebas se realizaron con una tarjeta de video externa y un núcleo gráfico integrado desconectado. Probamos una junta de referencia basada en NFORCE en dos modos: con acceso de memoria de 128 bits, cuando ambos controladores de memoria están involucrados, y con un acceso de memoria de 64 bits cuando uno de los controladores de memoria está deshabilitado. Por lo tanto, tendremos la oportunidad de juzgar el desempeño de la NFORCE 420 y la NFORCE 220, ya que estas dos opciones para un conjunto de lógica de NVIDIA difieren solo en el ancho del bus de memoria.
El rendimiento de NVIDIA NFORCE se comparó con la velocidad de otro zócalo DDR moderno, un conjunto lógico: a través de KT266A, SIS 735 y Ali Magik 1 Revisión C.
Los sistemas de prueba se configuraron de la siguiente manera:

En los sistemas de prueba, se instaló el sistema operativo Microsoft Windows XP.
Los resultados de las pruebas incorporadas en el NFORCE del núcleo de gráficos, los controladores de sonido e IDE se mostrarán en la segunda parte de esta revisión.

Actuación

Teoría - Teoría, es hora de ir a la práctica. En primer lugar, como siempre, las pruebas sintéticas del rendimiento del subsistema de memoria.

Primero, notamos que incluso una prueba sintética, como SISOFT SANDRA, no muestra una superioridad significativa del ancho de banda de la memoria NFORCE 420 de dos canales sobre otros chips que funcionan con un bus de memoria de 64 bits. Como vemos, el procesador solo no puede usar todo el ancho de banda del autobús de la memoria del NFORCE 420. Por lo tanto, toda la arquitectura encantadora Twinbank solo se puede divulgar cuando se usa el núcleo de gráficos NFORCE incorporado, que, junto con el procesador, es uno de los más activamente usando la memoria de componentes.. Cuando el núcleo gráfico incorporado no se usa, como, por ejemplo, en nuestro caso, incluso una prueba sintética muestra solo una superioridad del 5 por ciento del ancho de banda práctico del conjunto de chips con un neumático de 128 bits sobre un chipset similar con un autobús 64 bits de ancho.
Además, es importante tener en cuenta que tanto NForce, como 420, y 220, volvieron notablemente otros participantes de las pruebas. Y el punto aquí ya no está en el ancho del neumático de la memoria. La brecha del 10% entre el NFORCE 220 y los indicadores a través de KT266A se pueden cancelar solo en DASP, ya que esta modificación del chipset NVIDIA no tiene un bus de memoria de 128 bits. A medida que se muestran los resultados, la eficiencia de DASP es extremadamente alta: el uso de esta tecnología permitió a NVIDIA crear un socket un chipset del subsistema de memoria más alto.
Sin embargo, el liderazgo en el ancho de banda del subsistema de memoria, medido por la prueba SISOFT SANDRA 2001, no es la clave de la victoria. Como hemos señalado repetidamente, junto con la capacidad del rendimiento del sistema, existe un impacto significativo y la latencia de la memoria. Veamos cómo está NForce con ella.

Y aquí Nforce simplemente no es igual. Directamente dirigido a la reducción de la latencia de DASP cae precisamente al objetivo.
También notamos que, ya que no parece extraño a primera vista, un conjunto de lógica de NFORCE 220 con un controlador de memoria y un neumático de 64 bits tiene una latencia más pequeña que la NFORCE 420 con dos controladores de memoria y un autobús de 128 bits. Sin embargo, no hay nada sorprendente en esto. Dado que NVIDIA se propuso la tarea de crear dicho subsistema de memoria, lo que podría proporcionar datos a varios "consumidores" simultáneamente (por ejemplo, CPU y GPU), la Compañía no se aplicó en su técnica de alternancia de canal clásico de conjunto lógico (intercalado ). Los controladores de memoria en el NFORCE 420 son totalmente independientes y, a diferencia del mismo I850, permiten la instalación de módulos DIMM de diferentes configuraciones a diferentes bancos de memoria. Por lo tanto, antes de aprender datos de la memoria en el caso de usar dos canales, debe abordarse un árbitro especial, cuál de los controladores debe manejar la solicitud solicitada. Los táctiles adicionales están pasando. Por lo tanto, en algunos casos, NFORCE 220 con un neumático más estrecho de la memoria puede ser más rápido que NFORCE 420 con un autobús más amplio.
En las pruebas sintéticas, NForce se ve bien. Veamos cómo se comporta en aplicaciones reales.

Prueba de Sysmark 2001, que muestra el rendimiento promedio ponderado de los sistemas en tareas de oficina típicas y aplicaciones de creación de contenido, confirma los resultados de las pruebas sintéticas. NForce, aunque no tanto, supera otros chipsets en velocidad. Sin embargo, debe entenderse que para aquellas aplicaciones que se utilizan en Sysmark 2001, no solo la velocidad de la memoria es importante, sino que también es un efecto considerable en el resultado, por ejemplo, y el rendimiento del subsistema de disco. Además, las ventajas de un sistema de memoria más rápido son visibles solo durante las operaciones con grandes volúmenes de datos que no caben en el caché de la CPU.

Por ejemplo, en la creación de contenido de Internet parte de la prueba, donde las aplicaciones utilizan grandes volúmenes de datos almacenados secuencialmente, NFORCE no es tan rápido, ya que se minimiza el efecto de la latencia en las tareas de esta clase y para implementar un alto NFORCE 420 El ancho de banda de memoria no proporciona un límite al ancho de banda la capacidad del neumático del procesador.

En la parte de la oficina de la misma prueba, lo opuesto, tanto NFORCE están por delante de ambos rivales más sustancialmente: ya existe una baja latencia del subsistema de memoria de este conjunto de chips. En particular, la superioridad del NFORCE 420 sobre el líder pasado de nuestras pruebas, a través de KT266A es del 4%.

Para elaborar una imagen completa de la proporción de fuerzas en las tareas de la oficina, también medimos la velocidad de archivar una gran cantidad de información (directorio con la reproducción del torneo irreal) por el popular Archiver WinZip en el nivel habitual de compresión. El significado de esta prueba es que, además de permanecer, se refiere a la memoria, el Archiver también funciona constantemente con un subsistema de disco. Por lo tanto, los resultados mostrados por los sistemas aquí le permiten evaluar, incluida la calidad de los controladores maestros de bus IDE. La tabla anterior muestra el tiempo de ejecución del archivo, por lo que el resultado más pequeño corresponde a un mejor rendimiento.

Además, medimos el rendimiento al codificar un flujo de video DVD a DivX MPEG-4. Esta prueba es maravillosa, ya que la modificación del NFORCE 220 con un bus de memoria de 64 bits, resultó ser el más rápido de su análogo de 128 bits de NForce 420. Aunque esta diferencia es muy pequeña, el hecho sigue siendo un hecho: Esto es posible no solo en teoría, sino también en la práctica.
La siguiente etapa de nuestras pruebas es medir la velocidad de los sistemas en los juegos.

Tenga en cuenta que los resultados del NFORCE 420 y NFORCE 220 en esta prueba son casi iguales. Es decir, incluso el Quake3, el rendimiento en el que depende en gran medida de la velocidad del subsistema de memoria, no puede usar las ventajas proporcionadas por la arquitectura de Twinbank, siempre que la tarjeta de video externa se use en el sistema. DAP y presente en ambos nforce les da una buena aceleración: tanto NForce está por delante del competidor más cercano, a través de KT266A en un 4,5%.

Con un aumento en el permiso y lo lleva a usar generalmente por los jugadores promedio, la diferencia en el rendimiento se nivela. Dos controladores de memoria no ayudan a la NFORCE 420 y en este caso.

La imagen en un torneo irreal repite los resultados que ya hemos visto en el Quake3. Es cierto, ahora la ventaja de la NFORCE220 sobre NFORCE 420 ha aumentado ligeramente y no se puede cancelar el error de medición trivial.

Nos encanta utilizar el juego DRONEZ al probar primero los chipsets porque reacciona muy sensiblemente a la velocidad de la memoria. Por lo tanto, no es sorprendente que DASP dé tanto la capacidad de la capacidad de alcanzar a través de KT266A hasta un 7%, lo que es una victoria bastante grande para los conjuntos de lógica del sistema. Además, observamos que una vez más, el NForce 220 logró omitir su hermano mayor, NForce 420 alrededor de 2 fps.

PROFESIONAL OpenGL Benchmark SpempVerf 6.2.1 es una prueba, el rendimiento en el que depende en gran medida del ancho de banda de memoria. Por lo tanto, nadie debería sorprender que en todas las tareas incluidas en esta prueba, el NForce 420 supera a NForce 220. Sin embargo, se debe tener en cuenta que los resultados de la NFORCE 420 no son tan pendientes, a pesar del doble de ancho que otros conjuntos lógicos, la memoria autobús. Los awadvs-04 y la DRV-07 NForce 420 se quetran detrás de la KT266A. En cuanto a la versión más joven, NFORCE 220, entonces su desempeño en los tres primeros subtítulos es generalmente casi lo peor. Parece que la razón de este resultado radica en el hecho de que el tampón de 64 kilóbitos utilizado por DASP aumenta a ser completamente inútiles al transferir una gran cantidad de información almacenada en la memoria secuencialmente.

conclusiones

Abuelas similares. A medida que nuestra investigación ha demostrado, nforce, siempre y cuando se considere por separado de su núcleo gráfico como un conjunto discreto de lógica, extremadamente avanzado y más productivo, un chipset entre los presentes en el mercado. Aunque resultó ser un líder debido a las tecnologías progresivas aplicadas por NVIDIA, se debe tener en cuenta lo siguiente. El elemento principal de NFORCE, debido a que este chipset mostró una alta velocidad, es DASP. El único "pero", que se puede decir a este bloque es un tamaño de búfer insuficiente, lo que no es suficiente para aplicaciones de OpenGL profesional. La arquitectura de Twinbank, como mostró las pruebas, fue completamente inútil en los casos en que no se usa el núcleo gráfico incorporado.
Por lo tanto, para su uso en sistemas con aceleradores de gráficos externos, la versión NFORCE 220 es adecuada para NFORCE 420. El rendimiento del NFORCE 220 en la mayoría de las pruebas es casi lo mismo que el NFORCE 420, y en una serie de tareas, NForce 220 incluso supera su compañero mayor Al mismo tiempo, el costo de las juntas basadas en NFORCE 220 debe ser menor debido a la falta de un segundo controlador de memoria y el cableado concomitante. El NForce 420 debe percibirse en este caso, ya que, en primer lugar, una solución integrada.
En cuanto a las perspectivas de mercado de NForce en general, hay muchas ambigüedades. Si está listo para obtener un 3-7% adicional del rendimiento, coloque una cantidad y media una gran cantidad por placa base, y luego no use la tarjeta de video incorporada "pagada", entonces NForce es un conjunto de lógica para usted. Si está buscando una solución adecuada desde el punto de vista de la relación precio-rendimiento, entonces NForce no es un camarada.
Y en conclusión, recuerdo que todos los anteriores se refieren a NForce, como un conjunto discreto de lógica. Capacidades integradas de este chipset, como video, sonido, etc. Consideraremos más adelante en la siguiente parte de este material.

¿Te gustó el artículo? Compártelo