Contactos

Tres cartas alegres: lo que necesitas saber sobre HDR. Todo lo que necesita saber sobre HDR en monitores de computadora. Qué juegos son compatibles con HDR en PC

Después de CES y Computex 2017, se hizo clara: a fines de este año, los primeros monitores de PC que respaldan la norma aparecerán en el mercado. Todos los principales fabricantes, como Asus, LG, Acer, Samsung y Dell lo anunciaron. Entonces, estudiemos una pequeña teoría de los monitores con HDR.

HDR en formato PC

HDR o rango de alta dinámica es un estándar para expandir la reproducción de color y el contraste de video más allá de las funciones de hardware estándar. Simplemente se explica, el permiso 4K es importante para la calidad de la imagen, el contraste, el brillo y la saturación de color y HDR mejora estos tres parámetros, lo que alcanza una mejora en los detalles de la imagen.

HDR requiere que el monitor tenga un color de 10 o 12 bits. Sin embargo, los monitores estándar de PC son actualmente capaces de transmitir solo un color de 6 u 8 bits utilizando la gama de color SRGB que cubre solo un tercio del espectro visual HDR.
Por supuesto, hay monitores que cumplen con los requisitos de color. Estos son modelos con el apoyo de la llamada amplia gama de color. Sin embargo, sus capacidades son compatibles solo con programas profesionales. Los juegos y otros programas simplemente ignoran los colores adicionales y, a menudo, se ven "borrosos".

El estándar HDR le permite evitar esta confusión, incluidos los metadatos en la transmisión de video que distribuyen correctamente el espacio de color. Ayuda a visualizar correctamente la imagen y hace que todo el software use las mejores funciones de visualización.


Estándares

Actualmente, hay cuatro estándares, pero dos se utilizan con más frecuencia en la electrónica de consumo: patentados con color de 12 bits y metadatos dinámicos y estándar abierto que admite un color de 10 bits y proporciona metadatos estáticos para iniciar la transmisión de video. Otros dos estándares son Hlg. o, desarrollado por BBC y utilizado en YouTube y HDR avanzado., Creado por Technicolor y usado en Europa.
Pero de vuelta a la cuestión de usar HDR en monitores de PC. Debido a todas las tarifas con licencia y equipos adicionales, Dolby Vision es más costoso de ambos estándares. Al proporcionar una mejor profundidad de color y la configuración de paso a paso dinámico, los desarrolladores de juegos se enfocan en un HDR más barato, pero bastante aceptable. Esto es justo no solo para los fabricantes basados \u200b\u200ben PC, sino también para las consolas: Microsoft C, Sony con PS4 ,.

Actualización reciente Dolby Vision simplificó la integración del software en tarjetas de video de juego Utilizando las actualizaciones del controlador. Desde marzo, NVIDIA es uno de los principales partidarios de Dolby Vision en juegos, como el efecto de masa: Andrómeda.


Foto de NVIDIA Rack en Computex 2017, que muestra un monitor estándar de SDR (izquierda) y HDR (derecha) con efecto de masa: Andrómeda. Foto: Techpowerup.

Problema con HDR para los jugadores de PC

Si tiene suficiente dinero, entonces no hay problemas con la compra de un monitor HDR. Pero hay una pregunta sobre qué contenido puede usar en HDR. Y aquí hay malas noticias para los jugadores. Sí, algunos juegos nuevos van al mercado con el apoyo de HDR, pero anteriormente no tienen oportunidades para un mayor contraste.

Sólo unos pocos juegos soportan HDR: Sombra Guerrero 2, Deus EX: Humandería, Hitman, Resident Evil 7, Orobuction, Paragon Y lo anterior Efecto de masa: Andrómeda. Pronto aparecerá Necesidad de velocidad: Walkback y Star Wars: Battlefront 2.

Para ver todas las delicias de las imágenes estándar HDR10, que pueden producir Xbox ONE S, PlayStation 4 y PlayStation 4 Pro, necesitará un televisor con soporte para este formato. Pero entonces todo se vuelve más fácil: puede tomar una foto de la pantalla y sentir la diferencia.

En la presentación especial de Sony, como parte del programa de juegos de Tokio, se demuestran 4 y horizontes inexplorados: cero amanecer ambos con lo incluido y apagado HDR. Sólo quedó para hacer una foto, que fue hecha por los corresponsales del reloj de juego de publicación japonesa.

En el caso del horizonte: cero amanecer, la diferencia es obvia: la primera foto muestra el HDR incluido, el segundo está apagado. Uncharted 4 Todo es más complicado: en ambas fotos, puede ver la línea oblicua que pasa a través de la imagen. Una parte de la imagen a la izquierda de la línea muestra que la HDR se apagó, a la derecha: la incluida.

La misma presentación mostró versiones de Final Fantasy XV, infame First Light y Resident Evil 7: Biohazard para PlayStatio 4 Pro. Acerca de Biohazard y primera luz Es difícil decirle algo definido, pero FFXV se detuvo claramente más decente que en la PlayStation habitual 4. Parece que los fanáticos tendrán que quitarnos no solo en el juego, sino también en la nueva consola.

El rango dinámico es más importante que 4K.

A los marcadores

En la pantalla SDR para ver HDR es imposible, por lo general, en tales comparaciones, la imagen de la izquierda empeora intencionalmente para ser clara la esencia

4K, como estándar, finalmente fue a las masas. Puede nombrar de forma segura 2017 por el punto de inflexión en la historia cuando este permiso se haya convertido en verdaderamente consumidor. El precio de los paneles cayó por debajo de 500 dólares, incluso para diagonales grandes, y el contenido en sí, dejó y con tensión, pero comenzó a cumplir con los requisitos necesarios.

Hubo consolas para un soporte invaluable. La aparición de PS4 PRO y XBOX ONE X aceleró significativamente la introducción de pantallas 4K. Gradualmente (pero no sin un montón de reservas) en 4k se traduce y extensos cineastas de Hollywood. Ya casi todos los programas originales de Netflix se pueden ver en el Decent Ultra HD.

La diferencia entre 4k y Full HD.

¿Pero es necesario 4k-permiso exactamente en el televisor? En el monitor, que se encuentra con mayor frecuencia en un par de decenas de centímetros de los ojos, la imagen en Full HD comienza a "cruda" en los píxeles ya en 27 pulgadas. Por esta razón, Retina / 5K e incluso 1440P se están volviendo cada vez más populares.

Entre los televidentes, la adaptación es más lenta, ya que desde tres metros, al menos alguna diferencia se hace visible solo desde 43 pulgadas, e idealmente, se tomará una diagonal de más de 49 pulgadas para justificar la compra de un televisor 4k. Obviamente, tal lujo está mal disponible para la mayoría de los apartamentos rusos, incluso si hay dinero, a veces una televisión enorme simplemente no puede hacer.

Vista ultra hdr

Aproximadamente los mismos pensamientos fueron el autor del artículo antes de comprar un nuevo televisor. Toma un buen fhd, y Dios con él, con este 4k? El pensamiento es razonable solo a primera vista, ya que la HDR también se adjunta a la resolución en paneles decentes. Y esto, con esto, con el formulario, no se siente realmente una tecnología muy promovida por el presente salto, ya que una imagen, la severo y el contenido bajo estos estándares no son tanto como me gustaría.

El propósito del material es simple y accesible para decir qué es el HDR y cómo usarlo. Acerca de cómo el proceso de compra e instalación de un televisor con 4k y HDR en el material DTF, vamos a descubrir en términos de más detalles.

¿Qué es HDR y por qué necesita?

Diferencia visual

Comencemos con el hecho de que el término HDR en sí mismo es como una broma de un comercializador torpe. Él crea una confusión innecesaria desde el umbral. Ese HDR, que está en televisores, no se aplica a la tecnología con nombre similar en teléfonos inteligentes o cámaras. Si hablamos de la foto, entonces HDR es una combinación de varias imágenes con diferentes exposiciones, donde el objetivo es lograr el más incluso en las sombras y la luz de la opción.

Con el video, todo no es así, aquí estamos hablando del número total de información. Antes de la apariencia HDR, el estándar de la imagen, incluido Blu-ray, fueron 8 bits. Esta es una buena cobertura de colores, pero los paneles modernos, especialmente OLED, pueden mostrar muchos más tonos, gradientes y colores que las fuentes de 8 bits permiten.

Se llama a un nuevo estándar de 10 bits para resolver este problema, lo que le permite transmitir significativamente más información sobre el brillo, la saturación, la profundidad y el color de la escena. Para él, se desarrolló un nuevo protocolo HDMI 2.0.

¡Pero no se apresure junto con el televisor cambie todos los cables! Los cables antiguos son compatibles con HDMI 2.0A, independientemente de los profesionales de los vendedores en las orejas. Lo principal es que tienen una marca "alta velocidad con Ethernet". Solo se preocupa el ancho de banda: los propios conectores no cambiaron.

En el momento de escribir este artículo, el HDR en el televisor se afila precisamente 10 bits, aunque el estándar de filmación digital es de 14 bits crudo (incluso arriba, en la película), de modo que incluso los paneles modernos aún están lejos de la totalidad. Visualización de la información con la que los directores e instalaciones de muchas pinturas de trabajo.

Bien, pero ¿qué da en la práctica?

Ejemplo HDR vs SDR basado en 4 Uncharted 4

El sol comienza a brillar en las escenas notablemente más brillantes, una comprensión del hecho de que en un marco puede haber varios brillo y saturación diferentes de fuentes de luz. El problema desaparece con la pixelización del semitono en las escenas oscuras, y los gradientes y las mezclas complejas de las pinturas adquieren volumen. El cielo ya no está aburrido y no se fusiona de la tierra en la línea del horizonte. En resumen, ve una imagen más por su propio ojo que un ocular limitado de la cámara.

En este momento, los videojuegos son beneficiosos que la tecnología, donde una variedad de iluminación en tiempo real finalmente se muestra más o menos correctamente. Mucho depende de la calidad del procesamiento de la fuente para HDR y hay un montón de Frank Hackturur, pero ahora las referencias aparecen para el formato del tipo de "guardias de la galaxia 2" o "John Whitch 2".

Fabricantes de TV - Tus enemigos

Hasta el momento, HDR, como cualquier tecnología avanzada, es el "Wild West". La etiqueta "lista para HDR" está colgada en todos los televisores nuevos, independientemente de si pueden mostrar adecuadamente 10 bits o no. Hay una gran diferencia entre el Real HDR TV y el panel, que simplemente muestra el contenido de HDR, bajándolo a 8 bits y simplemente soplando los colores y el contraste.

A veces es difícil lanzar fabricantes. Se debe ver, si el panel se declara como un 10 bit y si es responsable al estándar abierto HDR10. El signo correcto del panel HDR real es el soporte para una amplia gama de colores (amplia gama de colores). Sin su HDR pierde ningún significado práctico.

Una parte notable de los televisores LCD utiliza paneles activos de 8 bits, que "Imagina" colores con algoritmos especiales. La imagen HDR en tales paneles es un poco peor que, pero son notablemente más baratos.

Regreso de las guerras "bit"

En cualquier turno de la evolución de la imagen, pueden surgir las normas de la guerra. Pero si en el caso de Blu-ray y HD-DVD batalla, todo terminó deplorable por el segundo, incluso para aquellos que compraron a los consumidores "Hierro", la batalla de HDR10 contra Dolby Vision HDR probablemente terminará el sorteo sin sangre.

El estándar HDR10 transmite colores más pequeños y admite solo 10 bits, pero completamente abierto. El estándar Dolby conserva tonos y se expande hasta 12 bits, pero es más difícil de seguir e implementarlo. En cualquier caso, la cuestión de apoyar esta o la tecnología se resuelve mediante una copia de software simple, y los mismos juegos ya están trabajando con HDR10, ya que fue que fueron elegidos para sus consolas tanto en Sony como en Microsoft.

Los propios televisores a menudo le permiten usar varios estándares a la vez, por lo que ya no vale la pena una cabeza de él ahora.

¿Qué ver?

Si estamos hablando de la pantalla, es mejor, por supuesto, tomar OLED y sus análogos. Obtendrá un soporte profundo y completo para todos los encantos de HDR. Si la billetera no permite el orden de aproximadamente 80 mil en el televisor principal, no debe desesperarse. El modelo LCD de 2017, finalmente, frente a las llagas infantiles y usted notó de inmediato la diferencia entre HDR y SDR, que pierda y pierda en las gradaciones de Black y Brightness. El autor de este artículo es solo un panel LCD con soporte de HDR y, puedo asegurarle, la diferencia con el contenido en los colores estándar se ve desde los primeros segundos.

Si estamos hablando de la fuente, todas las consolas de juegos modernos salen HDR de todos modos (excepto el interruptor y Tolstoy Xbox ONE). PS4 le da solo un HDR (NO 4K), y Xbox One S / X le permite reproducir las unidades UHD, y para combatir el HDR nativo 4k directamente al televisor. Desde los servicios en línea, el estándar ya está compatible con Netflix y Amazon, y Netflix contiene en sí mismo una biblioteca para HDR10 y contenido en Dolby Vision.

¿Y qué ver?

Todo el contenido original de Netflix desde 2016, más todas las películas 4K que producen estudios de cine en los discos y en el "Dígito". Muy pronto, aparecerá la colección de películas de la película de Christopher Nolan, cuyo proceso de digitalización controló al propio director. Como lo fue con el "Caballero Oscuro" en Blu-Ray, sin duda, desde hace muchos años estableció los estándares para los Masters de UHD y para HDR.

¿En qué jugar?

Un número notable de juegos admite HDR incluso en consolas "básicas". Especialmente brillante (Perdón por las características de la tecnología del juego de palabras) muestran que los juegos como Horizon Zero Dawn, sin embargo, 4 y Gran Turismo Sport.

Este último se creó bajo HDR desde cero, y por lo tanto enfatiza todas las ventajas de un rango extendido de brillo y colores. Especialmente para GT Sport en las cámaras HDR desarrolladas digitales de Polifonía para capturar una imagen real y una posterior calibración bajo el juego. Y el número de colores que se muestran sigue excediendo las posibilidades de los paneles más caros. Lo que se llama, Benchmark "para el crecimiento".

Sin embargo, no todos los juegos están adaptados a HDR, así que, por lo tanto, lee comentarios en Internet y vea las críticas de Foundry Digital. Sin embargo, para preocuparse, no es necesario preocuparse, ya que los desarrolladores son mejores y mejor comprender las posibilidades del rango ampliado, pero, por lo tanto, la calidad del contenido de la consola solo crecerá.

En la PC en este momento, todo no es tan suave. Los juegos con HDR un poco, y la conclusión de la imagen en sí está asociada con los problemas de la reproducción del color a nivel del sistema (curvas, peculiares de ventanas, etc.). La experiencia del autor con un Ligamento HDR / Windows 10 fue contradictorio. Además de HDR, los jugadores populares trabajan mal, por lo que tienes que esperar. A medida que la velocidad de adaptación 3D muestra la PC, la implementación imputada de HDR en las computadoras vale la pena esperar aproximadamente seis meses. Sí, y la biblioteca se pondrá al día.

Entonces, todo está bien, pero ¿qué menos?

Típicamente, las tablas de calibración en los juegos se ven más fáciles.

Las desventajas de HDR en el giro actual también son suficientes, pero tendré un par de críticas.

  • Es más probable que su equipo no esté listo para HDMI 2.0A y HDCP 2.2, por lo que junto con un televisor, casi seguramente tendrá que cambiar el receptor. Me encontré con esto (PS VR de la primera revisión), me encontré con él y Vadim (receptor con HDMI 1.4).
  • Si le parece que el HDR estropea la imagen o falla, la pantalla debe calibrarse. Algunos juegos ofrecen herramientas de calibración convenientes (bacalao WWII, GT SPORT), pero la mayoría de ellos tienen que confiar en este tema en su propio estilo. Mi consejo: Ejecuta el juego en algunos. complejopor colores y escena brillante, o viceversa, seleccione el nivel nocturno al atardecer. Esto le permitirá configurar rápidamente su nuevo televisor fresco y le salvará del trastorno y la frustración principal.

El tiempo ha llegado

10 bits no son el límite, pero después de dos semanas con un televisor HDR a los juegos ordinarios o películas que regresa sin ser entusiasmo. Cuanto más lolas sea lo que este año, el HDR dejó de ser el montón de Gicks y Tolstosums y finalmente fue a la gente. Sin embargo, la tecnología será mejor y más clara, si esperó "el mismo momento" para cambiar su televisor, entonces aquí es, en su momento, para ver finalmente los mundos virtuales en todos los colores.

Escribir

Cuando a principios de 2017 pasó ces exposiciónSe quedó claro que pronto los mostradores de las tiendas informáticas comenzarán a presentar monitores de computadora que admiten la norma HDR. Todos los principales fabricantes ya venden tales modelos, cada uno con parámetros impresionantes. Pronto le diremos en detalle sobre uno de ellos, y ahora nos concentremos en la teoría que ayudará a decidir cuánto tiempo se justifica la compra de un monitor con soporte para HDR.

HDR en formato PC

La explicación estándar describe HDR (o alto rango dinámico) como un conjunto de estándares destinados a expandir la reproducción de color y el contraste de video e imágenes más allá de las características de hardware estándar "duras". Hablando más fácil, HDR mejora el contraste, el brillo y la saturación de colores, lo que proporciona varias veces más imagen más detallada. HDR contra SDR

Desde un punto de vista práctico, para la mayoría de los usuarios, esto significa un reemplazo completo de los dispositivos disponibles para obtener una diferencia obvia como una imagen. ¿Por qué es un reemplazo completo? Debido a que los dispositivos estándar, en particular los monitores, no cumplen con los requisitos de certificación HDR.

Vamos a empezar con los requisitos de brillo. Para ser considerado "HDR LISTO", la pantalla debe tener un mínimo de 1000 kD / m2 (hilo de brillo). Los monitores de clase alta proporcionan brillo entre 300-400 NIT, es decir, Ni siquiera corresponden a lo que se necesita. Buenas computadoras portátiles tener unos 100 hilos. Incluso con pantallas para teléfonos inteligentes diseñados para proporcionar una buena visibilidad a la luz solar brillante, este indicador rara vez supera los 800 nit (Galaxy Note8 es una de las excepciones con un brillo de 1200 NIT). En otras palabras, actualmente el 99% de las pantallas no admiten HDR.

Ahora nos dirigimos a la reproducción de color. La tecnología HDR requiere que el monitor mantenga una profundidad de color de 10 o 12 bits. Sin embargo, los monitores estándar son capaces de transmitir solo un color de 6 u 8 bits utilizando la gama de color SRGB, que cubre solo un tercio del espectro visual HDR.

Los modelos de monitores con tecnología de color de gama ancha (WGC) cumplen con los requisitos de color, pero sus capacidades extendidas son compatibles solo con programas profesionales ( editor gráfico, p.ej). Los juegos y el resto del software simplemente ignoran los colores adicionales y, a menudo, se ven "borrosos" si el equipo no puede emular un espacio de color reducido.

HDR le permite evitar esta confusión debido a los metadatos que distribuyen correctamente el espacio de color. Es esto lo que ayuda a visualizar correctamente la imagen y hace que todo el software utilice de manera óptima las capacidades de visualización.

Aquí, sin embargo, debe insertar uno grande "pero" para aquellos de ustedes que trabajan en el campo de la fotografía, el diseño gráfico y el procesamiento de videos. Es poco probable que los colores más brillantes y ricos, proporcionados por los monitores HDR, es poco probable que lleguen a su ducha. No porque no le guste, simplemente no satisfarán sus necesidades profesionales, porque su "vivacidad" se logra debido al realismo de la reproducción del color. Los modelos con WGC continúan manteniendo la elección perfecta para usted. Entonces, si lees este texto para averiguar qué ventajas le da a esta tecnología su esfera de empleo, simplemente no los encontrará.
Dos diseñador monitor de Dell.. Pantalla izquierda - WGC con reproducción de colores realistas. Derecho - Pantalla HDR. Fácil de notar la saturación de alta calidad.

Gachas de las normas

A continuación, hablaremos sobre la experiencia desde el punto de vista del usuario habitual y el juego de PC, pero primero permítanme desentrañar la enorme maraña enredada de los estándares de HDR para usted. Actualmente, hay cuatro estándar, pero solo dos de ellos están muy extendidos en la electrónica de consumo: una visión de Dolby patentada con su color de 12 bits y metadatos dinámicos; Y el estándar Abrir HDR10, que admite un color de 10 bits y proporciona solo la transmisión de metadatos estáticos. Otros dos estándares: HLG desarrollado por BBC y utilizado en YouTube; Y HDR avanzado, creado por Technicolor y utilizado principalmente en Europa.
La diferencia entre SDR, HDR con metadatos estáticos (HDR10) y HDR con metadatos dinámicos (Dolby Vision).

Pero de vuelta a la cuestión de usar HDR en monitores informáticos, agregando la severidad de los juegos. Requiere las tarifas de licencia y la disponibilidad de equipos adicionales, Dolby Vision es más costoso de ambos estándares, y su alto costo es el factor principal de la recepción lenta. A pesar de que Dolby Vision proporciona la mejor profundidad de color y la posibilidad de reconfiguración dinámica del marco detrás de las escenas, los desarrolladores de juegos eligen el HDR10 más barato, pero óptimo. En este caso, no solo se trata de fabricantes de PC, sino también a las consolas: Microsoft (Xbox One S y Xbox One X) y Sony (PS4 y PS4 PRO). Los principales simpatizantes de HDR10, como Samsung y Amazon, incluso están luchando activamente contra el argumento de que Dolby Vision proporciona más alta calidad Imágenes. Esta lucha condujo a la aparición de una actualización peculiar llamada HDR10 +, que mejora algunas debilidades de HDR10.

Todo esto sugiere que el HDR10 será un estándar hdr generalizado para monitores y juegos de computadora, ¿verdad? No, en absoluto. Recientemente, los desarrolladores de Dolby Vision han simplificado la integración de su tecnología a los juegos y procesadores de gráficos a través de parches, firmware o actualizaciones de controladores. En la primavera de este año, NVIDIA Company se unió a la cantidad de partidarios clave de Dolby Vision.
NVIDIA STAND EN COMPUTEX 2017. A la izquierda, el monitor estándar de SDR, a la derecha, el monitor HRD. Foto: Techpowerup.

(PC) Geyming en HDR

Los consolores tuvieron suerte más en la pregunta HDR. Ganaron desde la inclusión del estándar en televisores de clase alta, y los fabricantes de consolas de juegos (específicamente para consolas) rápidamente vieron la ventaja visual de las pantallas HDR a los televisores estándar. Desde un punto de vista puramente práctico, el consumidor es más fácil de justificar grandes inversiones en la pantalla, que sirve como centro de entretenimiento de su casa, que en el que se encuentra en el escritorio.

Sin embargo, los PC-Gamers pueden estar agradecidos a sus compañeros de consola. La popularización de HDR en televisores, como la serie LG C6 y C7, que se pueden usar como monitores gigantes para PC, permitieron "Pcchnis" disfrutar de la primera ola de contenido HDR creado específicamente para PC.

Pero aún así, ¿a qué modelos de monitores deben prestar atención? Tres de los anuncios más prometedores de los monitores de HDR decepcionaron rápidamente que, de hecho, no cumplen con todos los requisitos de HDR10. Y, por lo tanto, el verdadero HDR no es compatible. Dos de ellos, Dell S2718D y LG 32UD99, pueden recibir una señal HDR, pero no tienen la gama de colores o el brillo necesarios para usar el contenido de HDR. El último, BenQ SW320, cumple con los requisitos de color, pero no el brillo. Por lo tanto, los siguientes modelos permanecieron en la lista: Acer Predator X27, Acer Prdator X35 ASUS ROF SWIFT PG27UQ, ASUS ROG SWIFT PG35VQ, Samsung CHG70 y Samsung Chg90.
Asus ROG SWIFT PG35VQ es uno de los modelos HDR más prometedores en este momento

La siguiente pregunta lógica: ¿Cuál es la situación con el procesador de gráficos? En este sentido, las computadoras se han preparado durante mucho tiempo debido a la guerra entre NVIDIA y AMD, así como sus tarjetas de video medianas y altas.

NVIDIA comenzó con la integración de HDR en sus procesadores gráficos de Maxwell Generation (serie 900 anterior) y la certificación continua con una nueva serie 1000, que utiliza la arquitectura Pascal. Las primeras tarjetas de video certificadas de AMD se convirtieron en modelos de 390x y familias de Polaris. En pocas palabras, si su tarjeta de video fue liberada en los últimos 4 años, no debe tener ningún problema. Sin embargo, si desea utilizar todo lo que pueda ofrecer una nueva pantalla HDR, tendrá que comprar uno de los modelos de tarjeta de video más nuevos.

Problema real con HDR para jugadores de PC

Si tiene un pedido completo, la compra de un monitor con soporte HDR y la computadora correspondiente no será un problema. Pero antes de correr a la tienda, la situación debe examinarse con la presencia de contenido apropiado. Desafortunadamente, en este sentido, así que la situación. Sí, hay nuevos juegos en los que se establece originalmente el apoyo de HDR, pero los juegos antiguos no saben cómo adaptarse a las características de esta tecnología. Al menos, no sin parches especiales.

La integración de HDR no requiere cambios a gran escala en el software, pero esto no cancela el hecho de que en la actualidad, la cantidad de contenido de HDR disponible para PC-Gamers no es tan grande. De hecho, solo unos pocos juegos Soporte estándar: Sombra Guerrero 2, Deus EX: Humandered, Hitman, Resident Evil 7, Orobuction, Paragon, Paragon, Efecto de masa Versión: Andrómeda, necesidad de velocidad: Payback y Star Wars: Battlefront 2. Juegos multiplataforma Gears of War, Battlefield y Forza Horizon 3 Soporte HDR en versiones de consola, pero esta función falta en la PC. Hace algún tiempo, NVIDIA trabajó activamente en el parche HDR para su ascenso de Tomb Raider, pero no había noticias de la compañía durante mucho tiempo sobre cómo se está moviendo este trabajo.

Los desarrolladores de juegos toman la idea de HDR, pero los juegos de consola serán los primeros con dicho apoyo. Los jugadores de PC permanecen (nuevamente) en el fondo. Tardará varios años antes de que HDR se convierta en una característica verdaderamente importante de los monitores de la computadora. En este momento, esta norma no se encuentra entre los parámetros requeridos a los que monitor de juegoPara merecer la atención. Como en el caso de 4K, HDR es una inversión en el futuro.

Un consejo que puedo darle en conclusión: comprar hoy un monitor que cumpla con sus necesidades actuales. Si es importante para HDR, esta bonificación agradable le costará algunos cientos de dólares adicionales, pero será una garantía (aunque un poco) que su nuevo monitor permanecerá relevante durante mucho tiempo.

Etiquetas :,
ParámetroValor
CHIP DE NOMBRE DE CÓDIGO.GP104.
Producción tecnológica16 NM FINFET.
Número de transistores7.2 mil millones
Núcleo cuadrado314 mm²
Arquitectura
Soporte de hardware DirectX
Autobús de la memoria.
1607 (1733) MHz
Bloques informáticos20 multiprocesadores de transmisión que comprenden 2560 Scalar Alus para semiconos flotantes dentro del marco de la norma IEEE 754-2008;
Bloques de textura160 Bloques de direccionamiento de textura y filtrado con soporte de componentes FP16 y FP32 en texturas y soporte para filtrado trilineal y anisotrópico para todos los formatos texturales
Soporte de monitoreo
Especificaciones de la tarjeta de video de referencia. GEFORCE GTX. 1080
ParámetroValor
Frecuencia de núcleo1607 (1733) MHz
2560
Número de bloques texturales160
Número de bloques de lluvia64
Frecuencia de memoria efectiva10,000 (4 × 2500) MHz
Tipo de memoriaGddr5x.
Autobús de la memoria.256 bits
Tamaño de la memoria8 GB
320 GB / s
alrededor de 9 teraflops
103 gigapíxeles / con
257 gigidicales / con
NeumáticoPCI Express 3.0
Conectores
Consumo de energíahasta 180 W.
Comida adicionalUn conector de 8 pines
2
Precio recomendado$ 599-699 (EE. UU.), 54990 Rublos (Rusia)

El nuevo modelo de tarjeta de video GeForce GTX 1080 ha sido lógico para la primera solución de la nueva serie GeForce, difiere de su predecesor directo solo una generación modificada. La novedad no simplemente reemplaza las mejores soluciones en la línea actual de la empresa, sino que, durante algún tiempo, se convirtió en el buque insignia de la nueva serie hasta que el Titán X se liberó en la GPU aún más poder. El modelo GeForce GTX 1070 ya anunciado también se encuentra a continuación en la jerarquía, según la versión recortada del chip GP104, que consideraremos a continuación.

Los precios recomendados para una nueva Video Holiday Nvidia son de $ 599 y $ 699 para versiones convencionales y ediciones especiales de Fundadores Edición (ver más abajo), respectivamente, y esta es una sentencia bastante buena, teniendo en cuenta el hecho de que GTX 1080 está por delante de no solo GTX 980 TI, sino también Titan X. Hoy, la novedad es la mejor en el desempeño por la solución en el mercado de tarjetas de video de un solo chip sin ninguna pregunta, y al mismo tiempo cuesta más barato que las tarjetas de video más productivas de la generación anterior. Si bien un competidor de AMD de GeForce GTX 1080 es, por lo tanto, NVIDIA pudo establecer un precio que se adapte a ellos.

La tarjeta de video en consideración se basa en el chip GP104, que tiene un bus de memoria de 256 bits, pero un nuevo tipo de memoria GDDR5X funciona en una frecuencia muy alta eficiente de 10 GHz, lo que le da al alto ancho de banda máximo en 320 GB / C - que está casi en el nivel GTX 980 TI desde 384 en autobús. La cantidad de memoria montada en una tarjeta de video con un bus de este tipo podría ser de 4 u 8 GB, pero ponga un volumen más pequeño para una solución tan poderosa en condiciones modernas Sería estúpido, por lo que GTX 1080 recibió completamente de 8 GB de memoria, y este volumen es suficiente para iniciar cualquier aplicación en 3D con cualquier configuración de calidad durante varios años.

La placa de circuito impresa GeForce GTX 1080 para razones obvias es decentemente diferente de la PCB anterior de la empresa. El valor de la innovación típica de la novedad es de 180 W, es ligeramente más alta que la de GTX 980, pero notablemente más baja que la de Titan X menos productivo X y GTX 980 TI. La placa de referencia tiene un conjunto familiar de conectores para adjuntar un dispositivo de salida de imagen: un DVI Dual-Link, una HDMI y tres Pantalla.

Edición de fundadores de diseño de referencia

ANUNCIO DE GEFORCE GTX 1080 A principios de mayo, se ha anunciado una edición especial de la tarjeta de video llamada Founder Edition, que tiene un precio más alto en comparación con las tarjetas de video convencionales de los socios de la compañía. En esencia, esta publicación es una tarjeta de diseño de referencia y un sistema de enfriamiento, y está hecho por NVIDIA. Puede relacionarse de manera diferente a dichas variantes de tarjetas de video, pero desarrolladas por ingenieros del diseño de referencia de la compañía y el diseño producido con componentes de alta calidad tiene sus propios fanáticos.

Pero si le darán más miles de rublos más para la tarjeta de video de NVIDIA, esta es una pregunta, la respuesta a la que solo se puede practicar la práctica. En cualquier caso, al principio se venderá que aparecerá las tarjetas de video de referencia de NVIDIA a un precio aumentado, y no es particularmente diferente de cualquier cosa, ocurre con cada anuncio, pero la referencia GeForce GTX 1080 se caracteriza por que Se planea venderse a lo largo de su vida útil, hasta la liberación de las soluciones de próxima generación.

NVIDIA cree que esta publicación tiene sus ventajas incluso antes de las mejores obras de socios. Por ejemplo, un diseño de dos hojas de un enfriador le permite recopilar fácilmente sobre la base de esta poderosa tarjeta de video como una PC de juego de un factor de forma relativamente pequeño, así como los sistemas de video multimpojos (incluso a pesar de la operación sin trabajo en modo de tres y cuatro horas). GeForce GTX 1080 Founders Edition tiene algunas ventajas en la forma de un enfriador eficiente utilizando una cámara evaporativa y un ventilador que emite aire calentado de la caja: esta es la primera solución de dicho NVIDIA que consume menos de 250 W energía.

En comparación con los diseños de referencia anteriores de los productos de la compañía, el circuito de alimentación se actualizó con una fase a cinco fases. NVIDIA también habla sobre los componentes mejorados en los que se basa la novedad, la interferencia eléctrica también se ha reducido para mejorar la estabilidad del potencial de voltaje y overclocking. Como resultado de todas las mejoras, la eficiencia energética de la tarifa de referencia aumentó en un 6% en comparación con GeForce GTX 980.

Y para diferir de los modelos "ordinarios" de GeForce GTX 1080 y externamente, para los fundadores Edition desarrollaron un diseño inusual de casos "picados". Sin embargo, eso probablemente condujo a la complicación de la forma de la cámara evaporativa y el radiador (ver foto), que es posible y se desempeñó como uno de los motivos de suplemento de $ 100 para una edición tan especial. Repetiremos que al inicio de las ventas de una opción especial para los compradores no será, sino que en el futuro puede elegir tanto una solución con su propio diseño de uno de los socios de la compañía y realizado por NVIDIA.

Nueva generación de la arquitectura gráfica Pascal.

La tarjeta de video GeForce GTX 1080 se ha convertido en la primera solución al chip GP104 basado en la nueva generación de la arquitectura gráfica NVIDIA - Pascal. Aunque la nueva arquitectura se basó en la decisión, se redujo en Maxwell, tiene importantes diferencias funcionales de las que escribiremos. El cambio principal desde el punto de vista global fue el nuevo proceso tecnológicoDonde se realizó un nuevo procesador de gráficos.

El uso del proceso técnico de 16 NM FINFET en la producción de procesadores gráficos GP104 en las fábricas TSMC TSMC hizo posible aumentar significativamente la complejidad del chip mientras mantiene el área y el costo relativamente bajo. Compare el número de transistores y el área de chips GP104 y GM204: están cerca de la zona (el cristal de las novedades es incluso ligeramente menos físicamente), pero el chip de la arquitectura Pascal tiene un número de transistores notablemente más, y, en consecuencia, los bloques ejecutivos, Incluyendo proporcionar una nueva funcionalidad.

Desde un punto de vista arquitectónico, el primer juego de Pascal es muy similar a soluciones similares de la arquitectura Maxwell, aunque hay algunas diferencias. Al igual que Maxwell, los procesadores de arquitectura Pascal tendrán una configuración de clúster de computación de procesamiento de gráficos diferente (GPC), transmitiendo multiprocesadores que transmiten multiprocesador (SM) y controladores de memoria. El multiprocesador SM es un multiprocesador de alto paralelo que planea y ejecuta Warp (Warp, grupos de 32 transmisiones de comando) en CUDA-núcleos y otros bloques ejecutivos en un multiprocesador. Datos detallados en el dispositivo de todos estos bloques que puede encontrar en nuestras reseñas de las soluciones anteriores de NVIDIA.

Cada uno de los multiprocesadores SM se rocía con un motor de motor polimorfo, que procesa muestras de textura, teselación, transformación, instalación de atributos de vértice y una corrección de perspectiva. A diferencia de las soluciones anteriores de la empresa, el motor Polymorph en el chip GP104 también contiene una nueva unidad de multiprocesamiento multi-proyección simultánea, a la que todavía hablaremos. La combinación de multiprocesador SM con un motor de motor polimorfo es tradicional para NVIDIA llamado Clúster de procesador TPC - Textura.

El chip completo de GP104 en el GeForce GTX 1080 contiene cuatro clústeres GPC y 20 multiprocesadores SM, así como ocho controladores de memoria, combinados con bloques de rop en la cantidad de 64 piezas. Cada clúster GPC tiene un motor de enrutamiento dedicado e incluye cinco multiprocesadores SM. Cada multiprocesador, a su vez, consta de 128 núcleos CUDA-CUDA, 256 KB del archivo de registro, 96 CB de memoria compartida, 48 kB de caché de primer nivel y ocho bloques de textura TMU. Es decir, en total GP104 contiene 2560 CUDA-CORES y 160 bloques TMU.

Además, el procesador de gráficos, que se basa en la tarjeta de video GEFORCE GTX 1080, contiene ocho 32 bits (a diferencia de los controladores de memoria utilizados anteriormente de 64 bits, lo que nos da un bus de memoria final de 256 bits. Cada uno de los controladores de memoria está atado a ocho rop y 256 kb de la memoria caché de segundo nivel. Es decir, todo el chip GP104 contiene 64 bloques ROP y 2048 KB de caché de segundo nivel.

Gracias a las optimizaciones arquitectónicas y un nuevo proceso técnico, el primer juego de Pascal se ha convertido en el procesador de gráficos más eficiente en la energía para todos los tiempos. Además, la contribución a él es tanto de uno de los procesos tecnológicos más avanzados de 16 nm FINFET y de las optimizaciones de la arquitectura en Pascal, en comparación con Maxwell. NVIDIA pudo aumentar la frecuencia del reloj incluso más de lo que se calcularon al cambiar a un nuevo proceso técnico. GP104 funciona a una frecuencia más alta de lo que se trabajaría el GM204 hipotético, liberado utilizando un proceso de 17 nm. Para esto, los ingenieros de NVIDIA tuvieron que verificar y optimizar a fondo todos los cuellos de botella de soluciones anteriores, sin permitir acelerar por encima de un cierto umbral. Como resultado, el nuevo modelo GeForce GTX 1080 funciona en más del 40% de mayor frecuencia, en comparación con GeForce GTX 980. Pero esto no es todos los cambios asociados con la frecuencia de operación de la GPU.

Tecnología GPU BOOST 3.0

Como sabemos bien según las tarjetas de video de NVIDIA, en sus procesadores gráficos, utilizan la tecnología de hardware de GPU Boost, destinada a aumentar la frecuencia del reloj de trabajo GPU en los modos cuando aún no ha alcanzado los límites para el consumo de energía y la generación de calor. En los últimos años, este algoritmo ha sufrido muchos cambios, y la tercera generación de esta tecnología ya se usa en la arquitectura Pascal Chip de video - GPU Boost 3.0, cuya innovación principal se ha convertido en una instalación más sutil de turbo-frecuencias, dependiendo de en el voltaje.

Si recuerda el principio de operación de versiones anteriores de la tecnología, la diferencia entre la frecuencia base (el valor de frecuencia mínima garantizada está por debajo del cual la GPU no cae al menos en los juegos) y se solucionó la frecuencia turbo. Es decir, la frecuencia turbo siempre ha estado en un cierto número de megahercios por encima de lo básico. La GPU BOOST 3.0 tiene la capacidad de instalar los desplazamientos de frecuencia de turbo para cada voltaje por separado. La forma más fácil de entender se ilustra por:

A la izquierda, el aumento de la GPU de la segunda versión, a la derecha, el tercero, que apareció en Pascal. La diferencia fija entre las frecuencias básicas y turbo no permitió divulgar las capacidades de la GPU por completo, en algunos casos, los procesadores gráficos de generaciones anteriores podrían funcionar más rápido en el voltaje instalado, pero el exceso fijo de la frecuencia turbo no permitió esto . En GPU Boost 3.0, apareció esta función, y la frecuencia turbo se puede instalar para cada uno de los valores de voltaje individuales, apretando completamente todos los jugos de la GPU.

Para controlar la aceleración y establecer una curva de turbo de frecuencia, se requieren utilidades convenientes. NVIDIA en sí no hace esto, sino que ayuda a sus socios a crear utilidades similares para el alivio del overclocking (dentro de los límites razonables, por supuesto). Por ejemplo, la nueva funcionalidad de GPU Boost 3.0 ya se describe en EVGA Precision XOC, que incluye un escáner especial de aceleración, la búsqueda e instalación automática de una diferencia no lineal entre la frecuencia base y la frecuencia turbo para valores diferentes Voltajes utilizando el lanzamiento de la prueba de rendimiento incorporada y la estabilidad. Como resultado, el usuario resulta una curva de frecuencia de turbo, idealmente correspondiente a las capacidades de un chip en particular. Lo que, además, puede modificar de alguna manera en modo manual.

Como puede ver en la captura de pantalla de la utilidad, además de la información sobre la GPU y el sistema, también hay configuraciones para el overclocking: Power Target (define el consumo de energía típico durante la aceleración, como porcentaje de la norma), GPU Temp. (Temperatura del kernel permitida máxima), desplazamiento del reloj GPU (exceder sobre la frecuencia básica para todos los valores de voltaje), desplazamiento de la memoria (frecuencia de la memoria de video que exceda sobre el valor predeterminado), sobretensión (potencia adicional para aumentar el voltaje).

La utilidad de precisión XOC incluye tres modos de aceleración: el principal manual básico, lineal lineal y manual. En el modo principal, puede establecer una sola frecuencia que exceda el valor (Frecuencia de turbo fija) sobre el Básico, ya que fue para las GPU anterior. El modo lineal le permite establecer un cambio lineal en la frecuencia del mínimo a los valores de voltaje máximo para la GPU. Bueno, en modo manual, puede establecer valores de frecuencia únicos de GPU para cada punto de voltaje en el gráfico.

Como parte de la utilidad, también hay un escáner especial para el overclocking automático. Puede instalar sus propios niveles de frecuencia o permitir que la utilidad XOC de precisión escanee la GPU en todas las tensiones y encuentre las frecuencias más estables para cada punto en la curva de voltaje y la frecuencia se automáticamente automáticamente. En el proceso de escaneo, la precisión XOC agrega gradualmente la frecuencia de la GPU y verifica su trabajo en la estabilidad o apariencia de artefactos, construyendo la curva perfecta de frecuencias y tensiones, que serán únicas para cada chip específico.

Este escáner se puede configurar en sus propios requisitos, configurando el segmento de tiempo de la prueba de cada valor de voltaje, la frecuencia mínima y la frecuencia máxima y su paso. Está claro que para lograr resultados estables será mejor establecer un pequeño paso y una duración decente de las pruebas. En el proceso de pruebas, puede producirse un dispositivo de video inestable y un sistema, pero si el escáner no depende, restaurará el trabajo y continuará encontrando las frecuencias óptimas.

Nuevo tipo de memoria de video GDDR5X y compresión mejorada.

Entonces, la potencia del procesador de gráficos se ha cultivado notablemente, y el bus de memoria se mantuvo solo en 256 bits: no habrá un ancho de banda de memoria para limitar el rendimiento general y lo que se puede hacer con él. Parece que la memoria HBM prometedora de la segunda generación sigue siendo demasiado en la producción, así que tuve que buscar otras opciones. Desde el momento del advenimiento de GDDR5-Memoria en 2009, NVIDIA Engineers investigó las posibilidades de usar nuevos tipos de memoria. Como resultado, el desarrollo llegó a la introducción de un nuevo estándar de memoria GDDR5X: la norma más compleja y avanzada, que da la tasa de transferencia de 10 Gbps.

NVIDIA trae un ejemplo interesante de lo rápido que es. Solo hay 100 picosegundos entre bits transmitidos, durante tal tiempo, el haz de luz pasará la distancia solo una pulgada (aproximadamente 2,5 cm). Y cuando se usa la memoria GDDR5X, la cadena de recepción de la transmisión de datos debe estar a menos de la mitad de este tiempo, seleccione el valor del bit de transmisión, antes de que se envíe el siguiente, es solo que entiende lo que han alcanzado las tecnologías modernas.

Para lograr esta velocidad de trabajo, fue necesario desarrollar una nueva arquitectura del sistema de datos de E / S que requirió varios años de desarrollo conjunto con fabricantes de chips de memoria. Además de la mayor velocidad de transmisión de datos, la eficiencia energética ha aumentado: los chips de memoria estándar GDDR5X utilizan un voltaje reducido en 1.35 V y se produce de acuerdo con las nuevas tecnologías, lo que le da al mismo consumo de energía en un 43% más de frecuencia.

Los ingenieros de la compañía tuvieron que reciclar líneas de transmisión de datos entre los chips de memoria y memoria GPU, prestar más atención para evitar la pérdida y la degradación de la señal en toda la memoria de la memoria a la GPU y la espalda. Por lo tanto, la ilustración anterior muestra una señal capturada en forma de un "ojo" grande simétrico, que indica una buena optimización de toda la cadena y la relativa facilidad de captura de datos de la señal. Además, los cambios descritos anteriormente han llevado no solo a la posibilidad de utilizar GDDR5X en 10 GHz, sino que también debería ayudar a obtener una PSP alta en productos futuros que utilizan una memoria GDDR5 más familiar.

Bueno, más del 40% del aumento en la PSP de la aplicación de la nueva memoria que recibimos. ¿Pero no es suficiente? Para aumentar aún más la eficiencia de usar el ancho de banda de memoria en NVIDIA, continuó mejorando los datos avanzados adjuntos en arquitecturas anteriores. El subsistema de memoria en el GeForce GTX 1080 utiliza mejorado y varias técnicas nuevas para comprimir datos sin pérdida, diseñados para reducir los requisitos para la PSP, la cuarta generación de compresión intrácea.

Los algoritmos para comprimir datos en la memoria provocan inmediatamente varios momentos positivos. La compresión reduce la cantidad de datos registrados en la memoria, lo mismo se aplica a los datos enviados desde la memoria de video a la memoria caché de segundo nivel, que mejora la eficiencia de usar el caché L2, ya que la baldosa comprimida (bloque de varios píxeles de marco) Tiene un tamaño más pequeño que sin comprimir. También disminuye la cantidad de datos enviados entre diferentes puntos, como el módulo de textura TMU y el frameBuffer.

El transportador de compresión de datos en la GPU utiliza varios algoritmos, que se determinan dependiendo de la "compresibilidad" de los datos, para ellos, se selecciona lo mejor de los algoritmos disponibles. Uno de los más importantes es el algoritmo de la codificación delta de los datos de color píxel (compresión del color delta). Este método de compresión codifica datos en forma de diferencia entre los valores secuenciales en lugar de los datos en sí. La GPU calcula la diferencia en los valores de color entre los píxeles en el bloque (azulejo) y guarda el bloque como un cierto color promediado para todo el bloque Datos más sobre la diferencia en los valores para cada píxel. Para los datos gráficos, este método generalmente es adecuado, ya que el color dentro de las baldosas pequeñas para todos los píxeles a menudo no es diferente.

El procesador de gráficos GP104 como parte del GeForce GTX 1080 admite más algoritmos de compresión en comparación con las fichas anteriores del arquitecto Maxwell. Por lo tanto, el algoritmo de compresión 2: 1 se hizo más eficiente, y además de ella apareció dos nuevos algoritmos: Modo de compresión 4: 1, adecuado para los casos, cuando la diferencia en el color del píxel de bloque es muy pequeña y el modo de 8: 1, combinando la compresión del algoritmo constante con una proporción de 4: 1 bloques de 2 × 2 píxeles con una twofold compresión de un delta entre bloques. Cuando la compresión no es completamente imposible, no se usa.

Sin embargo, en realidad, este último es muy poco frecuente. Esto se puede ver por ejemplos de capturas de pantalla del juego de automóviles del proyecto, que llevó a NVIDIA a ilustrar la mayor proporción de compresión en Pascal. En las ilustraciones de la púrpura, esas fichas de tampón de personal están pintadas, lo que podría exprimir un procesador de gráficos y la compresión no sin pérdidas permanece con el color original (desde arriba - Maxwell, a continuación, Pascal).

Como puede ver, los nuevos algoritmos de compresión en el GP104 realmente funcionan mucho mejor que en Maxwell. Aunque la antigua arquitectura también podría comprimir la mayoría de los azulejos en la escena, una gran cantidad de césped y árboles en los bordes, así como las partes del automóvil, no están expuestas a algoritmos de compresión desactualizados. Pero cuando habilita nuevas técnicas en Pascal, un número muy pequeño de imágenes de la imagen permanece sin comprimir: la eficiencia mejorada es obvia.

Como resultado de la compresión de datos mejorada, GeForce GTX 1080 puede reducir significativamente la cantidad de datos enviados en cada marco. Si hablamos de números, entonces la compresión mejorada ahorra un 20% adicional del ancho de banda de memoria efectivo. Además de más del 40% del aumento de PSP en el GeForce GTX 1080 en relación con el GTX 980 del uso de la memoria GDDR5X, todo otorga aproximadamente el 70% del aumento en la PSP efectiva, en comparación con el modelo de la generación pasada. .

Async Compute Soporte de computación asíncrono

La mayoría de los juegos modernos utilizan cálculos complejos además de gráficos. Por ejemplo, los cálculos en el cálculo del comportamiento de los cuerpos físicos no se pueden llevar a cabo no antes o después de los cálculos gráficos, pero simultáneamente con ellos, ya que no están conectados entre sí y no dependen entre sí dentro de un marco. Además, se puede dar un ejemplo de un procesamiento posterior al personal ya rendido y procesar datos de audio, que también se pueden ejecutar en paralelo con la representación.

Otro ejemplo vívido de uso de la funcionalidad es una distorsión de tiempo asíncrona (Warp de tiempo asíncrono) que se usa en sistemas de realidad virtual para cambiar el marco de salida de acuerdo con el movimiento de la cabeza del jugador directamente antes de su salida, interrumpiendo la representación de la siguiente. Tal carga asíncrona de capacidades de GPU permite aumentar la eficiencia de usar sus bloques ejecutivos.

Tales cargas crean dos nuevos escenarios de uso de GPU. El primero de estos incluye descargas superpuestas, ya que muchos tipos de tareas no utilizan completamente las capacidades de los procesadores gráficos, y parte de los recursos está inactiva. En tales casos, simplemente puede ejecutar dos en una GPU diferentes tareasSeparando sus bloques ejecutivos para obtener un uso más eficiente, por ejemplo, los efectos de PSX que se ejecutan junto con la representación del marco 3D.

Para mejorar el trabajo de este escenario, el equilibrio de carga dinámico apareció en la arquitectura Pascal (balanceo de carga dinámica). En la arquitectura Maxwell anterior, se realizaron cargas superpuestas como una distribución estática de los recursos de GPU sobre gráficos y computacionales. Este enfoque es efectivo, siempre que el equilibrio entre dos cargas corresponde aproximadamente a la separación de los recursos y las tareas se realicen igualmente en el tiempo. Si los cálculos de ilitio se realizan más tiempo que los gráficos, y ambos esperan completar trabajo comúnLa parte de la GPU sigue siendo hora de ponerse de pie, lo que causará una disminución en el rendimiento general y reducirá todos los beneficios. El equilibrio de carga dinámico de hardware también le permite usar los recursos de GPU liberados inmediatamente a medida que estén disponibles, para entender la ilustración.

También hay tareas críticas por tiempo de ejecución, y este es el segundo escenario de la computación asíncrona. Por ejemplo, la ejecución de un algoritmo de distorsión de tiempo asíncrono en VR debe completarse antes de que se deseche el escaneo (escaneado) o el marco. En este caso, la GPU debe admitir una interrupción muy rápida de la tarea y cambiar a otro para eliminar la tarea menos crítica de la ejecución en la GPU, liberando sus recursos para tareas críticas: esto se llama la estreno.

Un equipo de representación del motor del juego puede contener cientos de llamadas para funciones de dibujo, cada llamada de llamadas de dibujo, a su vez, contiene cientos de triángulos procesados, cada uno de los cuales contiene cientos de píxeles que deben calcularse y negar. En el enfoque tradicional, la GPU utiliza la interrupción de las tareas solo a un nivel alto, y el transportador gráfico se ve obligado a esperar la finalización de todo este trabajo antes de cambiar la tarea, lo que resulta en retrasos muy grandes.

Para solucionarlo, la arquitectura Pascal introdujo por primera vez la capacidad de interrumpir la tarea en la preferencia de nivel de píxeles de píxeles. Los bloques ejecutivos del procesador de gráficos Pascal pueden monitorear constantemente el progreso de la realización de las tareas de representación, y cuando se solicita la interrupción, pueden detener la ejecución al guardar el contexto para completarse más, rápidamente cambió a otra tarea.

La interrupción y el cambio del nivel de flujo para las operaciones de computación es similar a la interrupción del nivel de píxel para los cálculos gráficos. Las cargas informáticas constan de varias cuadrículas, cada una de las cuales contiene muchos hilos. Cuando se recibió la solicitud de interrupción, las transmisiones realizadas en el multiprocesador terminan la ejecución. Otros bloques conservan su propio estado para continuar desde el mismo momento en el futuro, y la GPU cambia a otra tarea. Todo el proceso de conmutación de tareas lleva menos de 100 microsegundos después de que se realicen los flujos completados.

Para las cargas de juegos, una combinación de interrupciones en un nivel de píxel para gráfico, y las interrupciones a nivel de transmisión para las tareas de computación proporcionan procesadores gráficos de la arquitectura Pascal con la capacidad de cambiar rápidamente entre tareas con pérdida de tiempo mínima. Y para las tareas de computación en CUDA, también es posible interrumpir con una granularidad mínima, a nivel de instrucción. En este modo, todas las corrientes detengan la ejecución inmediatamente, cambiando inmediatamente a otra tarea. Este enfoque requiere el mantenimiento de más información sobre el estado de todos los registros de cada flujo, pero en algunos casos de cálculos de no pena está completamente justificado.

El uso de las tareas rápidas de interrupción y conmutación en las tareas de gráficos y computación se agregó a la arquitectura Pascal para que las tareas gráficas y analfabetas se interrumpan al nivel de las instrucciones individuales, y no las transmisiones completas, como lo fue en Maxwell y Kepler. Estas tecnologías pueden mejorar la ejecución asíncrona de varias cargas en el procesador de gráficos y mejorar la capacidad de respuesta al realizar simultáneamente varias tareas. El evento NVIDIA mostró una demostración del trabajo de los cálculos asíncronos sobre el ejemplo de calcular los efectos físicos. Si sin cálculos asíncronos, el rendimiento fue de 77-79 FPS, luego con la inclusión de estas capacidades, la velocidad de fotogramas aumentó a 93-94 fps.

Ya hemos dado un ejemplo de una de las posibilidades para usar esta funcionalidad en los juegos en forma de distorsión de tiempo asíncrono en VR. La ilustración muestra el trabajo de esta tecnología con una interrupción tradicional (se estreno) y con un rápido. En el primer caso, el proceso de distorsión de tiempo asíncrono está tratando de realizar lo más tarde posible, pero antes de actualizar la imagen en la pantalla. Pero el trabajo del algoritmo debe hacerse a la ejecución de varios milisegundos en GPU anteriormente, ya que sin una interrupción rápida, no es posible realizar trabajos con precisión en el momento adecuado, y la GPU está inactiva durante algún tiempo.

En el caso de una interrupción precisa a nivel de píxeles y flujos (en la ilustración a la derecha), tal oportunidad proporciona mayor precisión al determinar el momento de la interrupción, y la distorsión de tiempo asíncrona se puede iniciar significativamente más tarde con la confianza en el cierre antes Actualización de información en la pantalla. Y la GPU de pie durante algún tiempo en el primer caso se puede descargar un trabajo gráfico adicional.

Tecnología de multiprocesamiento Multi-proyección simultánea

El soporte apareció en el nuevo procesador de gráficos GP104. nueva tecnología Multi-Projecty (Multi-Proyección simultánea - SMP), lo que permite a la GPU dibujar datos sobre los sistemas de salida de imagen modernos de manera más eficiente. SMP permite que la Declaración de video muestre simultáneamente los datos en varias proyecciones, para las cuales fue necesario ingresar un nuevo bloque de hardware en la GPU en el motor de polimorfo al final del transportador geométrico delante de la unidad de rasterización. Esta unidad es responsable de trabajar con varias proyecciones para una sola corriente de geometría.

El motor multiprocatante procesa los datos geométricos al mismo tiempo para 16 proyecciones prefiguradas que combinan el punto de proyección (cámaras), estas proyecciones se pueden girar de forma independiente o inclinada. Dado que cada primitiva geométrica puede aparecer simultáneamente en varias proyecciones, el motor SMP proporciona dicha funcionalidad, lo que permite que la aplicación proporcione las instrucciones de la declaración de video para replicar la geometría a 32 veces (16 proyecciones en dos centros de proyección) sin procesamiento adicional.

Todo el proceso de procesamiento se acelera rápidamente, y como funciona multiprocipando después de un motor geométrico, no necesita repetir varias veces todas las etapas de la geometría de procesamiento. Los recursos guardados son importantes en condiciones de limitar la velocidad de representación con el rendimiento del procesamiento de la geometría, como la teselación, cuando se realiza el mismo trabajo geométrico varias veces para cada proyección. Por consiguiente, en el caso pico, la multiproculación puede reducir la necesidad de procesamiento de geometría hasta 32 veces.

Pero, ¿por qué es todo necesario? Hay varios buenos ejemplos donde la tecnología de multiprocesamiento puede ser útil. Por ejemplo, un sistema multinomuclear de tres pantallas montadas en ángulo entre sí cerca del usuario (configuración envolvente). En una situación típica, la escena se dibuja en una proyección, que conduce a distorsiones geométricas y refunciones incorrectas de la geometría. La forma correcta es tres proyecciones diferentes para cada uno de los monitores, de acuerdo con el ángulo bajo el cual se encuentran.

Con la ayuda de una tarjeta de video en una arquitectura Pascal, esto se puede hacer en un solo paso de la geometría, lo que indica tres proyecciones diferentes, cada una para su monitor. Y, por lo tanto, el usuario podrá cambiar el ángulo bajo el cual los monitores se ubican entre sí no solo físicamente, sino que también están activando virtualmente las proyecciones para monitores laterales para obtener la perspectiva correcta en la escena 3D con un ángulo de visión maravillosamente más amplio (FOV) . Es cierto que hay una restricción: para tal soporte, la solicitud debe poder dibujar una escena con FOV anchas y use las llamadas especiales de SMP SMP para la instalación. Es decir, en cada juego, no hará esto, necesita un soporte especial.

En cualquier caso, se aprobó los tiempos de una proyección en el único monitor plano, ahora muchas configuraciones multi-componentes y pantallas curvas, que también pueden usarse esta tecnología. Sin mencionar los sistemas de realidad virtual que utilizan lentes especiales entre las pantallas y los ojos del usuario, lo que requiere nuevas técnicas para proyectar imágenes en 3D en una imagen 2D. Muchas de estas tecnologías y técnicas aún están al comienzo del desarrollo, lo principal es que las GPU antiguas no pueden usar efectivamente más de una proyección plana. Estos requieren varios pases de representación, tratamiento repetido de la misma geometría, etc.

Los chips de Arquitecto Maxwell tenían un apoyo limitado de resolución múltiple que ayuda a aumentar la eficiencia, pero SMP en Pascal puede ser mucho más. Maxwell podría convertir la proyección en 90 grados para tarjetas cúbicas (mapeo de cubo) o varios permisos para la proyección, pero fue útil solo en un círculo limitado de aplicaciones, como VXGI.

Desde otras aplicaciones SMP, observamos el dibujo con una resolución diferente y un estereador de un solo paso. Por ejemplo, el dibujo con una resolución diferente (sombreado de múltiples resecciones) se puede utilizar en los juegos de optimización de rendimiento. Cuando se usa, se usa una resolución más alta en el centro del marco, y en la periferia disminuye para obtener una tasa de representación más alta.

La estereadora de un solo paso se usa en VR, ya se ha agregado al paquete VRWORKS y utiliza la posibilidad de multiproycation para reducir la cantidad de trabajo geométrico requerido por la representación de VR. En el caso de usar esta función, el procesador de gráficos GeForce GTX 1080 procesa la geometría de la escena solo una vez, generando dos proyecciones a la vez para cada ojo, que duplicó la carga geométrica en la GPU, y también reduce la pérdida del conductor y el sistema operativo. .

Un método aún más avanzado para mejorar la eficiencia de la representación de VR es el sombreado de la lente coincidente, cuando las distorsiones geométricas requeridas con la representación de VR se simulan utilizando varias proyecciones. Este método utiliza multiprocución para la representación de la escena 3D en la superficie, que es aproximadamente similar a la lente ajustada cuando se dibuja para emitir un casco VR, lo que permite no dibujar muchos píxeles innecesarios en la periferia que se descartarán. Es más fácil entender la esencia del método en la ilustración: en frente de cada ojo, se usan cuatro proyecciones ligeramente desplegadas (Pascal también se puede usar para 16 proyecciones para cada ojo, para una imitación más precisa de la lente curva) en lugar de uno:

Tal enfoque es capaz de ahorrar decentemente en el rendimiento. Por lo tanto, una imagen típica para Oculus Rift para cada ojo es de 1.1 megapíxeles. Pero debido a la diferencia en las proyecciones, para hacerlo, la imagen original se usa en 2.1 megapíxeles, ¡86% más necesarios! El uso de multiprocesamiento incrustado en la arquitectura Pascal permite reducir la resolución de la imagen dibujada a 1.4 megapíxeles, habiendo recibido ahorros de uno y medio en la tasa de procesamiento de píxeles, y también guarda el ancho de banda de memoria.

Y junto con los twofold ahorros en la velocidad de procesamiento de la geometría debido a un estereador de un solo paso, el procesador de gráficos GeForce GTX 1080 es capaz de proporcionar un aumento significativo en el rendimiento de la representación de VR, muy exigente y a la velocidad de procesamiento de la geometría, e incluso Más aún - al procesamiento de pixel.

Mejoras en la salida de video y bloques de procesamiento.

Además del rendimiento y la nueva funcionalidad asociada con la representación 3D, es necesario mantener un buen nivel y la posibilidad de generar la imagen, así como la decodificación y la codificación de datos de video. Y el primer procesador de gráficos de arquitectura Pascal no decepcionó: respalda todos los estándares modernos en este sentido, incluida la decodificación de hardware HEVC requerida para ver videos 4K en la PC. Además, los futuros propietarios de las tarjetas de video GeForce GTX 1080 podrán disfrutar rápidamente de la reproducción del video de Streaming 4K de Netflix y otros proveedores en sus sistemas.

Desde el punto de vista de una salida de imagen en las pantallas, GeForce GTX 1080 tiene soporte para HDMI 2.0B con HDCP 2.2, así como DisplayPort. Hasta ahora, la versión de DP 1.2 está certificada, pero la GPU está lista para la certificación para estándares más recientes: DP 1.3 listo y DP 1.4 listo. Este último le permite mostrar una imagen a 4K pantallas a una frecuencia de renovación de 120 Hz, y en pantallas 5K- y 8K, a 60 Hz cuando se utiliza el par de cables DisplayPort 1.3. Si para GTX 980, la resolución máxima admitida fue de 5120 × 3200 a 60 Hz, luego para el nuevo modelo GTX 1080, aumentó a 7680 × 4320 con los mismos 60 Hz. La referencia GeForce GTX 1080 tiene tres salidas de Pantalla, una HDMI 2.0B y un DVI de doble enlace digital.

El nuevo modelo de tarjeta de video NVIDIA también recibió una unidad de decodificación de video mejorada y codificación de datos de video. Por lo tanto, el chip GP104 cumple con los altos estándares de PlayReady 3.0 (SL3000) para reproducir el video de transmisión, lo que le permite confiar en que jugar al contenido de alta calidad de proveedores conocidos, como Netflix, será de alta calidad y energía eficiente. Los detalles sobre el soporte de varios formatos de video al codificar y decodificar se muestran en la tabla, la novedad es claramente diferente de las soluciones anteriores para mejor:

Pero una novedad aún más interesante se puede llamar soporte para las llamadas pantallas de alto rango dinámico (alto rango dinámico - HDR), que están a punto de ser extendidas en el mercado. Los televisores se venden ya en 2016 (y en solo un año, se planea vender cuatro millones de televisores HDR), y los monitores son los siguientes. HDR es el mayor avance en las tecnologías de visualización durante muchos años, este formato ha duplicado los tonos de color (75% del espectro visible, a diferencia del 33% para RGB), pantallas más brillantes (1000 nit) con mayor contraste (10,000: 1) y Colores saturados.

La apariencia de la reproducción del contenido con una mayor diferencia en el brillo y los colores ricos y ricos llevarán la imagen en la pantalla a la realidad, el color negro se volverá más profundo, la luz brillante será ciega, como en el mundo real. En consecuencia, los usuarios verán más detalles en imágenes brillantes y oscuras de imágenes, en comparación con los monitores estándar y los televisores.

Para admitir las pantallas HDR, GeForce GTX 1080 tiene todo lo que necesita: la capacidad de emitir un color de 12 bits, soporte para las normas BT.2020 y SMPTE 2084, así como la salida de imagen de acuerdo con HDMI 2.0B 10/12-bit para HDR en resolución de 4k, que fue y Maxwell. Además de esto, Pascal ha apoyado un formato HEVC de 4K de decodificación de HEVC con 60 Hz y color de 10 o 12 bits, que se utiliza para el video HDR, así como la codificación del mismo formato con los mismos parámetros, pero solo en 10 bits para grabar video HDR o transmisión. Además, una novedad está lista para estandarizar DisplayPort 1.4 para transmitir datos HDR para este conector.

Por cierto, la codificación del video HDR se puede necesitar en el futuro para transmitir dichos datos de una PC doméstica a la consola de juegos Shield, que puede jugar un HEVC de 10 bits. Es decir, el usuario podrá transmitir el juego con una PC en formato HDR. Deténgase, ¿y dónde tomar juegos con este apoyo? NVIDIA trabaja constantemente con los desarrolladores de juegos para implementar dicha soporte, aprobar todo lo que necesita (soporte en controlador, ejemplos de código, etc.) para la renderización correcta de una imagen HDR compatible con las pantallas existentes.

En el momento de la liberación de la tarjeta de video, GeForce GTX 1080, el soporte para la salida HDR tiene los juegos como Oducción, los testigos, los infrarrojos de la ley, el aumento del ascenso de la tumba, el Paragon, el principio de Talos y la sombra guerrera 2. Pero en las cercanas El futuro se espera que reponga esta lista..

Cambios en la representación múltiple SLI

También hubo algunos cambios asociados con la tecnología corporativa de múltiples renderización SLI, aunque nadie esperaba. SLI es utilizado por los entusiastas de los juegos de PC para aumentar el rendimiento o a los valores extremos, configurar las tarjetas de video de un solo chip más potentes en el tándem, o para obtener una velocidad de fotogramas muy alta, lo que limita un par de pareja de nivel medio Soluciones, que a veces cuestan más baratas que una superior (la decisión es controvertida, pero lo hazlo). Si hay monitores 4K, los jugadores casi no tienen otras opciones, excepto la instalación de un par de videocamps, ya que incluso los mejores modelos a menudo no pueden proporcionar un juego cómodo en la configuración máxima en tales condiciones.

Uno de los componentes importantes de NVIDIA SLI son puentes que conectan tarjetas de video en una cura y empleados de video comunes para la organización canal digital Al transferir datos entre ellos. En las tarjetas de video de GeForce, se instalaron tradicionalmente los conectores DUAL SLI, que servían para conectarse entre dos o cuatro tarjetas de video en las configuraciones SLI de tercera y 4 vías. Cada una de las tarjetas de video debe haber estado conectada a cada una, ya que todas las GPU enviadas con ellas en el procesador de gráficos principal, por lo tanto, se necesitaban dos interfaces en cada una de las juntas.

A partir del modelo GeForce GTX 1080, para todas las tarjetas de video NVIDIA en función de la arquitectura Pascal, dos interfaces SLI están conectadas juntas para aumentar el rendimiento de la transmisión de datos entre las tarjetas de video, y un nuevo modo SLI de dos canales le permite mejorar la productividad y Comodidad al mostrar información visual sobre pantallas de muy alta resolución o sistemas multi-componentes.

Para tal modo, se necesitaron nuevos puentes llamados SLI HB. Combinan un par de tarjetas de video GeForce GTX 1080 a la vez en dos canales SLI, aunque las nuevas tarjetas de video también son compatibles con los puentes antiguos. Para la resolución de 1920 × 1080 y 2560 × 1440 píxeles, a una frecuencia de actualización de 60 Hz, puede usar puentes estándar, pero en modos más exigentes (sistemas 4k, 5k y Multonitorial), los mejores resultados en el cambio de marco suave solo proporcionará solo Nuevos puentes, aunque el viejo funcionará, pero algo peor.

Además, cuando se usa SLI HB Bridges, la interfaz de transmisión de datos GeForce GTX 1080 funciona a 650 MHz, en comparación con 400 MHz en los puentes SLI convencionales en las GPU antiguas. Además, para algunos de los puentes antiguos rígidos, también está disponible una mayor frecuencia de transmisión de datos con chips de video de la arquitectura Pascal. Con una creciente tasa de transmisión de datos entre la GPU en una interfaz doble SLI con una mayor frecuencia de trabajo, se proporciona una salida de marco más suave a la pantalla, en comparación con las soluciones anteriores:

También se debe tener en cuenta que el apoyo de la representación múltiple en DirectX 12 es algo diferente de lo que estaba familiarizado anteriormente. En la última versión de la API de gráficos, microsoft. Hacer muchos cambios asociados con el trabajo de dichos sistemas de video. Para los desarrolladores de software en DX12, se encuentran disponibles dos opciones para usar múltiples GPU: modos de adaptador de pantalla múltiple (MDA) y adaptador de pantalla enlazado (LDA).

Además, el modo LDA tiene dos formas: LDA implícito (que NVIDIA usa para SLI) y LDA explícita (cuando el desarrollador del juego asume las tareas de administración de tareas de gestión de la gestión. MDA y los modos de LDA explícitos se han implementado en DirectX 12 para dar Los desarrolladores de juegos son una mayor libertad y oportunidades cuando se utilizan sistemas de video multimreview. La diferencia entre los modos es claramente visible para la siguiente tabla:

En el modo LDA, cada memoria de GPU puede estar asociada con la memoria de otra y se muestra en forma de un volumen total grande, naturalmente, con todas las limitaciones de rendimiento cuando los datos pasan de la memoria de otra persona. En el modo MDA, cada memoria GPU funciona por separado, y las GPU diferentes no pueden obtener acceso directo a los datos de la memoria de otro procesador de gráficos. El modo LDA está diseñado para sistemas de múltiples pures de rendimiento similar, y MDA MODE tiene menos restricciones, y las GPU discretas e integradas, las soluciones discretas con chips de diferentes fabricantes pueden trabajar juntos. Pero este modo también requiere que los desarrolladores se llamen más a los desarrolladores al programar la colaboración para que la GPU intercambie información entre sí.

De forma predeterminada, el sistema SLI basado en los tableros GEFORCE GTX 1080 admite solo dos GPU, y las configuraciones de tres y cuatro tamaños no se recomiendan oficialmente para su uso, como en los Juegos modernos, se vuelve cada vez más difícil garantizar las ganancias de productividad de la adición de la adición de El tercer y cuarto procesador gráfico. Por ejemplo, muchos juegos descansan en oportunidades. procesador central Los sistemas cuando se trabajan con sistemas de video de tipo múltiple, técnicas temporales (temporales) utilizando datos de marcos anteriores se usan cada vez más en nuevos juegos, en los que el funcionamiento efectivo de varias GPU es simplemente imposible.

Sin embargo, la operación de los sistemas en otros sistemas multiméricos (no SLI) sigue siendo posible, como los modos explícitos de MDA o LDA en el sistema SLI de DIRECTX 12 o dos de tipo con una tercera GPU dedicada para los efectos físicos de PHYSX. Pero, ¿qué pasa con los registros en los puntos de referencia, realmente en Nvidia los rechazan en absoluto? No, por supuesto, pero dado que tales sistemas están en demanda en el mundo, casi unidades de usuarios, entonces para tales ultrantusias, se les ocurrió la clave especial de la clave entusiasta, que se puede descargar en el sitio web de NVIDIA y desbloquear esta oportunidad. Para hacer esto, primero debe obtener un identificador de GPU único al ejecutar una aplicación especial, luego solicitar una clave de entusiasta en el sitio web y descargarla, configure la clave del sistema, desbloqueando la configuración SLI de tercera y 4 vías.

Tecnología de sincronización rápida de sincronización

Algunos cambios ocurrieron en las tecnologías de sincronización al mostrar información en la pantalla. Clasificación hacia adelante, nada nuevo no ha aparecido en la sincronización G, ya que no se admite la tecnología de sincronización adaptativa de sincronización adaptativa. Pero en NVIDIA decidió mejorar la suavidad de la producción y la sincronización para juegos que muestran un rendimiento muy alto cuando la velocidad de fotogramas supera significativamente la velocidad de actualización del monitor. Esto es especialmente importante para los juegos que requieren demoras mínimas y una respuesta rápida y en las que se llevan a cabo batallas de multijugador y competencia.

La sincronización rápida es una nueva alternativa a la sincronización vertical, que no tiene artefactos visuales en forma de roturas de la imagen en la imagen y no está vinculada a una frecuencia de actualización fija, lo que aumenta los retrasos. ¿Cuál es el problema de la sincronización vertical en juegos como contra-huelga: ofensiva global? Este juego en una potente GPU moderna funciona con varios cientos de marcos por segundo, y el jugador tiene una opción: incluye la sincronización vertical o no.

En los juegos multijugador, los usuarios más a menudo persiguen los retrasos mínimos y la desconexión VSYNC, obteniendo brechas visibles en la imagen, extremadamente desagradables y en alta velocidad de fotogramas. Si incluye la sincronización vertical, el jugador recibirá un aumento significativo en los retrasos entre sus acciones y la imagen en la pantalla cuando el transportador gráfico se ralentiza a la frecuencia de actualización del monitor.

Así que el transportador tradicional funciona. Pero NVIDIA decidió dividir el proceso de representación y mostrar la imagen a la pantalla con tecnología de sincronización rápida. Esto le permite continuar el trabajo más eficiente para la parte de la GPU, que se dedica a representar marcos a toda velocidad, al tiempo que mantiene estos cuadros en un búfer temporal de última renderizado especial.

Este método le permite cambiar la forma de la pantalla a la pantalla y tomar lo mejor de los modos VSYNC ON y VSYNC OFF al recibir demoras bajas, pero sin artefactos de imagen. Con una sincronización rápida, no hay control de marco, el motor de juego funciona en el modo de modo de sincronización y no dice que espere con el dibujo de la siguiente, por lo tanto, los retrasos son casi tan bajos como el modo VSYNC OFF. Pero como la sincronización rápida selecciona el búfer para que salga a la pantalla y muestra el cuadro completo, entonces no hay roturas de la imagen.

Cuando se trabaja en sincronización rápida, se usan tres buffers diferentes, los dos primeros de los cuales se utilizan de la misma manera que el doble tampón en el transportador clásico. El tampón primario (tampón frontal - FB) es un tampón, información que se muestra en la pantalla, completamente dibujado marco. El búfer secundario (Back Buffer - BB) es un búfer que viene con información durante la representación.

Cuando se utiliza la sincronización vertical en condiciones de alto marco, el juego está esperando el momento de actualizar la información en la pantalla (intervalo de actualización) para intercambiar el búfer principal con el secundario para mostrar la imagen de una pieza en la pantalla. Esto ralentiza el proceso, y agregar buffers adicionales, ya que con el tampón triple tradicional solo agrega un retraso.

Con el uso de sincronización rápida, se agrega el tercer búfer de búfer Último Último rendido (LRB), que se utiliza para almacenar todos los marcos, que acaban de ser procesados \u200b\u200ben el búfer secundario. El nombre del búfer habla por sí mismo, contiene una copia del último marco totalmente re-dibujado. Y cuando vendrá el momento de la actualización del búfer primario, este búfer de LRB se copia a la primaria en su totalidad, y no en partes, como de la secundaria cuando se apaga la sincronización vertical. Dado que la copia de la información de los buffers es ineficiente, simplemente cambian de lugar (o cambió de nombre, ya que será más conveniente de entender), y los nuevos lugares de lógica de cambio de búfer que aparecieron en el GP104 administran este proceso.

En la práctica, la inclusión de un nuevo método de sincronización de sincronización rápida proporciona un retraso ligeramente grande, en comparación con la sincronización vertical completamente deshabilitada, en promedio, 8 ms más, pero muestra marcos en todo el monitor, sin artefactos desagradables en la pantalla que desgarra el imagen. Se puede habilitar un nuevo método de la configuración gráfica del panel de control NVIDIA en la sección Control de sincronización vertical. Sin embargo, el valor predeterminado es la administración de la aplicación, y la sincronización rápida simplemente no se requiere en todas las aplicaciones 3D, es mejor que no sea necesario elegir este método específicamente para juegos FPS altos.

Tecnologías de realidad virtual NVIDIA VRWORKS

Hemos afectado repetidamente al tema candente de la realidad virtual en el artículo, pero se trataba principalmente de aumentar la frecuencia del personal y brindarte demoras bajas, muy importante para la VR. Todo esto es muy importante y el progreso está realmente allí, pero hasta ahora los juegos de VR se parecen lejos de ser muy impresionantes como lo mejor de los juegos 3D modernos "ordinarios". Por lo tanto, resulta no solo porque los desarrolladores de juegos líderes de VR no están particularmente involucrados, sino también debido a las mayores demandas de VR para la tasa de fotogramas, lo que no permite muchas de las técnicas habituales en tales juegos debido a las altas demandas.

Para reducir la diferencia en la calidad entre los juegos de VR y la ordinaria, NVIDIA decidió lanzar un paquete completo de tecnologías de VRRWORKS relevantes, que incluían una gran cantidad de API, bibliotecas, motores y tecnologías que permiten mejorar significativamente la calidad y el rendimiento. Aplicaciones. A medida que pertenece al anuncio de la primera. solución de juego En Pascal? Es muy simple: algunas tecnologías han introducido en ella, ayudando a aumentar la productividad y mejorar la calidad, y ya hemos escrito sobre ellos.

Y aunque se trata de no solo gráficos, primero cuéntame un poco al respecto. El conjunto de tecnología de gráficos de VRWORKS incluye las tecnologías mencionadas anteriormente, como el sombreado coincidente con lentes, utilizando la posibilidad de la posibilidad que aparece en GeForce GTX 1080. La novedad le permite obtener un aumento de productividad de 1.5-2 veces con respecto a las decisiones que no tienen tal apoyo. También mencionamos otras tecnologías, como el sombreado de varios recursos, destinados a representar con una resolución diferente en el centro del marco y en su periferia.

Pero mucho más inesperado fue el anuncio de la tecnología de audio VRRWORKS, diseñada para la CCD de datos de alta calidad en escenas 3D, especialmente importante en los sistemas de realidad virtual. En los motores ordinarios, el posicionamiento de fuentes de sonido en un entorno virtual se calcula bastante correctamente si el enemigo dispara a la derecha, entonces el sonido es más fuerte de este lado del sistema de audio, y este cálculo no es demasiado exigente para la energía de la computación.

Pero en realidad, los sonidos vienen no solo al jugador, sino también en todas las direcciones y se reflejan a partir de varios materiales, similares a cómo se reflejan los rayos de la luz. Y en realidad, escuchamos estos reflejos, aunque no tan claramente como las ondas de sonido rectas. Estas reflexiones de sonido indirectas generalmente se simulan mediante efectos especiales de reverberación, pero este es un enfoque muy primitivo para la tarea.

En el paquete de audio VRWORKS, el error de cálculo de las ondas de sonido es similar al rastreo de rayos cuando se representa cuando la ruta del haz de luz se rastrea a varias reflexiones de los objetos en la escena virtual. VRWORKS AUDIO también imita la propagación de ondas de sonido en el entorno, cuando se monitorean las ondas rectas y reflejadas, dependiendo del ángulo de su caída y las propiedades de los materiales reflexivos. En su trabajo, VRWORKS AUDIO utiliza un motor NVIDIA de alto rendimiento NVIDIA Optix de alto rendimiento diseñado para rastrear rayos de acuerdo con las tareas gráficas. OPTIX se puede utilizar para una variedad de tareas, como el cálculo de la iluminación indirecta y la preparación de las tarjetas de iluminación, y ahora para rastrear las ondas de audio en VRRWORKS AUDIO.

NVIDIA ha incorporado el cálculo exacto de las ondas de sonido en su programa de demostración de funhouse VR, utiliza varios miles de rayos y se calcula hasta 12 reflexiones de los objetos. Y para asignar los beneficios de la tecnología en un ejemplo comprensible, le sugerimos que vea un video sobre el trabajo de la tecnología en ruso:

Es importante que el enfoque NVIDIA difiere de los motores de sonido tradicionales, incluido el hardware acelerado utilizando un bloque especial en el método GPU del competidor principal. Todos estos métodos proporcionan solo un posicionamiento preciso de las fuentes de sonido, pero no calculan el reflejo de las ondas de sonido de los objetos en la escena 3D, aunque pueden simular esto utilizando el efecto de reverberación. Sin embargo, el uso de la tecnología de trazado de rayos puede ser mucho más realista, ya que solo un enfoque de este tipo proporcionará una imitación precisa de varios sonidos, teniendo en cuenta el tamaño, las formas y los materiales de los objetos en la escena. Es difícil decir si se requiere tal precisión para un jugador típico, pero se puede decir con seguridad: en VR, puede agregar a los usuarios a los más realistas, lo que no es suficiente para los juegos habituales.

Bueno, hemos dejado a contar solo sobre la tecnología VR SLI, trabajando en OpenGL y en DirectX. Su principio es extremadamente simple: el sistema de video de dos procesadores en la aplicación VR funcionará para que cada ojo se asija la GPU separada, en contraste con la representación AFR, que es familiar para las configuraciones SLI. Esto mejora en gran medida el rendimiento general, tan importante para los sistemas de realidad virtual. Teóricamente, puede usar más GPU, pero su cantidad debe ser incluso.

Dicho enfoque se requirió porque la AFR es deficiente adecuada para VR, ya que con su ayuda, la primera GPU dibujará un marco uniforme para ambos ojos, y el segundo es impar, lo que no reduce los retrasos, crítico para los sistemas de realidad virtual. Aunque la frecuencia de los marcos será lo suficientemente alta. Entonces, con VR SLI, el trabajo en cada marco se divide en dos GPU: uno funciona en la parte del marco para el ojo izquierdo, el segundo es para la derecha, y luego estos medios marcos se combinan en un todo.

Dicha división de trabajo entre un par de procesadores gráficos trae un crecimiento de rendimiento casi dos veces que le permite elevar la velocidad de fotogramas y reducir los retrasos en comparación con los sistemas basados \u200b\u200ben una tarjeta de video. Es cierto que el uso de VR SLI requiere un soporte especial de la aplicación para usar este método de escalado. Pero la tecnología VR SLI ya está incorporada en aplicaciones de VR de demostración como el laboratorio de la válvula y el tatoíno de ILMXLAB, y esto es solo el comienzo, en NVIDIA, promete la aparición de otras aplicaciones, así como la introducción de tecnología a los motores de juegos irreales del motor 4 , Unidad y maxplay.

Ansel Game Screenshots Plataforma de creación

Uno de los anuncios más interesantes relacionados con el software fue la producción de tecnologías de captura de pantalla de alta calidad en aplicaciones de juegos nombradas por un fotógrafo famoso - Ansel. Los juegos han sido durante mucho tiempo, no solo los juegos, sino también el lugar de aplicación de las manos lúdicas para varias personalidades creativas. Alguien cambia los scripts a los juegos, alguien produce conjuntos de texturas de alta calidad para juegos, y alguien, hace hermosas capturas de pantalla.

NVIDIA ha decidido ayudar a este último, sometiendo una nueva plataforma para crear (es la creación, porque no es un proceso tan simple) imágenes de alta calidad de los juegos. Creen que Ansel puede ayudar a crear un nuevo tipo de arte moderno. Después de todo, ya hay muchos artistas que pasan la mayor parte de la vida de la PC, creando hermosas capturas de pantalla de los juegos, y aún no han tenido una herramienta conveniente para esto.

Ansel le permite no simplemente capturar la imagen en el juego, sino para cambiarla, ya que es necesario crear. Con esta tecnología, puede mover la cámara en el escenario, gire e inclínelo en cualquier dirección para obtener la composición del marco deseada. Por ejemplo, en tales juegos, como los tiradores en primera persona, solo puedes mover el jugador, nada más se cambiará más, por lo que todas las capturas de pantalla son bastante monótonas. Con la cámara libre en Ansel, puede salir de la cámara del juego, elegir un ángulo de este tipo, lo que se necesita para una imagen exitosa, o para capturar un estéreo de 360 \u200b\u200bgrados completo desde el punto deseado y en una alta resolución. Para ver más tarde en el casco VR.

Ansel funciona de manera bastante simple: con una biblioteca especial de NVIDIA, esta plataforma se introduce en el código del juego. Para hacer esto, su desarrollador solo necesita agregar una pequeña pieza de código a su proyecto para permitir que NVIDIA Video Drive intercepte los datos del búfer y los sombreadores. Funciona bastante, la introducción de Ansel en el juego requiere menos de un día para implementar. Entonces, la inclusión de esta oportunidad en el juego, el testigo ocupó aproximadamente 40 filas del código, y en el Witcher 3, aproximadamente 150 líneas de código.

Aparecerá Ansel con un paquete de desarrollo abierto - SDK. Lo principal que el usuario obtiene un conjunto estándar de configuraciones con él, lo que le permite cambiar la posición y el ángulo de la cámara, agregar efectos, etc. La plataforma Ansel funciona así: pone la pausa del juego, incluye una cámara gratuita y Le permite cambiar el marco a la vista deseada, el resultado de grabación en forma de una captura de pantalla regular, una instantánea de 360 \u200b\u200bgrados, pares estéreo o simplemente panoramas de enorme permiso.

La única nota: No todos los juegos recibirán apoyo para todas las características de las capturas de pantalla de Ansel. Algunos de los desarrolladores de juegos por una razón u otra no quieren incluir una cámara totalmente gratuita en sus juegos, por ejemplo, debido a la posibilidad de utilizar esta funcionalidad con los tramposos. O quieren limitar el cambio en el ángulo de revisión por la misma razón, para que nadie haya recibido una ventaja injusta. Bueno, o que los usuarios no ven los sprites miserables en el fondo. Todo esto es bastante los deseos normales de los creadores de los juegos.

Una de las características más interesantes de Ansel es la creación de capturas de pantalla, solo un gran permiso. No importa que el juego admita permisos hasta 4k, por ejemplo, y el monitor del usuario y Full HD. Uso de la plataforma de eliminación de captura de pantalla, puede capturar una imagen de calidad mucho más alta limitada por el volumen y el rendimiento de la unidad. ¡La plataforma captura fácilmente capturas de pantalla con una resolución de hasta 4,5 gigapíxeles, con una costura de ellos de 3,600 piezas!

Está claro que en tales imágenes puede considerar todos los detalles, hasta el texto en los periódicos que se encuentran, si se proporciona un nivel de detalle en principio en el juego, Ansel es capaz de administrar y nivelar el nivel de detalle, Exponer el nivel máximo para obtener la mejor imagen de calidad. Pero todavía puedes encender la super presentación. Todo esto le permite crear imágenes de juegos que se pueden escribir de manera segura en grandes pancartas y estar tranquilas para su calidad.

Curiosamente, un código acelerado de hardware especial basado en CUDA se utiliza para coser imágenes grandes. Después de todo, ninguna tarjeta de video no podrá desacelerar una imagen de varios días del todo, pero puede hacerlo en piezas que solo necesita combinar posteriormente, dada la posible diferencia en la iluminación, el color y otras cosas.

Después de coser tales panoramas, se utiliza un post-procesamiento especial para todo el marco, también acelerado en la GPU. Y para capturar imágenes en un amplio rango dinámico, puede usar un formato de imagen especial, EXR, un estándar abierto de la luz industrial y la magia, los valores de color en cada canal de los cuales se registran en un formato de punto flotante de 16 bits ( FP16).

Este formato le permite cambiar el brillo y el rango dinámico de la imagen por el procesamiento posterior, lo que lo lleva a la pantalla deseada de la misma manera que se realiza con formatos raig de la cámara. Sí, y para el uso posterior de los filtros de post-procesamiento en programas de procesamiento de imágenes, este formato es muy útil, ya que contiene muchos más datos que los formatos habituales para las imágenes.

Pero la plataforma ANSEL y la misma contiene muchos filtros para el procesamiento posterior, lo cual es especialmente importante porque tiene acceso no solo a la imagen final, sino también a todos los búferes utilizados por el juego cuando se puede utilizar, lo que se puede usar para efectos muy interesantes, Como la profundidad del campo. Para hacer esto, Ansel tiene una API especial para el procesamiento posterior, y cualquiera de los efectos se puede incluir en el juego con soporte para esta plataforma.

Los filtros de correos Ansel incluyen filtros similares como: Curvas de color, espacio de color, transformación, desaturación, brillo / contraste, grano de película, flor, destello de lente, deslumbramiento anamórfico, distorsión, heathaze, pezreye, aberración de color, mapeo de tonos, suciedad de lentes, bordes de luz , Viñeta, corrección gamma, convolución, afilado, detección de bordes, desenfoque, sepia, denoise, fxaa y otros.

En cuanto a la aparición de apoyar a Ansel en juegos, entonces tendrá que esperar un poco mientras los desarrolladores serán implementados y probados. Pero NVIDIA promete el surgimiento de tal apoyo en juegos tan famosos como la División, el testigo, los infraclas de la ley, el Witcher 3, Paragon, Fortnite, Oducción, Sky Sky, Unreal Toernament y otros.

El nuevo proceso tecnológico de 16 NM Finfet y la optimización de la arquitectura permitió la tarjeta de video GeForce GTX 1080 basada en el procesador de gráficos GP104, para lograr una alta frecuencia de reloj de 1.6-1.7 GHz, incluso en forma de referencia, y trabajar en las frecuencias máximas en los juegos. Garantiza una nueva generación. GPU Boost Technology. Junto con un mayor número de bloques ejecutivos, estas mejoras hicieron una novedad, no solo la tarjeta de video de pureza única de mayor rendimiento para todo el tiempo, sino también la solución más eficiente en la energía del mercado.

El modelo GeForce GTX 1080 se ha convertido en la primera tarjeta de video que lleva un nuevo tipo de memoria gráfica GDDR5x, una nueva generación de chips de alta velocidad, lo que hizo posible lograr una frecuencia de transmisión de datos muy alta. En el caso de la modificación de GeForce GTX 1080, este tipo de memoria funciona a una frecuencia efectiva de 10 GHz. En combinación con los algoritmos de compresión de información mejorados en el framebuple, esto llevó a un aumento en el ancho de banda de memoria efectivo para este procesador de gráficos en 1.7 veces, en comparación con el predecesor directo a la cara de GeForce GTX 980.

NVIDIA ha decidido prudentemente no liberar una arquitectura radicalmente nueva en un proceso técnico completamente nuevo para sí mismo para no encontrar problemas adicionales en el desarrollo y la fabricación. En su lugar, se mejoraron seriamente y tan buena y muy efectiva la arquitectura Maxwell, agregando algunas posibilidades. Como resultado, con la producción de nueva GPU, todo está bien, y en el caso del modelo GEFORCE GTX 1080, los ingenieros han logrado un potencial de frecuencia de muy alta frecuencia, en opciones overclocked de socios, se espera que la frecuencia de la GPU hasta 2 se espera hasta 2 ¡Ghz! Una frecuencia tan impresionante se ha vuelto real gracias al proceso perfecto y al trabajo minucioso de los ingenieros de NVIDIA al desarrollar un procesador de gráficos Pascal.

Y aunque Pascal se ha convertido en un seguidor directo del caso de Maxwell, y estas arquitecturas gráficas se basan en su propia parte diferente entre sí, NVIDIA ha introducido muchos cambios y mejoras, incluso en la capacidad de mostrar imágenes en pantallas, codificar motor y video Motor de decodificación, mejorado asíncrono La ejecución de varios tipos de cálculos en la GPU, realizó cambios en la representación multimele e implementó un nuevo método de sincronización de sincronización rápida.

Es imposible no resaltar la tecnología multiprotección simultánea de múltiples proyecciones, lo que ayuda a aumentar la productividad en los sistemas de realidad virtual, obtener una visualización más correcta de escenas en sistemas multinomucares e implementa nuevas técnicas de optimización de rendimiento. Pero el mayor aumento de la velocidad recibirá una solicitud de VR cuando se admite la tecnología de multiprotación, lo que ayuda a guardar los recursos de GPU al procesar datos geométricos y una hora y media, con computación de píxeles.

Entre los cambios de software puro, la plataforma se resalta particularmente para crear capturas de pantalla en juegos llamados Ansel, inténtelo en el caso, será interesante no solo para jugar, sino también interesado en gráficos 3D de alta calidad. La novedad le permite promover el arte de crear y retocar capturas de pantalla en nuevo nivel. Bueno, tales sus paquetes para los desarrolladores de juegos, como los gamores y los vrworks, NVIDIA simplemente continúa mejorando paso a paso, por lo que, en este último, hubo una posibilidad interesante de una tarjeta de sonido de sonido de alta calidad, teniendo en cuenta numerosas reflexiones de ondas de sonido. Usando un rastro de hardware de rayos.

En general, en forma de una tarjeta de video NVIDIA GEFORCE GTX 1080, se ha publicado un verdadero líder al mercado, teniendo en cuenta todas las cualidades necesarias para esto: alto rendimiento y amplia funcionalidad, así como apoyo para nuevas características y algoritmos. Los primeros compradores de esta tarjeta de video podrán evaluar muchas de estas ventajas de inmediato, y otras posibilidades de soluciones revelarán un poco más tarde, cuando haya un amplio apoyo del software. Lo principal es que el GeForce GTX 1080 resultó ser muy rápido y eficiente, y algunos de los lugares problemáticos (los mismos cálculos asíncronos), ya que esperamos que NVIDIA lograra arreglar.

Acelerador de gráficos GEFORCE GTX 1070

ParámetroValor
CHIP DE NOMBRE DE CÓDIGO.GP104.
Producción tecnológica16 NM FINFET.
Número de transistores7.2 mil millones
Núcleo cuadrado314 mm²
ArquitecturaUnificado, con una matriz de procesadores comunes para transmitir los numerosos tipos de datos: vértices, píxeles, etc.
Soporte de hardware DirectXDirectX 12, con soporte para el nivel de entidad 12_1
Autobús de la memoria.256 bits: ocho controladores de memoria independientes de 32 bits con soporte para GDDR5 y memoria GDDR5X
Frecuencia de procesador gráfico.1506 (1683) MHz
Bloques informáticos15 activos (a partir de 20 en chip) que transmiten multiprocesadores que comprenden 1920 (de 2560) alu escalar para cálculos de puntos flotantes bajo la norma IEEE 754-2008;
Bloques de textura120 Activo (fuera de 160 en chip) Bloques de dirección de textura y filtrado con soporte de componentes FP16- y FP32 en texturas y soporte para filtrado trilineal y anisotrópico para todos los formatos texturales
Bloques de operaciones ráster (ROP)8 bloques de rop anchos (64 píxeles) con el soporte de varios modos de suavizado, incluidos programables y en formato FP16 o FP32. Los bloques consisten en una matriz de ALU configurable y son responsables de la comparación de generación y profundidad, multiseleo y mezcla
Soporte de monitoreoSoporte integrado para hasta cuatro monitores conectados a interfaces DVI de doble enlace, HDMI 2.0B y DisplayPort 1.2 (1.3 / 1.4 listo)

Especificaciones de la tarjeta de video de referencia GeForce GTX 1070
ParámetroValor
Frecuencia de núcleo1506 (1683) MHz
Número de procesadores universales.1920
Número de bloques texturales120
Número de bloques de lluvia64
Frecuencia de memoria efectiva8000 (4 × 2000) MHz
Tipo de memoriaGddr5
Autobús de la memoria.256 bits
Tamaño de la memoria8 GB
Ancho de banda de memoria256 GB / s
Rendimiento computacional (FP32)alrededor de 6.5 teraflops
Velocidad toral máxima teórica.96 gigapíxeles / con
Texturas teóricas de muestreo de muestreo181 gigatexels / con
NeumáticoPCI Express 3.0
ConectoresUn conector DVI de doble enlace, un HDMI y tres Pantalla
Consumo de energíahasta 150 W.
Comida adicionalUn conector de 8 pines
El número de tragamonedas ocupadas en el caso del sistema.2
Precio recomendado$ 379-449 (EE. UU.), 34 990 (Rusia)

La tarjeta de video GeForce GTX 1070 también recibió un nombre lógico similar a la misma solución de la serie GeForce anterior. Se diferencia de su predecesor directo GeForce GTX 970 solo una generación modificada. La novedad se convierte en la línea actual de la compañía a pisar la siguiente solución actual GeForce GTX 1080, que se ha convertido en un buque insignia temporal de la nueva serie a la liberación de soluciones en la GPU aún mayor.

Los precios recomendados para las nuevas festivos de video nvidia son de $ 379 y $ 449 para las versiones habituales de NVIDIA Partners y una edición especial de Fundadores Edition, respectivamente. En comparación con el modelo superior, es muy buen precio Teniendo en cuenta el hecho de que GTX 1070 es inferior a ella alrededor del 25% en el peor de los casos. Y en el momento del anuncio y la liberación del GTX 1070 se convierte en la mejor solución en su clase. Al igual que el GeForce GTX 1080, el modelo GTX 1070 no tiene competidores directos de AMD, y es posible compararlo, excepto con Radeon R9 390x y Fury.

El procesador de gráficos GP104 en la modificación GeForce GTX 1070 decidió dejar un bus de memoria completo de 256 bits, aunque no aplicó un nuevo tipo de memoria GDDR5X, sino GDDR5 muy rápido, que funciona a una frecuencia de alta eficiencia de 8 GHz. La cantidad de memoria montada en una tarjeta de video con un neumático de este tipo puede ser de 4 u 8 GB, y para proporcionar productividad máxima Una nueva solución En las condiciones de altas configuraciones y resoluciones de reproducción, el modelo de tarjeta de video GeForce GTX 1070 también estaba equipado con 8 GB de memoria de video, así como a su hermana mayor. Este volumen es suficiente para iniciar cualquier aplicación 3D con la configuración de máxima calidad durante varios años.

Edición especial GeForce GTX 1070 FOUNDERS Edición

Con el anuncio de GeForce GTX 1080 a principios de mayo, una edición especial de la tarjeta de video llamada Founder Edition, que tiene un precio más alto, en comparación con las tarjetas de video convencionales de los socios de la compañía. Lo mismo se aplica a la novedad. En este material, volveremos a contarle la edición especial de la tarjeta de video GeForce GTX 1070 llamada FOUNDERS Edition. Como en el caso del modelo anterior, NVIDIA decidió publicar esta versión de la tarjeta de video de referencia del fabricante a un precio más alto. Argumentan que muchos jugadores y entusiastas que compran tarjetas de video de nivel superior caras quieren un producto con una especie "premium" correspondiente y la sensación de ella.

En consecuencia, es precisamente para tales usuarios en el mercado, se publicará la tarjeta de video de Fundadores GeForce GTX 1070 FOUNDERS, que está diseñada y realizada por ingenieros de NVIDIA desde materiales y componentes de primera calidad, como la cubierta de la edición de los fundadores de aluminio GeForce GTX 1070, como así como una placa trasera de bajo perfil, cubriendo el lado de la raíz de la placa de circuito impreso y bastante popular entre los entusiastas.

Como puede ver en las fotografías de la junta, GeForce GTX 1070 Founders Edition heredó exactamente el mismo diseño industrial inherente a la versión de referencia de GeForce GTX 1080 FOUNDERS EDITION. En ambos modelos, se usa un ventilador radial, eliminando el aire caliente hacia afuera, lo que es muy útil tanto en casos pequeños como en configuraciones de SLI multimeril con espacio físico limitado. Soplando el aire caliente al exterior en lugar de su circulación dentro de la caja reduce la carga de la temperatura, aumente los resultados del overclocking y extienda la vida útil de los componentes del sistema.

Bajo la cubierta del sistema de enfriamiento de referencia, el GeForce GTX 1070 está oculto por un radiador en forma especial de aluminio con tres tubos de calor incorporados del cobre, eliminando el calor del propio procesador de gráficos. Calor asignado por tubos de calor, luego se disipa con un radiador de aluminio. Bueno, la placa de metal de bajo perfil en la parte posterior de la placa también está diseñada para proporcionar mejores características de temperatura. También tiene una sección retráctil para un mejor movimiento de aire entre múltiples tarjetas de video en configuraciones SLI.

En cuanto al sistema de suministro de energía, la edición de los fundadores GeForce GTX 1070 tiene un sistema de nutrición de cuatro fases optimizado para un suministro de energía estable. NVIDIA garantiza que el uso de componentes especiales en la edición de los fundadores GTX 1070 hizo posible aumentar la eficiencia de la fuente de alimentación, la estabilidad y la confiabilidad en comparación con GeForce GTX 970, lo que proporciona un mejor rendimiento durante la aceleración. En sus propias pruebas de la empresa, las tarjetas GeForce GTX 1070 son fácilmente superiores a 1.9 GHz, que están cerca de los resultados del modelo GTX 1080 anterior.

La tarjeta de video NVIDIA GEFORCE GTX 1070 estará disponible en tiendas minoristas a partir del 10 de junio. PRECIOS RECOMENDADOS PARA GEFORCE GTX 1070 FOODERS Edición y soluciones de socios son diferentes, y esta es la pregunta más importante para esta publicación especial. Si Nvidia Partners está vendiendo sus tarjetas de video GeForce GTX 1070 a un precio, desde $ 379 (en el mercado estadounidense), la edición de los fundadores del diseño de referencia NVIDIA costará $ 449. ¿Hay muchos entusiastas, listos para sobrepasar, por ejemplo, directamente y dudosas ventajas de la opción de referencia? El tiempo le dirá, pero creemos que la tarifa de referencia es más interesante como una opción disponible para la compra al principio de las ventas, y luego el significado de su adquisición (¡incluso por un precio grande!) Ya se reduce a cero.

Queda por agregar eso placa de circuito impreso La referencia GeForce GTX 1070 es similar a la de la tarjeta de video anterior y ambas diferidas de las juntas anteriores de la compañía. El valor de la innovación típica de la novedad es de 150 W, que es menor que el valor para GTX 1080 en casi un 20% y cerca del consumo de energía de la generación anterior GeForce GTX 970. La tarjeta de referencia NVIDIA tiene un conjunto ya familiar de conectores. Para adjuntar los dispositivos de salida de la imagen: un DVI dual-Link, una HDMI y tres Pantalla. Además, apareció el apoyo de nuevas versiones de HDMI y DisplayPort, que escribimos sobre la descripción general del modelo GTX 1080.

Cambios arquitectónicos

La tarjeta de video GeForce GTX 1070 se basa en el chip GP104, el primer lecho de la nueva generación de la arquitectura de NVIDIA Gráficos - Pascal. Esta arquitectura se basó en una solución que aún se gastaba en Maxwell, pero también tiene algunas diferencias funcionales sobre las que escribimos en detalle en detalle, en la parte dedicada a la Topboard GeForce GTX 1080 Tarjeta de video.

El principal cambio en la nueva arquitectura fue el proceso tecnológico en el que se realizarán todos los nuevos procesadores gráficos. La aplicación del proceso técnico de 16 NM FINFET en la producción de GP104 hizo posible aumentar significativamente la complejidad del chip mientras se mantiene el área y el costo comparativamente bajos, y el primer chip de arquitectura Pascal tiene una notificable más bloques ejecutivos, incluida la provisión. Nueva funcionalidad, en comparación con Maxwell Chips de posicionamiento similar.

El chip de video GP104 en su dispositivo es similar a soluciones similares de la arquitectura de Maxwell y datos detallados en el dispositivo de las GPU modernas que puede encontrar en nuestras reseñas de las soluciones anteriores de NVIDIA. Al igual que los procesadores de gráficos anteriores, los nuevos chips de arquitectura tendrán una configuración diferente del clúster de clúster de clúster de clúster de procesamiento de gráficos, transmitiendo multiprocesadores de transmisión multiprocesador (SM) y controladores de memoria, y en GeForce GTX 1070 ya se han producido algunos cambios: parte del chip tiene Ha sido bloqueado e inactivo (gris resaltado):

Aunque el procesador de gráficos GP104 incluye cuatro grupos GPC y 20 multiprocesadores SM, en la versión para GeForce GTX 1070, recibió una modificación recortada con hardware deshabilitado por un clúster GPC. Dado que cada clúster GPC tiene un motor de rasterización dedicado e incluye cinco multiprocesadores SM, y cada multiprocesador consta de 128 bloques de textura Cuda-núcleos y ocho TMU, luego en esta versión de los bloques de Cuda-Núcleo de 1920 GP104 1920 y 120 bloques TMU de 2560 procesadores de transmisión y 160 bloques texturales existentes físicamente.

El procesador de gráficos, que se basa en la tarjeta de video Geforce GTX 1070, contiene ocho controladores de memoria de 32 bits que ofrecen un bus de memoria total de 256 bits, exactamente como en el caso del modelo GTX 1080 anterior. El subsistema de memoria no ha sido recortado para garantizar una memoria de ancho de banda suficientemente alta con la condición de usar la memoria GDDR5 en GEFORCE GTX 1070. Para cada uno de los controladores de memoria se vincula a ocho bloques de rop y 256 kb de la memoria caché de segundo nivel, por lo que el chip GP104 y en este La modificación también contiene 64 ROP y 2048 KB de nivel de bloques de memoria de efectivo.

Gracias a las optimizaciones arquitectónicas y un nuevo proceso, el procesador de gráficos GP104 se ha convertido en el procesador de gráficos más eficiente en la energía en este momento. Los ingenieros de NVIDIA pudieron aumentar la frecuencia del reloj más de lo que calcularon al cambiar a un nuevo proceso técnico, para el cual tuvieron que trabajar bien, verificar y optimizar completamente todos los cuellos de botella de soluciones anteriores que no les permiten trabajar a una frecuencia más alta. . En consecuencia, GeForce GTX 1070 también funciona a una frecuencia muy alta, más del 40% más alta que los valores de referencia para GeForce GTX 970.

Dado que el modelo GEFORCE GTX 1070 está, en esencia, solo un GTX 1080 ligeramente menos productivo con la memoria GDDR5, respalda absolutamente todas las tecnologías descritas por nosotros en la sección anterior. Para obtener más detalles sobre la arquitectura de Pascal, así como respaldados por tecnologías de TI, como los bloques mejorados de los datos de video y el procesamiento de los datos de la producción, el soporte para la computación asíncrona, el cómputo, la tecnología de multiprocesamiento múltiple simultánea, los cambios en la representación múltiple SLI y una Nuevo tipo de sincronización de sincronización rápida, vale la pena familiarizarse con la sección GTX 1080.

Memoria GDDR5 de alto rendimiento y su uso eficiente

Por encima escribimos sobre los cambios en el subsistema de memoria en el procesador de gráficos GP104, que se basa en los modelos GEFORCE GTX 1080 y GTX 1070: los controladores de memoria en la composición de esta GPU se mantienen como un nuevo tipo de memoria de video GDDR5X, que es Escrito en detalle en la revisión GTX 1080. Y la vieja buena memoria GDDR5, conocida por varios años.

Para no perder demasiado en el ancho de banda de memoria en el modelo más joven GTX 1070 en comparación con el GTX 1080 más antiguo, se dejó activos en los ocho controladores de memoria de 32 bits, habiendo recibido una interfaz de memoria de video común de 256 bits. Además, la tarjeta de video estaba equipada con la memoria GDDR5 de mayor velocidad, que solo estaba disponible en el mercado, con una frecuencia de trabajo efectiva de 8 GHz. Todo esto proporcionado PSPS en 256 GB / s, a diferencia de 320 Gb / s en una solución principal, aproximadamente la misma cantidad y se cortaron las capacidades computacionales, por lo que se observó el saldo.

No olvide que aunque el ancho de banda teórico máximo es importante para el desempeño de los procesadores gráficos, debe prestar atención a la efectividad de su uso. En el proceso de representación, muchos cuellos de botella diferentes pueden limitar el rendimiento general sin dejar el uso de todos los PSP disponibles. Para minimizar el número de asientos estrechos, los procesadores de gráficos utilizan una compresión especial de información sin pérdida, mejorando la eficiencia de las operaciones de lectura y escritura.

En la arquitectura Pascal, se introdujo la cuarta generación de la compresión de la información del tampón delta, lo que le permitió a la GPU usar las capacidades de neumáticos de memoria de video disponibles. El subsistema de memoria en GeForce GTX 1070 y GTX 1080 utiliza técnicas de compresión de datos antiguas y varias nuevas sin pérdida, diseñadas para reducir los requisitos para la PSP. Esto reduce la cantidad de datos registrados en la memoria, mejora la eficiencia de usar la memoria caché L2 y reduce la cantidad de datos enviados entre diferentes puntos de GPU, como TMU y Freimbuple.

Características de GPU Boost 3.0 y aceleración.

La mayoría de los socios de NVIDIA ya han anunciado las decisiones de fábrica basadas en GeForce GTX 1080 y GTX 1070. Y muchos de los fabricantes de tarjetas de video también crean utilidades especiales de overclocking para usar la nueva funcionalidad de tecnología GPU Boost 3.0. Un ejemplo de tales utilidades es Evga Precision XOC, que incluye escáner automático Para determinar la curva de la relación de voltajes y frecuencias, en este modo para cada uno de los valores de voltaje iniciando la prueba de estabilidad, existe una frecuencia estable en la que la GPU proporciona un crecimiento de productividad. Sin embargo, esta curva se puede cambiar manualmente.

Sabemos la tecnología GPU Boost en las tarjetas de video NVIDIA anterior. En sus procesadores gráficos, utilizan esta función de hardware destinada a aumentar la frecuencia del reloj de trabajo GPU en los modos cuando aún no ha alcanzado el consumo de energía y los límites de liberación de calor. En los procesadores gráficos de Pascal, este algoritmo ha sufrido varios cambios, la principal de los cuales se ha convertido en una instalación más sutil de frecuencias turbo, dependiendo del voltaje.

Si antes, la diferencia entre la frecuencia base y la frecuencia turbo se fijó, entonces en la GPU Boost 3.0 fue posible instalar los desplazamientos de frecuencia de turbo para cada voltaje por separado. Ahora se puede instalar la frecuencia turbo para cada uno de los valores de voltaje individuales, lo que le permite exprimir completamente todas las posibilidades de overclocking de la GPU. Escribimos en detalle sobre esta oportunidad en revisión de GeForce GTX 1080, y para esto puede usar las utilidades Evga Precision XOC y MSI Afterburner..

Dado que en el método de overclocking con la liberación de tarjetas de video con el soporte de la GPU BOOST 3.0, algunos detalles han cambiado, NVIDIA ha tenido que hacer explicaciones adicionales en las instrucciones para sobrecargar nuevos productos. Existen diferentes técnicas de aceleración con varias variables que afectan el resultado final. Para cada sistema específico, puede ser mejor acercarse a un método particular, pero la base siempre es la misma.

Muchos de los overclockers para verificar la estabilidad del sistema, use el punto de referencia Unigine Heaven 4.0, que carga perfectamente el procesador de gráficos con el trabajo, tiene ajustes flexibles y se puede ejecutar en el modo de ventana con la ventana Utilidad para el overclocking y el monitoreo cercano, como EVGA. Precisión o MSI Afterburner. Sin embargo, tal inspección es suficiente solo para los ataques iniciales, y para una fuerte confirmación de la estabilidad del overclocking, debe verificarse en varias aplicaciones de juego, porque diferentes juegos sugieren una carga diferente en varios bloques funcionales de la GPU: matemáticas, texturales, geométricas . El punto de referencia del cielo 4.0 también es conveniente para la tarea de overclocking porque tiene un modo de operación de matraz en el que es conveniente cambiar la configuración de overclocking y hay un punto de referencia para evaluar la velocidad de la velocidad.

NVIDIA aconseja al overclocking New GeForce GTX 1080 y GTX 1070 Tarjetas de video para ejecutar el cielo 4.0 y Evga Precision Xoc Windows juntos. Primero, es recomendable aumentar inmediatamente la velocidad de rotación del ventilador. Y para un overclocking serio, puede establecer inmediatamente el valor de la velocidad en un 100%, lo que hará que la tarjeta de video funcione con una forma muy alta, pero la máxima enfriamiento de la GPU y los componentes restantes de la tarjeta de video, reduciendo la temperatura a El nivel más bajo posible, evitando la trotación (reducción de frecuencias debido al crecimiento de la temperatura de la GPU por encima de un cierto valor).

A continuación, debe instalar el valor de alimentación de destino (Power Destale) también es máximo. Esta configuración proporcionará un procesador gráfico con la cantidad máxima posible de energía, lo que aumentará el nivel de consumo de energía y la temperatura de la GPU de destino (objetivo TEMP GPU). Para algunos propósitos, el segundo valor se puede separar del cambio de objetivo de potencia, y luego estas configuraciones se pueden configurar individualmente, para lograr un calentamiento más pequeño del chip de video, por ejemplo.

El siguiente paso es aumentar el valor de la ganancia de frecuencia de Video Chip (Desplazamiento de reloj GPU): significa que es la gran frecuencia de turbo al funcionar. Este valor aumenta la frecuencia para todos los valores de voltaje y conduce a un mayor rendimiento. Como de costumbre, cuando el overclockee, debe verificar la estabilidad al aumentar la frecuencia de la GPU en pequeños pasos, desde 10 MHz a 50 MHz, un paso antes de que esté colgando, error de conductor o aplicación o incluso artefactos visuales. Cuando se alcanza tal límite, es necesario reducir el valor de frecuencia para renunciar y verificar la estabilidad y el rendimiento al overclocking.

Además de la frecuencia de la GPU, también puede aumentar la frecuencia de la memoria de video (Desplazamiento del reloj de memoria), que es especialmente importante en el caso de GeForce GTX 1070 equipado con memoria GDDR5, que generalmente se acelera bien. El proceso en el caso de la frecuencia de la memoria se repite exactamente, lo que se está realizando al encontrar una frecuencia de GPU estable, la única diferencia es que los pasos se pueden hacer más grandes, para agregar 50-100 MHz a la vez a la frecuencia base.

Además de los pasos descritos anteriormente, puede aumentar el límite de voltaje (sobretensión), ya que la frecuencia más alta del procesador de gráficos a menudo se logra con un mayor voltaje cuando funciona partes inestables de la GPU reciben energía adicional. Es cierto que la desventaja potencial de este valor es la posibilidad de dañar el chip de video y la falla acelerada, por lo que es necesario usar un voltaje con extrema precaución.

Los amantes del overclocking usan varias técnicas diferentes, cambiando parámetros en orden diferente. Por ejemplo, algunos overclockers comparten experimentos en la búsqueda de una frecuencia y una memoria estable de GPU para que no se interfieran entre sí, y luego prueben el overclocking y los chips de video combinados y chips de memoria, pero estos son detalles irrelevantes de un enfoque individual.

A juzgar por las opiniones en los foros y comentarios a los artículos, algunos usuarios no parecían degustar el nuevo algoritmo de GPU Boost 3.0, cuando la frecuencia de la GPU disminuye por primera vez muy alta, a menudo más alta que la frecuencia turbo, pero luego, bajo la influencia de Temperatura de GPU o aumento del consumo de energía por encima del límite, puede caer a valores significativamente más pequeños. Esto es simplemente los específicos del algoritmo actualizado, debe acostumbrarse al nuevo comportamiento de la frecuencia de GPU que cambia dinámicamente, pero no tiene ninguna consecuencia negativa.

La tarjeta de video GeForce GTX 1070 se ha convertido en el segundo después del modelo GTX 1080 en la nueva línea de NVIDIA, según los procesadores de gráficos Pascal. El nuevo proceso tecnológico de 16 NM FINFET y la optimización de la arquitectura permitieron que la tarjeta de video representaba para lograr una alta frecuencia de reloj, en la que ayuda a la nueva generación de tecnología de impulso GPU. Incluso a pesar de la cantidad recortada de bloques funcionales en forma de procesadores de transmisión y módulos texturales, su número sigue siendo suficiente para que GTX 1070 se convierta en la solución más rentable y eficiente en energía.

Instalación para los modelos más jóvenes de los modelos lanzados de tarjetas de video NVIDIA en el chip GDDR5 Memory GP104 GP104, a diferencia de un nuevo tipo GDDR5x, que se caracteriza por GTX 1080, no le impide que logre indicadores de alto rendimiento. Primero, NVIDIA decidió no reducir el bus de memoria del modelo GeForce GTX 1070, y en segundo lugar, se instaló en ello la memoria GDDR5 más rápida con una frecuencia efectiva de 8 GHz, que está justo debajo de 10 GHz en el modelo mayor GDDR5X. Teniendo en cuenta los algoritmos de compresión de Delta mejorados, la capacidad efectiva del ancho de banda del procesador de gráficos se ha vuelto por encima del mismo parámetro en un modelo similar de la generación anterior GeForce GTX 970.

GeForce GTX 1070 es bueno porque ofrece un rendimiento y apoyo muy alto para nuevas características y algoritmos a un precio significativamente menor, en comparación con el modelo anterior anunciado un poco antes. Si la adquisición de GTX 1080 por 55,000 para ellos mismos puede permitir las unidades de los entusiastas, luego establecen 35,000 por solo un trimestre, una decisión menos productiva, sin problemas con las mismas oportunidades ya puede tener una gama mucho mayor de compradores potenciales. Es una combinación de un precio relativamente bajo y alto rendimiento, GeForce GTX 1070, quizás, la adquisición más rentable en el momento de su liberación.

Acelerador gráfico GEFORCE GTX 1060

ParámetroValor
CHIP DE NOMBRE DE CÓDIGO.GP106.
Producción tecnológica16 NM FINFET.
Número de transistores4.4 mil millones
Núcleo cuadrado200 mm²
ArquitecturaUnificado, con una matriz de procesadores comunes para transmitir los numerosos tipos de datos: vértices, píxeles, etc.
Soporte de hardware DirectXDirectX 12, con soporte para el nivel de entidad 12_1
Autobús de la memoria.192 bit: seis controladores de memoria independientes de 32 bits con soporte de memoria GDDR5
Frecuencia de procesador gráfico.1506 (1708) MHz
Bloques informáticos10 multiprocesadores de transmisión que comprenden 1280 alu escalar para semiconos flotantes dentro del estándar IEEE 754-2008;
Bloques de textura80 bloques de dirección de textura y filtrado con soporte de componentes FP16- y FP32 en texturas y soporte para filtrado trilíneo y anisotrópico para todos los formatos texturales
Bloques de operaciones ráster (ROP)6 bloques de rop anchos (48 píxeles) con el soporte de varios modos de suavizado, incluidos programables y en formato de tampón de cuadros FP16 o FP32. Los bloques consisten en una matriz de ALU configurable y son responsables de la comparación de generación y profundidad, multiseleo y mezcla
Soporte de monitoreoSoporte integrado para hasta cuatro monitores conectados a interfaces DVI de doble enlace, HDMI 2.0B y DisplayPort 1.2 (1.3 / 1.4 listo)

Especificaciones de la tarjeta de video de referencia GeForce GTX 1060
ParámetroValor
Frecuencia de núcleo1506 (1708) MHz
Número de procesadores universales.1280
Número de bloques texturales80
Número de bloques de lluvia48
Frecuencia de memoria efectiva8000 (4 × 2000) MHz
Tipo de memoriaGddr5
Autobús de la memoria.192 bits
Tamaño de la memoria6 GB
Ancho de banda de memoria192 GB / s
Rendimiento computacional (FP32)alrededor de 4 teraflops.
Velocidad toral máxima teórica.72 gigapíxeles / con
Texturas teóricas de muestreo de muestreo121 gigatexels / con
NeumáticoPCI Express 3.0
ConectoresUn conector DVI de doble enlace, un HDMI y tres Pantalla
Consumo de energía típico120 W.
Comida adicionalUn conector de 6 pines
El número de tragamonedas ocupadas en el caso del sistema.2
Precio recomendado$ 249 ($ 299) en los Estados Unidos y 18,990 en Rusia

La tarjeta de video GeForce GTX 1060 también recibió el nombre similar a la misma solución de la serie GeForce anterior, difiriendo desde el nombre de su predecesor directo de GeForce GTX 960, solo una generación de primer dígito cambiada. La novedad se ha convertido en la línea actual de la compañía a pasar por debajo de las soluciones GeForce GTX 1070, que se liberaron anteriormente, que es la velocidad promedio en la nueva serie.

Los precios recomendados para una nueva compañía de tarjetas de video NVIDIA son de $ 249 y $ 299 para las versiones habituales de los socios de la compañía y para una edición especial de la edición fundadora, respectivamente. En comparación con dos modelos senior, este es un precio muy favorable, ya que el nuevo modelo GTX 1060 es menos inferior a los mejores pagos, pero no tanto como es más barato. En el momento del anuncio, la novedad se convirtió perfectamente en lo mejor en términos de desempeño en su clase y una de las ofertas más rentables en este rango de precios.

Este modelo de tarjeta de video de la familia NVIDIA de la familia NVIDIA ha salido a contrarrestar la última solución de la Compañía de la AMD, que un poco antes lanzó el mercado de Radeon Rx 480. Para comparar la novela de NVIDIA con esta tarjeta de video, aunque es No enteramente directamente diferente, ya que todavía son bastante diferentes en el precio.. GeForce GTX 1060 es más caro ($ 249-299 contra $ 199-229), pero obviamente un competidor rápidamente.

El procesador de gráficos GP106 tiene un bus de memoria de 192 bits, por lo que la cantidad de memoria montada en una tarjeta de video con un neumático de este tipo puede ser de 3 o 6 GB. Poco valor en las condiciones modernas es, francamente, no es suficiente, y muchos proyectos de juego incluso en la resolución completa de HD se basarán en la escasez de memoria de video, lo que afectará seriamente la suavidad de la reproducción. Para garantizar el máximo rendimiento de una nueva solución en configuraciones altas, el modelo de tarjeta de video GeForce GTX 1060 estaba equipado con 6 GB de memoria de video, que es suficiente para iniciar cualquier aplicación en 3D con cualquier configuración de calidad. Además, hoy simplemente no hay diferencia entre 6 y 8 GB, y algo de dinero guardará una solución de este tipo.

El valor de la innovación típica para la novedad es de 120 W, que es menor que el valor para GTX 1070 en un 20% e igual al consumo de energía de la tarjeta de video GeForce GTX 960 de GeForce GTX 960, que tiene mucho menos rendimiento y capacidades. La placa de referencia tiene un conjunto familiar de conectores para adjuntar un dispositivo de salida de imagen: un DVI Dual-Link, una HDMI y tres Pantalla. Además, aparecieron las nuevas versiones de HDMI y DisplayPort, que escribimos sobre el modelo GTX 1080.

La longitud de la tarifa de referencia GeForce GTX 1060 es de 9.8 pulgadas (25 cm) y de las diferencias de las opciones senior, tenga en cuenta que GeForce GTX 1060 no admite la configuración de la representación múltiple SLI, y no tiene un conector especial para esto. Dado que la Junta consume menos energía que los modelos más antiguos, luego se instaló un conector de fuente de alimentación PCI-E de 6 pines en la tarifa.

GeForce GTX 1060 Tarjetas de video apareció en el mercado desde el anuncio de los productos asociados de la compañía: Asus, Evga, Gaineward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. Una edición especial de la edición del Fundador GeForce GTX 1060, producida por NVIDIA, se lanzará en un número limitado, que se venderá a un precio de $ 299 exclusivamente en el sitio web de NVIDIA y se presentará oficialmente en Rusia. La edición del fundador se caracteriza porque está hecho de materiales y componentes de alta calidad, que incluyen una caja de aluminio, y utiliza un sistema de enfriamiento eficiente, así como cadenas de alimentación de baja resistencia y reguladores de voltaje de diseño especiales.

Cambios arquitectónicos

La tarjeta de video GeForce GTX 1060 se basa en un procesador de gráficos absolutamente nuevo del modelo GP106, que no es funcionalmente diferente de la arquitectura Pascal primogénito en forma del chip GP104, que describe los modelos GEFORCE GTX 1080 y GTX 1070 descritos anteriormente. Esta arquitectura tiene la base de las soluciones que se basó en Aún MAXWELL, pero tiene algunas diferencias funcionales sobre las que escribimos en detalle antes.

El chip de video GP106 en su dispositivo es similar al chip de Pascal y soluciones similares de la arquitectura Maxwell, y puede encontrar información detallada sobre el dispositivo de GPU moderno en nuestras reseñas de NVIDIA. Al igual que los procesadores de gráficos anteriores, las fichas de la nueva arquitectura tienen una configuración diferente del clúster de clúster de computación de clúster de procesamiento de gráficos, transmitiendo multiprocesadores de transmisión multiprocesador (SM) y controladores de memoria:

El procesador de gráficos GP106 tiene dos grupos GPC que consisten en 10 multiprocesadores de transmisión (transmisión multiprocesador - SM), es decir, exactamente la mitad del GP104 existente. Al igual que en la GPU más antigua, cada uno de los multiprocesadores contiene 128 núcleos informáticos, 8 bloques de textura de TMU, 256 KB de memoria de registro, 96 KB de memoria compartida y 48 KB de la memoria caché de primer nivel. Como resultado, GeForce GTX 1060 contiene un total de 1280 núcleos de computación y 80 módulos de textura, dos veces más pequeños que GTX 1080.

Pero el subsistema de memoria GEFORCE GTX 1060 no se recortó en la mitad en relación con la solución superior, contiene seis controladores de memoria de 32 bits que dan un bus de memoria total de 192 bits. Con una frecuencia efectiva de la memoria GDDR5-Video para GeForce GTX 1060, igual a 8 GHz, el ancho de banda alcanza los 192 GB / s, lo que es muy bueno para resolver este segmento de precios, especialmente considerando la alta eficiencia de su uso en Pascal. Ocho de la ROP y 256 KB de los bloques de caché de segundo nivel están vinculados a cada uno de los controladores de memoria, por lo tanto, en general, la versión completa del procesador de gráficos GP106 contiene 48 bloques de ROP y 1536 CB L2-caché.

Para reducir el ancho de banda de la memoria y el uso más eficiente del Pascal disponible en la arquitectura PASCAL, una compresión intráctica de información sin pérdida se mejora adicionalmente, que es capaz de comprimir datos en tampones, obtener un aumento en la eficiencia y el rendimiento. En particular, se agregaron nuevos métodos de compresión delta con una proporción de 4: 1 y 8: 1 a los chips de la nueva familia con una proporción de 4: 1 y 8: 1, lo que proporciona un 20% adicional a la efectividad de la PSP en comparación con las soluciones anteriores de la familia Maxwell.

La frecuencia básica de la nueva GPU es igual a 1506 MHz: la frecuencia no debe descendirse en principio por debajo de esta marca. Una frecuencia típica de turbo (reloj de refuerzo) es mucho mayor e igual a 1708 MHz es el valor promedio de la frecuencia real en la que el chip gráfico GeForce GTX 1060 se está ejecutando en un gran conjunto de juegos y aplicaciones 3D. La frecuencia de refuerzo real depende del juego y las condiciones en las que se prueba las pruebas.

Al igual que el resto de las soluciones familiares de Pascal, el modelo GeForce GTX 1060 no solo funciona con una alta frecuencia de reloj, que proporciona un alto rendimiento, pero tiene un margen decente como overclocking. Los primeros experimentos hablan sobre la posibilidad de lograr frecuencias del orden de 2 GHz. No es sorprendente que los socios de la compañía estén preparados, incluidas las variantes dispersas de la fábrica de la tarjeta de video GTX 1060.

Por lo tanto, el cambio principal en la nueva arquitectura fue el proceso tecnológico de 16 NM FINFET, el uso de los cuales en la producción de GP106 hizo posible aumentar significativamente la complejidad del chip mientras mantiene un área relativamente baja en 200 mm², por lo que este Pascal Architecture Chip tiene un notable mayor número de bloques ejecutivos en comparación con el posicionamiento similar a Maxwell Fabricado con el proceso técnico de 28 nm.

Si GM206 (GTX 960) con un área de 227 mm² tenía menos de 3 mil millones de transistores y 1024 ALU, 64 TMU, 32 ROP y un autobús de 128 bits, luego la nueva GPU ya ha acomodado en 200 mm² ya de 4,4 billones de transistores, 1280 ALU, 80 TMU y 48 ROP con un autobús de 192 bits. Sí, con casi una vez y media con una frecuencia más alta: 1506 (1708) contra 1126 (1178) MHz. ¡Y esto es con el mismo consumo de energía de 120 W! Como resultado, el procesador de gráficos GP106 se ha convertido en uno de los procesadores de gráficos más eficientes energéticamente, junto con GP104.

Nuevas tecnologías NVIDIA

Una de las tecnologías más interesantes de la compañía que está respaldada por GeForce GTX 1060 y otras soluciones de la familia Pascal es la tecnología. NVIDIA Simultánea Multi-Proyección. Ya hemos escrito sobre esta tecnología en la revisión GeForce GTX 1080, le permite usar varias técnicas nuevas para la presentación de optimización. En particular, la proyección simultánea de la imagen VR a la vez por dos ojos, a veces aumentando la eficiencia de usar GPU en una realidad virtual.

Para admitir SMP en todos los procesadores gráficos, la familia Pascal tiene un motor especial, que se encuentra en el motor polimorfo al final del transportador geométrico frente a la unidad de rasterización. Con su ayuda, la GPU puede proyectar simultáneamente una primitiva geométrica para varias proyecciones de un punto, mientras que estas proyecciones pueden ser estéreo (es decir, las proyecciones de hasta 16 o 32 se apoyan al mismo tiempo). Esta característica permite que Pascal gráficos procesadores reproducirá con precisión una superficie curva para la representación de VR, y también generar correctamente la imagen a los sistemas multinomucleares.

Es importante que la tecnología múltiple simultánea ya esté integrada en los motores de juego populares (Unreal Engine and Unity) y juegos, y hoy en día el apoyo de la tecnología se ha establecido durante más de 30 juegos en desarrollo, incluidos proyectos tan conocidos como Torneo irreal, Poolnation VR, Everest VR, Oroduction, ADR1FT y datos en bruto. Curiosamente, aunque Unreal Tournament no es un juego de VR, pero en ella SMP se usa para lograr una mejor imagen y mejorar la productividad.

Otra tecnología tan esperada se ha convertido en una herramienta poderosa para crear capturas de pantalla en juegos. NVIDIA ANSEL. Esta herramienta le permite crear capturas de pantalla inusuales y de muy alta calidad de juegos, con capacidades previamente inaccesibles, manteniéndolas en una resolución muy alta y complementan diversos efectos, y comparte sus obras. Ansel le permite crear literalmente una captura de pantalla, ya que el artista quiere instalar la cámara con cualquier parámetro a cualquier punto de la escena, imponga los filtros de publicaciones potentes de la imagen o incluso haga una instantánea de 360 \u200b\u200bgrados para ver en el casco de realidad virtual.

NVIDIA ha estandarizado la integración de la interfaz de usuario de ASSEL al juego, y es muy sencillo agregar al código varias líneas. No necesita esperar la apariencia de esta oportunidad en los juegos, puede estimar las habilidades de Ansel ahora en el borde del espejo del juego: Catalyst, y un poco más tarde estará disponible en Witcher 3: Wild Hunt. Además, en el desarrollo hay muchos proyectos de juego con apoyo para Ansel, incluidos los juegos como Fortnite, Paragon y Unreal Torneo, Oducción, The Witen, Bookbreakers, Tom Clancy, la División, Ningún Cielo del Hombre y otros.

También un nuevo procesador de gráficos GeForce GTX 1060 admite el paquete de herramientas Nvidia vrworks.Apoyando a los desarrolladores para crear proyectos impresionantes para la realidad virtual. Este paquete incluye muchos servicios públicos y herramientas para los desarrolladores, incluido el audio VRRWORKS, lo que le permite realizar un cálculo muy preciso de las reflexiones de las ondas de sonido de los objetos de la escena utilizando un rastreo de rayos en la GPU. El paquete también incluye la integración en VR y los efectos físicos físicos para garantizar el comportamiento físicamente correcto de los objetos en la escena.

Uno de los juegos virtuales más brillantes que recibieron una ventaja de VRRWORKS se convirtió en la Funhouse VR, un juego en la realidad virtual de la propia NVIDIA, que está disponible de forma gratuita en el servicio de vapor de la válvula. Este juego se basa en el motor Unreal Engine 4 (Epic Games), y funciona en las tarjetas de video GeForce GTX 1080, 1070 y 1060 en un paquete con HTC VIVE VR CASCOTS. Además, el código fuente de este juego estará disponible públicamente, lo que permitirá a otros desarrolladores usar ideas y código confeccionados ya en sus viajes VR. Créanos por la palabra, esta es una de las demostraciones más impresionantes de las posibilidades de la realidad virtual.

Incluyendo las tecnologías SMP y VRWORKS, el uso del procesador gráfico GeForce GTX 1060 en aplicaciones VR proporciona productividad bastante suficiente para el nivel inicial, y la GPU en cuestión corresponde al nivel de hardware mínimo requerido, incluido SteamVRR, convirtiéndose en una de las adquisiciones más exitosas Para uso en sistemas con soporte oficial VR.

Dado que el modelo GeForce GTX 1060 se basa en un chip GP106, que no es inferior al procesador gráfico GP104, que se ha convertido en la base de las modificaciones más antiguas, respalda absolutamente todas las tecnologías que se describen anteriormente.

La tarjeta de video GeForce GTX 1060 se ha convertido en el tercer modelo en la nueva línea de NVIDIA, basada en los procesadores gráficos Pascal. El nuevo proceso tecnológico de 16 NM FINFET y la optimización de la arquitectura permitieron que todas las nuevas tarjetas de video logren una frecuencia de reloj de alta calidad y colocan en bloques más funcionales de la GPU en forma de procesadores de transmisión, módulos texturales y otros, en comparación con los chips de video de la generación anterior. Es por eso que el modelo GTX 1060 se ha convertido en la solución más rentable y eficiente en energía y en su clase.

Es especialmente importante que el GeForce GTX 1060 ofrezca suficientemente alto rendimiento y soporte para nuevas características y algoritmos a un precio significativamente menor en comparación con las soluciones más antiguas en el GP104. El chip gráfico GP106 utilizado en el nuevo modelo proporciona el mejor rendimiento y eficiencia energética en la clase. El modelo GeForce GTX 1060 está diseñado específicamente y es perfecto para todos los juegos modernos en la configuración de gráficos altos y máximos en la resolución de 1920x1080 e incluso con suavizado de pantalla completa con varios métodos (FXAA, MFAA o MSAA).

Y para aquellos que desean obtener un rendimiento aún mayor en presencia de pantallas de resolución ultra alta, NVIDIA tiene los mejores modelos GeForce GTX 1070 y GTX 1080 Tarjetas de video, que también son muy buenas en términos de rendimiento y eficiencia energética. Sin embargo, la combinación de precios bajos y un rendimiento suficiente se distingue de manera muy rentable por GeForce GTX 1060 contra el fondo de soluciones senior. En comparación con la competencia Radeon RX 480, la solución NVIDIA es algo más rápida con una complejidad más pequeña y un área de GPU, y tiene una mejor eficiencia energética. Es cierto, se vende un poco más caro, por lo que cada tarjeta de video tiene su propio nicho.



¿Te gustó el artículo? Compártelo