Contactos

El impacto de los componentes de la computadora en el rendimiento. Consejos para la modernización (actualización) de una computadora personal. Limpiar y liberar RAM para acelerar los procesos

Puede descargar la presentación de la conferencia.

Modelo de procesador simplificado

Información adicional:

El prototipo del circuito es en parte una descripción de la arquitectura de von Neumann, que tiene los siguientes principios:

  1. Principio binario
  2. Principio de control del programa
  3. El principio de homogeneidad de la memoria.
  4. El principio de direccionabilidad de la memoria
  5. El principio del control secuencial del programa
  6. Principio de salto condicional

Para facilitar la comprensión de lo que es moderno sistema informático , debemos considerarlo en desarrollo. Por lo tanto, traje la mayor parte esquema simple que me viene a la mente. En esencia, este es un modelo simplificado. Tenemos un cierto dispositivo de control dentro del procesador, unidad aritmética lógica, los registros del sistema, el bus del sistema, que permite el intercambio entre el dispositivo de control y otros dispositivos, la memoria y periféricos. Dispositivo de control recibe instrucciones, las descifra, controla el dispositivo aritmético-lógico, transfiere datos entre registros procesador, memoria, dispositivos periféricos.

Modelo de procesador simplificado

  • unidad de control (CU)
  • Unidad aritmética y lógica (ALU)
  • registros del sistema
  • bus del sistema (bus frontal, FSB)
  • memoria
  • periféricos

Unidad de control (CU):

  • realiza el descifrado de instrucciones provenientes de la memoria de la computadora.
  • gestiona la ALU.
  • transfiere datos entre los registros de la CPU, la memoria, los dispositivos periféricos.

Unidad aritmética lógica:

Registros del sistema:

  • cierta área de memoria dentro de la CPU utilizada para el almacenamiento intermedio de información procesada por el procesador.

Sistema de autobús:

  • se utiliza para transferir datos entre la CPU y la memoria, y entre la CPU y los periféricos.

Unidad aritmética lógica consta de varios Componente electrónico permitiendo realizar operaciones en los registros del sistema. Los registros del sistema son ciertas áreas en la memoria, dentro del procesador central, que se utilizan para almacenar resultados intermedios procesados ​​por el procesador. El bus del sistema se utiliza para transferir datos entre unidad Central de procesamiento y memoria, así como entre la unidad central de procesamiento y los periféricos.

El alto rendimiento del MP (microprocesador) es uno de los factores clave en la lucha competitiva de los fabricantes de procesadores.

El rendimiento de un procesador está directamente relacionado con la cantidad de trabajo, cálculos que puede realizar por unidad de tiempo.

Muy condicional:

Rendimiento = Número de instrucciones / tiempo

Analizaremos el rendimiento de los procesadores basados ​​en arquitecturas IA32 e IA32e. (IA32 con EM64T).

Factores que afectan el rendimiento del procesador:

  • Velocidad de reloj de la CPU.
  • La cantidad de memoria direccionable y la velocidad de acceso a la memoria externa.
  • Velocidad de ejecución y conjunto de instrucciones.
  • Uso memoria interna, registros.
  • Calidad del transportador.
  • Calidad de captación previa.
  • Superescalaridad.
  • La presencia de instrucciones vectoriales.
  • Multinúcleo.

Qué rendimiento? Es difícil dar una definición inequívoca de desempeño. Puede vincularlo formalmente a un procesador: cuántas instrucciones puede ejecutar un procesador en particular por unidad de tiempo. Pero es más fácil dar una definición comparativa: tomar dos procesadores y el que ejecuta un determinado conjunto de instrucciones más rápido, más productivo. Es decir, muy condicionalmente, podemos decir que rendimiento Es el número de instrucciones por tiempo de espera... Aquí estudiaremos principalmente aquellas arquitecturas de microprocesador que lanza Intel, es decir, las arquitecturas IA32 que ahora se llaman Intel 64. Son arquitecturas que, por un lado, soportan las antiguas instrucciones del conjunto IA32, por otro lado, tienen EM64T: este es un tipo de extensión que le permite usar direcciones de 64 bits, es decir, dirección grande tamaños de memoria, y también incluye algunas adiciones útiles, como un mayor número de registros del sistema, un mayor número de registros vectoriales.

Que factores afectan rendimiento? Hagamos una lista de todo lo que se le ocurra. Eso:

  • La velocidad de ejecución de las instrucciones, la integridad del conjunto básico de instrucciones.
  • Utilizando la memoria de registro interna.
  • Calidad del transportador.
  • La calidad de la predicción de la transición.
  • Calidad de captación previa.
  • Superescalaridad.
  • Vectorización, uso de instrucciones vectoriales.
  • Paralelización y multinúcleo.

Frecuencia de reloj

El procesador consta de componentes que se activan en diferentes momentos y hay un temporizador que proporciona sincronización mediante el envío de pulsos periódicos. Su frecuencia se llama frecuencia de reloj del procesador.

Tamaño de memoria direccionable

Frecuencia de reloj.

Dado que el procesador tiene muchos componentes electrónicos diferentes que funcionan de manera independiente, para sincronizar su trabajo, para que sepan cuándo comenzar a trabajar, cuándo hacer su trabajo y esperar, hay un temporizador que envía un pulso de sincronización. La frecuencia con la que se envía el pulso de sincronización es frecuencia de reloj procesador. Hay dispositivos que logran realizar dos operaciones durante este tiempo, sin embargo, el trabajo del procesador está ligado a este pulso de sincronización, y podemos decir que si aumentamos esta frecuencia, entonces haremos que todos estos microcircuitos funcionen con más voltaje y se queden inactivos. menos.

La cantidad de memoria direccionable y la velocidad de acceso a la memoria.

Tamaño de la memoria: es necesario que haya suficiente memoria para nuestro programa y nuestros datos. Es decir, la tecnología EM64T permite direccionar gran cantidad memoria y de momento la pregunta con el hecho de que no tenemos suficiente memoria direccionable no vale la pena.

Dado que los desarrolladores generalmente no tienen la capacidad de influir en estos factores, solo los menciono.

Velocidad de ejecución y conjunto de instrucciones

El rendimiento depende de qué tan bien se implementen las instrucciones, qué tan bien el conjunto básico de instrucciones cubre todas las tareas posibles.

CISC, RISC (computación de conjunto de instrucciones reducido y complejo)

Los procesadores Intel® modernos son un híbrido de procesadores CISC y RISC, que convierten las instrucciones CISC en un conjunto más simple de instrucciones RISC antes de su ejecución.

La velocidad de ejecución de las instrucciones y la integridad del conjunto básico de instrucciones.

Básicamente, cuando los arquitectos diseñan procesadores, trabajan constantemente para mejorarlos. rendimiento... Una de sus tareas es recopilar estadísticas para determinar qué instrucciones o secuencia de instrucciones son clave desde el punto de vista del desempeño. Tratando de mejorar rendimiento, los arquitectos están tratando de hacer que las instrucciones más calientes sean más rápidas, para que algunos conjuntos de instrucciones hagan una instrucción especial que reemplace este conjunto y funcione de manera más eficiente. Las características de las instrucciones cambian de una arquitectura a otra y aparecen nuevas instrucciones para lograr un mejor rendimiento. Aquellos. podemos suponer que de arquitectura en arquitectura, el conjunto básico de instrucciones se mejora y amplía constantemente. Pero si no especifica en qué arquitecturas se ejecutará su programa, entonces su aplicación usará un cierto conjunto predeterminado de instrucciones que admiten todos los microprocesadores más recientes. Aquellos. Podemos lograr el mejor rendimiento solo si especificamos claramente el microprocesador en el que se ejecutará la tarea.

Usando registros y memoria de acceso aleatorio

El tiempo de acceso a los registros es el más pequeño, por lo que el número de registros disponibles afecta el rendimiento del microprocesador.

Desplazamiento de registros (desbordamiento de registros): debido al número insuficiente de registros, hay un gran intercambio entre los registros y la pila de aplicaciones.

Con el aumento en el rendimiento del procesador, surgió un problema debido al hecho de que la velocidad de acceso a la memoria externa se volvió más baja que la velocidad de los cálculos.

Hay dos características para describir las propiedades de la memoria:

  • La latencia es el número de ciclos de procesador necesarios para transferir una unidad de datos desde la memoria.
  • El ancho de banda es la cantidad de elementos de datos que se pueden enviar al procesador desde la memoria en un ciclo.

Dos posibles estrategias para acelerar el rendimiento: reducción del tiempo de respuesta o solicitud proactiva memoria deseada.

Usando registros y RAM.

Los registros son los elementos de memoria más rápidos, están ubicados directamente en el kernel y el acceso a ellos es casi instantáneo. Si su programa hace algunos cálculos, le gustaría que todos los datos intermedios se almacenaran en registros. Está claro que esto es imposible. Uno de Posibles problemas el rendimiento es un problema de apropiación del registro. Cuando observa el código ensamblador en algún analizador de rendimiento, ve que tiene mucho movimiento de la pila a los registros y de ida y vuelta a los registros de paginación en la pila. La pregunta es cómo optimizar el código para que las direcciones más calientes, los datos intermedios más calientes, se encuentren exactamente en los registros del sistema.

La siguiente pieza de memoria es la RAM normal. Con el aumento del rendimiento del procesador, ha quedado claro que el cuello de botella del rendimiento es el acceso a la RAM. Para acceder a la RAM, necesita cien o incluso doscientos ciclos de procesador. Es decir, al solicitar alguna celda de memoria en RAM, esperaremos doscientos ciclos de reloj y el procesador estará inactivo.

Hay dos características para describir las propiedades de la memoria: el tiempo de respuesta, es decir, el número de ciclos del procesador necesarios para transferir una unidad de datos desde la memoria, y rendimiento - cuántos elementos de datos puede enviar el procesador desde la memoria en un ciclo. Ante el problema de que nuestro cuello de botella es el acceso a la memoria, podemos resolver este problema de dos maneras: disminuyendo el tiempo de respuesta o realizando solicitudes preventivas de la memoria requerida. Es decir, de momento no nos interesa el valor de alguna variable, pero sabemos que lo necesitaremos pronto, y ya lo estamos solicitando.

Almacenamiento en caché

La memoria caché sirve para reducir el tiempo de acceso a los datos.

Para hacer esto, los bloques de RAM se asignan a una caché más rápida.

Si la dirección de memoria está en la caché, se produce un "acierto" y la velocidad de recuperación de datos aumenta significativamente.

De lo contrario, el caché se pierde

En este caso, un bloque de RAM se lee en la caché en uno o más ciclos de bus, lo que se denomina llenar una línea de caché.

Se pueden distinguir los siguientes tipos de memoria caché:

  • caché totalmente asociativo (cada bloque se puede asignar a cualquier ubicación en el caché)
  • memoria mapeada directa (cada bloque se puede mapear a una ubicación)
  • opciones híbridas (memoria de sector, memoria multiasociativa)

Acceso asociativo múltiple: los bits de orden inferior determinan la línea de caché donde se puede mostrar memoria dada, pero esta línea solo puede contener algunas palabras de la memoria principal, cuya selección se realiza de forma asociativa.

La calidad del uso de la caché es clave para el rendimiento.

Información adicional: en los sistemas IA32 modernos, el tamaño de la línea de caché es de 64 bytes.

La reducción del tiempo de acceso se logró mediante la introducción de la memoria caché. La caché es la memoria memoria intermedia ubicado entre la RAM y el microprocesador. Está implementado en el kernel, es decir, el acceso a él es mucho más rápido que a la memoria ordinaria, pero es mucho más costoso, por lo que al desarrollar una microarquitectura, debe encontrar un equilibrio exacto entre precio y rendimiento. Si observa las descripciones de los procesadores que se ofrecen a la venta, verá que siempre está escrito en la descripción cuánta memoria caché de este o aquel nivel hay en este procesador. Esta cifra afecta seriamente el precio de este producto. La memoria caché está organizada de tal manera que la memoria habitual se asigna a la memoria caché, la asignación se realiza en bloques. Cuando solicita una dirección en la RAM, comprueba si esta dirección está asignada a la memoria caché. Si esta dirección ya está en la memoria caché, ahorrará tiempo al acceder a la memoria. Lees esta información de la memoria rápida, y tu tiempo de respuesta se reduce significativamente, pero si esta dirección no está en la memoria caché, entonces debemos recurrir a la memoria ordinaria para que esta dirección la necesitemos junto con algún bloque en el que se encuentre, mapeado en este caché.

Existen diferentes implementaciones de memoria caché. Hay una caché totalmente asociativa, donde cada bloque se puede asignar a cualquier ubicación en la caché. Existe una memoria de asignación directa, donde cada bloque se puede asignar a un lugar, y hay varias opciones híbridas, por ejemplo, una caché de acceso multiasociativo. ¿Cuál es la diferencia? La diferencia en el tiempo y la complejidad de verificar la presencia de la dirección deseada en la memoria caché. Digamos que necesitamos una dirección específica. En caso de memoria asociativa tenemos que comprobar todo el caché; asegúrese de que esta dirección no esté en el caché. En el caso del mapeo directo, solo necesitamos marcar una celda. En el caso de las opciones híbridas, por ejemplo, cuando se usa una caché MDA, debemos verificar, por ejemplo, cuatro u ocho celdas. Es decir, la tarea de determinar si existe una dirección de caché también es importante. La calidad del uso de la caché es un criterio importante para el rendimiento. Si logramos escribir un programa de manera que con la mayor frecuencia posible los datos con los que íbamos a trabajar estén en la caché, entonces dicho programa funcionará mucho más rápido.

Tiempos de respuesta típicos al acceder a la memoria caché de Nehalem i7:

  • L1 - latencia 4
  • L2 - latencia 11
  • L3 - latencia 38

Tiempo de respuesta para RAM> 100

Mecanismo de acceso a la memoria proactivo implementado usando precarga de hardware.

Existe un conjunto especial de instrucciones que permite al procesador cargar la memoria ubicada en una dirección específica en la caché (precarga de software).

Tome nuestro último procesador Nehalem: el i7 como ejemplo.

Aquí no solo tenemos un caché, sino una especie de caché jerárquico. Largo tiempo era de dos niveles, en sistema moderno Nehalem tiene tres niveles: muy poco caché muy rápido, un poco más de caché de segundo nivel y suficiente un gran número de caché de tercer nivel. Además, este sistema está construido de tal manera que si alguna dirección está en la caché del primer nivel, se ubica automáticamente en el segundo y tercer nivel. Este es un sistema jerárquico. Para el caché de primer nivel, la latencia es de 4 ciclos, para el segundo - 11, para el tercero - 38, y el tiempo de respuesta de la RAM es de más de 100 ciclos de procesador.

En cualquier producción de productos, uno de los principales objetivos que persigue la dirección de la empresa es la obtención de un resultado. La única pregunta es cuánto esfuerzo y recursos se requerirán en el proceso de trabajo para lograr el objetivo principal. Para determinar la eficiencia de la empresa, se introdujo el concepto de "productividad laboral", que es un indicador de la productividad del personal. El trabajo que puede realizar una persona por unidad de tiempo se denomina convencionalmente "desarrollo".

Es muy importante que cada empresa obtenga un resultado alto y al mismo tiempo gaste la menor cantidad posible de recursos en la producción (esto incluye pagos por electricidad, alquiler, etc.).

El desafío más importante en cualquier empresa que fabrica bienes o brinda servicios es aumentar la productividad. Al mismo tiempo, se toman una serie de medidas para reducir la cantidad de costos necesarios para el flujo de trabajo. Por tanto, durante el período de desarrollo de la empresa, la productividad laboral puede cambiar.

Por regla general, se clasifican varios grupos de factores que pueden influir en el cambio, a saber, el crecimiento de los indicadores de producción. En primer lugar, se trata de un factor económico y geográfico, que incluye la disponibilidad de recursos gratuitos de mano de obra, agua, electricidad, materiales de construcción, así como la distancia a las comunicaciones, terreno, etc. No menos importante es la importancia de acelerar el progreso científico y tecnológico, contribuyendo a la introducción de nuevas generaciones de tecnología moderna y al uso de tecnologías avanzadas y sistemas automatizados... También se puede suponer que la productividad laboral también depende del factor de cambios estructurales, lo que significa un cambio en la participación de componentes y productos semiacabados comprados, así como la estructura de producción y la participación de ciertos tipos de productos.

El momento social (humano) sigue siendo de gran importancia, porque es la preocupación por los beneficios sociales lo que subyace al aumento de la productividad laboral. Esto incluye: preocupación por la salud física de una persona, el nivel de su desarrollo intelectual, profesionalismo, etc.

Los factores de crecimiento de la productividad laboral son el componente más importante de todo el proceso de trabajo, porque son ellos los que afectan la tasa de desarrollo de cualquier empresa y, en consecuencia, contribuyen a un aumento de las ganancias.

También cabe destacar el momento organizativo, que determina el nivel de gestión productiva y laboral. Incluye la mejora de la organización de la gestión empresarial, la mejora del personal, la formación material y técnica.

Cuando se habla de productividad, es imposible ignorar la intensidad del trabajo. Este concepto es un reflejo del indicador de la cantidad de energía física y mental gastada por el empleado durante un determinado período de tiempo de trabajo.

Es muy importante determinar la intensidad óptima para un flujo de trabajo dado, porque una actividad excesiva puede conducir a pérdidas inevitables de productividad. Como regla general, esto ocurre como resultado del exceso de trabajo humano, la aparición de enfermedades profesionales, lesiones, etc.

Cabe señalar que se identificaron los principales indicadores que determinan la intensidad del trabajo. En primer lugar, es la carga de trabajo de una persona con actividades laborales. Esto le permite determinar la intensidad del proceso de trabajo y, en consecuencia, la viabilidad de los costos. Al mismo tiempo, se acostumbra calcular el ritmo de trabajo, es decir, la frecuencia de acciones en relación con una unidad de tiempo. Teniendo en cuenta estos factores, la empresa, por regla general, tiene ciertos estándares, en función de cuyos indicadores, se establece un plan de trabajo de producción.

Los factores de la productividad laboral son objeto de especial atención por parte de los trabajadores en la ciencia y la práctica, ya que actúan como las causas primarias que determinan su nivel y dinámica. Los factores investigados en el análisis se pueden clasificar según diferentes criterios. La clasificación más detallada se presenta en la Tabla 1.

tabla 1

Clasificación de factores que afectan la productividad laboral

Atributo de clasificación

Grupos de factores

Por su naturaleza

Natural y climática

Socioeconómico

Producción y económico

Por el grado de impacto en el resultado

El principal

Secundario

En relación al objeto de investigación

Interno

Dependiendo del equipo

Objetivo

Subjetivo

Por prevalencia

Específico

Por tiempo de acción

Permanente

Variables

Por la naturaleza de la acción

Extenso

Intensivo

Por las propiedades de los fenómenos reflejados

Cuantitativo

Cualitativo

Por su composición

Por el nivel de subordinación (jerarquía)

Primer orden

Segundo orden, etc.

Donde sea posible, midiendo el impacto

Mensurable

Inconmensurable

Por su naturaleza, los factores se subdividen en naturales y climáticos, socioeconómicos y económicos de producción.

Los factores naturales y climáticos han gran influencia sobre los resultados de las actividades en la agricultura, la minería, la silvicultura y otras industrias. Tener en cuenta su influencia le permite evaluar con mayor precisión los resultados del trabajo de las entidades comerciales. Los factores socioeconómicos incluyen las condiciones de vida de los empleados, la organización del trabajo cultural, deportivo y recreativo en la empresa, el nivel general de cultura y educación del personal, etc. uso completo recursos de producción de la empresa y aumentar la eficiencia de su trabajo. Los factores productivos y económicos determinan la integridad y eficiencia del uso de los recursos productivos de la empresa y los resultados finales de sus actividades. Según el grado de influencia sobre los resultados de la actividad económica, los factores se dividen en principales y secundarios. Los principales factores incluyen factores que tienen un impacto decisivo en el indicador de desempeño. Los secundarios son aquellos que no tienen un impacto decisivo en los resultados de las actividades económicas en el entorno actual. Cabe señalar aquí que el mismo factor, dependiendo de las circunstancias, puede ser tanto primario como secundario. La capacidad de distinguir los principales factores determinantes de una variedad de factores garantiza la exactitud de las conclusiones basadas en los resultados del análisis.

En relación al objeto de investigación, los factores se clasifican en internos y externos, es decir, dependiente y no dependiente de las actividades de esta empresa. El enfoque principal del análisis debe estar en el estudio de los factores internos que pueden ser influenciados por la empresa.

Al mismo tiempo, en muchos casos, con lazos y relaciones de producción desarrollados, el desempeño de cada empresa está influenciado en gran medida por las actividades de otras empresas, por ejemplo, la uniformidad y puntualidad de los suministros de materias primas, materiales, su calidad, costo , condiciones de mercado, procesos inflacionarios, etc. Estos factores son externos. No caracterizan los esfuerzos de un equipo dado, pero su estudio permite determinar con mayor precisión el grado de influencia de las causas internas y, por lo tanto, revelar más completamente las reservas internas de producción.

Para una correcta evaluación de las actividades de las empresas, los factores deben subdividirse en objetivos y subjetivos. Los factores objetivos, como un desastre natural, no dependen de la voluntad y el deseo de las personas. A diferencia de las razones objetivas, las subjetivas dependen de las actividades de las personas jurídicas y las personas físicas.

Según el grado de prevalencia, los factores se dividen en generales y específicos. Los factores generales incluyen factores que operan en todos los sectores de la economía. Específicos son aquellos que operan en una rama particular de la economía o empresa. Esta división de factores permite tener más en cuenta las características de las empresas individuales, ramas de producción y evaluar con mayor precisión sus actividades.

Según la duración del impacto en los resultados de las actividades, existen factores constantes y variables. Los factores constantes influyen en el fenómeno estudiado de forma continua a lo largo de todo el tiempo. La influencia de factores variables se manifiesta periódicamente, por ejemplo, el desarrollo de nueva tecnología, nuevos tipos de productos, nueva tecnología de producción, etc.

De gran importancia para evaluar las actividades de las empresas es la división de factores por la naturaleza de su acción en intensivos y extensivos. Los factores extensivos incluyen factores que están asociados con un aumento cuantitativo en lugar de cualitativo en el indicador efectivo, por ejemplo, un aumento en el volumen de producción al expandir el área cultivada, aumentar el número de animales, el número de trabajadores, etc. Los factores intensivos caracterizan el grado de esfuerzo, la intensidad del trabajo en el proceso de producción, por ejemplo, un aumento en el rendimiento de los cultivos, la productividad del ganado y el nivel de productividad del trabajo.

Si el análisis tiene como objetivo medir la influencia de cada factor en los resultados de la actividad económica, entonces se dividen en cuantitativos y cualitativos, simples y complejos, medibles y no medidos.

Los factores que expresan la certeza cuantitativa de los fenómenos (el número de trabajadores, equipos, materias primas, etc.) se consideran cuantitativos. Los factores cualitativos determinan las cualidades internas, signos y características de los objetos en estudio (productividad laboral, calidad del producto, fertilidad del suelo, etc.).

La mayoría de los factores estudiados son complejos en su composición, constan de varios elementos. Sin embargo, hay aquellos que no se pueden descomponer en componentes. Dependiendo de la composición, los factores se dividen en complejos (complejos) y simples (elementales). Un ejemplo de un factor complejo es la productividad laboral, y uno simple es el número de días laborables en el período del informe.

Como ya se indicó, algunos factores tienen un impacto directo en el indicador de desempeño, otros indirectamente. Según el nivel de subordinación (jerarquía), se distinguen los factores del primero, segundo, tercero, etc. niveles de subordinación. Los factores del primer nivel son los que afectan directamente al indicador efectivo. Los factores que determinan indirectamente el indicador efectivo, utilizando los factores del primer nivel, se denominan factores del segundo nivel, etc. Por ejemplo, en relación con la producción bruta, los factores del primer nivel son el número medio anual de trabajadores y la producción media anual de un trabajador. El número de días trabajados por un trabajador y la producción diaria promedio son factores del segundo nivel. Los factores del tercer nivel incluyen la duración de la jornada laboral y la producción media por hora.

La base de cualquier negocio es el uso racional y eficiente de los recursos disponibles, incluida la mano de obra. Es bastante lógico que la gerencia busque aumentar el volumen de producción sin costos adicionales para la contratación de empleados. Los expertos identifican varios factores que pueden mejorar el rendimiento:

    Estilo de gestión (la tarea principal de un líder es motivar al personal, crear una cultura organizacional que valore la actividad y el trabajo duro).

    Inversiones en innovaciones técnicas (la compra de nuevos equipos que satisfagan las necesidades del momento puede reducir significativamente el tiempo empleado por cada empleado).

    Capacitaciones y seminarios de capacitación avanzada (el conocimiento de las particularidades de la producción permite al personal participar en la mejora del proceso productivo).

La gente me pregunta a menudo lo que determina la velocidad de la computadora? Decidí escribir un artículo sobre este tema para considerar en detalle los factores que afectan el rendimiento del sistema. Después de todo, comprender este tema permite acelerar su PC.

Planchar

La velocidad de la computadora depende directamente de configuración de su PC. La calidad de los componentes afecta el rendimiento de la PC, a saber ..

HDD

El sistema operativo accede al disco duro miles de veces. Además, el sistema operativo en sí está en el disco duro. Cuanto mayor sea su volumen, velocidad de rotación del eje, memoria caché, más rápido funcionará el sistema. También es importante la cantidad de espacio libre en la unidad C (normalmente Windows está ahí). Si es menos del 10% del total, el sistema operativo se ralentiza. Escribimos un artículo. Mira si hay archivos innecesarios, programas ,. Es recomendable desfragmentar el ferrocarril una vez al mes. Presta atención, mucho más eficiente que HDD.

RAM

La cantidad de RAM es el factor más importante que afecta velocidad de la computadora... La memoria temporal almacena datos intermedios, códigos de máquina e instrucciones. En resumen, cuanto más, mejor. utilizando la utilidad memtest86.

UPC

El cerebro de la computadora es tan importante como la RAM. Vale la pena prestar atención a la velocidad del reloj, la memoria caché y la cantidad de núcleos. Considerándolo todo, la velocidad de la computadora depende de velocidad de reloj y caché. Y la cantidad de núcleos garantiza la multitarea.

Sistema de refrigeración

La alta temperatura de los componentes tiene un efecto negativo en velocidad de la computadora... El sobrecalentamiento puede dañar su PC. Por tanto, el sistema de refrigeración juega un papel importante.

Memoria de video

tarjeta madre

Software

La velocidad de la computadora también depende de software instalado y OC. Por ejemplo, si tiene una PC débil, Windows XP es más adecuado para usted, o son menos exigentes con los recursos. Cualquier sistema operativo funcionará para configuraciones medias a altas.

Muchos programas de inicio cargan el sistema, lo que resulta en bloqueos y frenadas. Para un alto rendimiento, cierre aplicaciones innecesarias... Mantenga su PC limpia y ordenada y manténgala actualizada.

El malware se ralentiza Trabajo de Windows... Utilice software antivirus y realice análisis profundos con regularidad. Puedes leer cómo. Buena suerte.

Los parámetros más básicos que afectan la velocidad de una computadora son: hardware... Depende de qué tipo de hardware esté instalado en la PC cómo funcionará.

UPC

Se le puede llamar el corazón de la computadora. Muchos simplemente están seguros de que el parámetro principal que afecta la velocidad de una PC es frecuencia de reloj y esto es correcto, pero no del todo.

Por supuesto, la cantidad de GHz es importante, pero el procesador también juega un papel importante. No debe entrar en demasiados detalles, simplifiquemos: cuanto mayor sea la frecuencia y más núcleos, más rápida será su computadora.

RAM

Nuevamente, cuantos más gigabytes de esta memoria, mejor. RAM o RAM abreviado- memoria temporal donde se escriben los datos del programa acceso rapido... Sin embargo, despus de apagar PC están todos borrados, es decir, es voluble - dinámica.

Y aquí hay algunos matices. La mayoría, en busca de la cantidad de memoria, colocan un montón de barras de diferentes fabricantes y con diferentes parámetros, no obteniendo así el efecto deseado. Para que la ganancia de rendimiento sea máximo, es necesario colocar tablones con las mismas características.

Esta memoria también tiene una velocidad de reloj, y cuanto mayor sea, mejor.

Video adaptador

El puede ser discreto y incorporado... El integrado se encuentra en la placa base y sus especificaciones son muy malas. Solo son suficientes para el trabajo regular de oficina.

Si planeas jugar juegos modernos, usa programas que procesen gráficos, entonces necesitas tarjeta gráfica discreta ... Al hacerlo, aumentará rendimiento tu computador. Esta es una placa separada que debe insertarse en un conector especial ubicado en la placa base.

tarjeta madre

Es el tablero más grande del bloque. De ella directamente el rendimiento depende toda la computadora, ya que todos sus componentes están ubicados en ella o conectados a ella.

HDD

Este es el dispositivo de almacenamiento donde almacenamos todos nuestros archivos, juegos instalados y programas. Son de dos tipos: HDD ySSD... Estos últimos funcionan mucho más rápido, consumen menos energía y son silenciosos. Los primeros también tienen parámetros que afectan rendimiento PC: velocidad y volumen de rotación. Y nuevamente, cuanto más altos sean, mejor.

Fuente de alimentación

Debe suministrar energía a todos los componentes de la PC en un volumen suficiente, de lo contrario el rendimiento disminuirá significativamente.

Parámetros del programa

Además, la velocidad de la computadora se ve afectada por:

  • Estado establecido sistema operativo.
  • Versión OS.

SO instalado y software debe ser correcto sintonizado y libre de virus, el rendimiento será excelente.

Por supuesto, de vez en cuando necesitas reinstalar sistema y todo el software, para que la computadora funcione más rápido. Además, debe realizar un seguimiento de las versiones de software, porque las antiguas pueden funcionar. despacio por los errores que contienen. Es necesario utilizar utilidades que limpien el sistema de basura y aumenten su rendimiento.

Desmontando mitos sobre el rendimiento de la GPU | Definiendo el concepto de desempeño

Si eres un entusiasta de los autos, probablemente hayas discutido con tus amigos más de una vez sobre las posibilidades de dos autos deportivos. Es posible que uno de los autos tenga más caballos de fuerza, una velocidad más rápida, un peso más liviano y un mejor manejo. Pero muy a menudo las disputas se limitan a comparar la velocidad de pasar el círculo de Nurburgring y siempre terminan con alguien de la empresa arruinando toda la diversión, recordando que ninguno de los contendientes todavía puede pagar los autos en cuestión.

Se puede establecer una analogía similar con las costosas tarjetas de video. Tenemos una velocidad de cuadro promedio, fluctuaciones en el tiempo de alimentación de cuadros, emisión de ruido del sistema de enfriamiento y un precio que en algunos casos puede duplicar el costo de los modernos. consolas de juegos... Y para hacerlo más convincente, algunas tarjetas de video modernas usan aleaciones de aluminio y magnesio, casi como en los autos de carreras. Por desgracia, existen algunas diferencias. A pesar de todos los intentos de impresionar a la niña con la nueva GPU, asegúrese de que le gusten más los autos deportivos.

¿Cuál es el equivalente a una velocidad de vuelta para una tarjeta de video? ¿Qué factor diferencia a los ganadores y perdedores al mismo costo? Claramente, esta no es una velocidad de cuadro promedio, y la evidencia de esto es la presencia de fluctuaciones en el tiempo de cuadro, desgarros, desaceleración y ventiladores zumbando como un motor a reacción. Además, hay otros especificaciones: velocidad de renderizado de texturas, rendimiento computacional, ancho de banda de memoria. ¿Qué importancia tienen estos indicadores? ¿Tienes que jugar con auriculares por el insoportable ruido del ventilador? ¿Cómo tener en cuenta el potencial de overclocking al evaluar un adaptador de gráficos?

Antes de profundizar en los mitos sobre las tarjetas gráficas modernas, primero debe comprender qué es exactamente el rendimiento.

El rendimiento es un conjunto de métricas, no una única métrica

Las discusiones sobre el rendimiento de la GPU a menudo se reducen a un concepto genérico de velocidad de fotogramas o FPS. En la práctica, el concepto de rendimiento de la tarjeta de vídeo incluye muchos más parámetros además de la frecuencia con la que se renderizan los fotogramas. Son más fáciles de considerar dentro de un significado complejo en lugar de uno solo. El complejo tiene cuatro aspectos principales: velocidad (velocidad de fotogramas, retardo de fotogramas y retardo de entrada), calidad de imagen (resolución y calidad de imagen), silencio (eficiencia acústica, teniendo en cuenta el consumo de energía y el diseño más fresco) y, por supuesto, la asequibilidad en relación Costar.

Hay otros factores que afectan el valor de una tarjeta de video: por ejemplo, los juegos que vienen con el paquete o las tecnologías exclusivas utilizadas por un fabricante en particular. Los veremos brevemente. Si bien en realidad el valor de CUDA, la compatibilidad con Mantle y ShadowPlay depende en gran medida de las necesidades del usuario individual.

El gráfico anterior ilustra la posición GeForce GTX 690 con respecto a una serie de factores que hemos descrito. En la configuración estándar, el acelerador de gráficos en el sistema de prueba (su descripción se da en una sección separada) alcanza 71.5 FPS en la prueba Unigine Valley 1.0 en modo ExtremeHD. Al mismo tiempo, la tarjeta genera un ruido perceptible, pero no perturbador, al nivel de 42,5 dB (A). Si está listo para soportar el ruido al nivel de 45.5 dB (A), entonces puede overclockear el chip de manera segura hasta que alcance una frecuencia estable de 81.5 FPS en el mismo modo. Reducir la resolución o el nivel de suavizado (que afecta la calidad) da como resultado un aumento significativo en la velocidad de fotogramas, con los factores restantes sin cambios (incluido el precio ya alto de $ 1000).

Para proporcionar un proceso de prueba más controlado, es necesario determinar el punto de referencia para el rendimiento de la tarjeta de video.


Postquemador MSI y EVGA PrecisionX son utilidades gratuitas permitiendo el uso Ajuste manual velocidad del ventilador y, como resultado, control de emisión de ruido.

Para el artículo de hoy, definimos el rendimiento como la cantidad de cuadros por segundo que una tarjeta de video puede generar a una resolución seleccionada dentro de una aplicación específica (y bajo las siguientes condiciones):

  • Los ajustes de calidad se establecen en sus valores máximos (normalmente Ultra o Extreme).
  • La resolución se establece en un nivel constante (generalmente 1920 x 1080, 2560 x 1440, 3840 x 2160 o 5760 x 1080 píxeles en una configuración de tres monitores).
  • Los controladores se ajustan a los parámetros estándar del fabricante (tanto en general como para una aplicación específica).
  • La tarjeta de video funciona en caso cerrado a un nivel de ruido de 40 dB (A) medido a 90 cm del armario (idealmente probado con una plataforma de referencia que se actualiza anualmente).
  • La tarjeta de video opera a una temperatura ambiente de 20 ° C y una presión de una atmósfera (esto es importante, ya que afecta directamente la respuesta de estrangulamiento térmico).
  • El núcleo y la memoria operan a temperaturas de hasta el estrangulamiento térmico de modo que la frecuencia / temperatura del núcleo bajo carga permanece estable o cambia en un rango muy estrecho, mientras se mantiene un nivel de ruido constante de 40 dB (A) (y, en consecuencia, la velocidad del ventilador ) ..
  • Las fluctuaciones en el tiempo de fotograma del percentil 95 no superan los 8 ms, que es igual a la mitad del tiempo de fotograma, en una pantalla estándar con una frecuencia de actualización de 60 Hz.
  • La tarjeta funciona al 100% o cerca de la carga de la GPU (esto es importante para demostrar que no hay cuellos de botella en la plataforma; si los hay, la carga de la GPU estará por debajo del 100% y los resultados de la prueba no tendrán sentido).
  • El FPS promedio y las fluctuaciones del tiempo de alimentación del cuadro se obtuvieron a partir de al menos tres corridas para cada medición, con cada corrida que duró al menos un minuto, y las muestras individuales no deben desviarse más del 5% del promedio (idealmente, queremos probar diferentes tarjetas en al mismo tiempo, especialmente si existe la sospecha de discrepancias significativas entre productos del mismo fabricante).
  • La velocidad de fotogramas de una sola tarjeta se mide mediante Fraps o contadores integrados. FCAT se utiliza para varias tarjetas en el paquete SLI / CrossFire.

Como puede imaginar, el nivel de referencia de rendimiento depende tanto de la aplicación como de la resolución. Pero está definido de tal manera que permite que las pruebas se repitan y verifiquen de forma independiente. En este sentido, este enfoque es verdaderamente científico. De hecho, nos interesa que fabricantes y aficionados repitan las pruebas y nos informen de cualquier discrepancia. Ésta es la única forma de garantizar la integridad de nuestro trabajo.

Esta definición de rendimiento no tiene en cuenta el overclocking o el rango de comportamiento de una GPU en particular en diferentes tarjetas de video. Afortunadamente nos dimos cuenta este problema sólo en unos pocos casos. Los motores de estrangulamiento térmico modernos están diseñados para extraer las velocidades de cuadro máximas en la mayoría de los escenarios posibles, por lo que las tarjetas gráficas funcionan muy cerca de sus capacidades máximas. Y el límite a menudo se alcanza antes de que el overclocking proporcione una ventaja de velocidad real.

V este material Haremos un uso extensivo del punto de referencia Unigine Valley 1.0. Aprovecha varias funciones de DirectX 11 y permite realizar evaluaciones comparativas fácilmente reproducibles. Además, no depende de la física (y, como resultado, de la CPU) como lo hace 3DMark (al menos en pruebas generales y combinadas).

¿Qué vamos a hacer?

Ya hemos descubierto la definición del rendimiento de las tarjetas de video. A continuación, veremos la metodología, la sincronización V, el ruido y el rendimiento ajustados para el ruido de la tarjeta de video, y la cantidad de memoria de video que realmente se necesita para funcionar. En la segunda parte veremos las técnicas de anti-aliasing, efectos de visualización, varias configuraciones de línea. PCI-Express y el valor de su inversión en la compra de una tarjeta gráfica.

Es hora de familiarizarse con configuración de prueba... En el contexto de este artículo, se debe prestar especial atención a esta sección porque contiene información importante sobre las pruebas en sí.

Desmontando mitos sobre el rendimiento de la GPU | Como probamos

Dos sistemas, dos objetivos

Realizamos todas las pruebas en dos stands diferentes. Un soporte está equipado con un procesador antiguo. Intel Core i7-950 y el otro es un chip moderno Intel Core i7-4770K .

Sistema de prueba 1
Cuadro Corsair Obsidian Series 800D
UPC núcleo Intel i7-950 (Bloomfield), overclockeado a 3.6GHz, Hyper-Threading y ahorro de energía desactivado Torre
CPU más fría Ventilador CoolIT Systems ACO-R120 ALC, Tuniq TX-4 TIM, Scythe GentleTyphoon de 1850 RPM
tarjeta madre Asus Rampage III Formula Intel LGA 1366, conjunto de chips Intel X58, BIOS: 903
La red Cisco-Linksys WMP600N (Ralink RT286)
RAM Corsair CMX6GX3M3A1600C9, 3 x 2 GB 1600 MT / s, CL 9
Dispositivo de almacenamiento Samsung 840 Pro SSD 256 GB SATA 6 Gb / s
Tarjetas de video

Tarjeta de sonido Asus Xonar Essence STX
Fuente de alimentación Corsair AX850, 850 W
Controladores y software del sistema
Sistema operativo Windows 7 Enterprise x64, Aero desactivado (vea la nota abajo)
Windows 8.1 Pro x64 (solo referencia)
DirectX DirectX 11
Controladores de video AMD Catalyst 13.11 Beta 9.5
Nvidia GeForce 331.82 WHQL

Prueba del sistema 2
Cuadro Cooler Master HAF XB, escritorio / banco de pruebas forma híbrida
UPC Intel Core i7-4770k (Haswell), overclockeado a 4.6GHz, Hyper-Threading y ahorro de energía desactivado
CPU más fría Xigmatek Aegir SD128264, Xigmatek TIM, ventilador Xigmatek de 120 mm
tarjeta madre ASRock Extreme6 / ac Intel LGA 1150, conjunto de chips Intel Z87, BIOS: 2.20
La red tarjeta mini-PCIe Wi-Fi 802.11ac
RAM G.Skill F3-2133C9D-8GAB, 2 x 4 GB, 2133 MT / s, CL 9
Dispositivo de almacenamiento Samsung 840 Pro SSD 128 GB SATA 6 Gb / s
Tarjetas de video AMD Radeon R9 290X 4GB (muestra de prensa)
Nvidia GeForce GTX 690 4GB (muestra minorista)
Nvidia GeForce GTX Titan 6GB (muestra de prensa)
Tarjeta de sonido Realtek ALC1150 integrado
Fuente de alimentación Cooler Master V1000, 1000 W
Controladores y software del sistema
Sistema operativo Windows 8.1 Pro x64
DirectX DirectX 11
Controladores de video AMD Catalyst 13.11 Beta 9.5
Nvidia GeForce 332.21 WHQL

El primero sistema de prueba lo necesitamos para obtener resultados repetibles en entornos reales. Por lo tanto, armamos un sistema relativamente antiguo, pero aún poderoso, basado en la plataforma LGA 1366 en un formato de torre grande y de tamaño completo.

El segundo sistema de prueba debería cumplir requisitos más específicos:

  • Compatibilidad con PCIe 3.0 con carriles limitados (la CPU Haswell para LGA 1150 solo ofrece 16 carriles)
  • Sin puente PLX
  • Soporte para tres tarjetas en CrossFire en configuración x8 / x4 / x4 o dos en SLI en x8 / x8

ASRock nos envió tarjeta madre Z87 Extreme6 / ac que se adapta a nuestras necesidades. Hemos probado previamente Este modelo(solo sin módulo Wi-Fi) en el artículo "Prueba de cinco placas base en el chipset Z87 que cuestan menos de 220 dólares" en el que recibió nuestro premio Smart Buy. La muestra que llegó a nuestro laboratorio resultó ser fácil de configurar y realizamos overclock Intel Core i7-4770K hasta 4,6 GHz.

Las placas UEFI le permiten configurar la velocidad en baudios de PCI Express para cada ranura, para que pueda probar la PCIe de primera, segunda y tercera generación en la misma placa base. Los resultados de estas pruebas se publicarán en la segunda parte de este artículo.

Cooler Master proporcionó la caja y la fuente de alimentación para el segundo sistema de prueba. Estuche inusual HAF XB, que también recibió un premio Smart Buy en un artículo Revisión y prueba del caso Cooler Master HAF XB, proporciona el espacio necesario para el libre acceso a los componentes. La carcasa tiene muchas rejillas de ventilación, por lo que los componentes internos pueden volverse bastante ruidosos si el sistema de refrigeración no se combina correctamente. Sin embargo, este modelo cuenta con una buena circulación de aire, especialmente si están instalados todos los ventiladores opcionales.

La fuente de alimentación modular V1000 le permite instalar tres tarjetas gráficas de alto rendimiento en la carcasa mientras mantiene una apariencia ordenada del cableado.

Comparación del sistema de prueba n. ° 1 con el sistema n. ° 2

Es sorprendente lo similares que son estos sistemas en términos de rendimiento, además de la arquitectura y el enfoque en las velocidades de cuadro. Aquí están sus comparación en 3DMark Firestrike .

Como puede ver, el rendimiento de ambos sistemas en las pruebas gráficas es, de hecho, igual, aunque el segundo sistema está equipado con más memoria rapida(DDR3-2133 versus DDR3-1800, y Nehalem tiene una arquitectura de tres canales, mientras que Haswell tiene una arquitectura de dos canales). Solo en pruebas de procesador host Intel Core i7-4770K demuestra su ventaja.

La principal ventaja del segundo sistema es más margen para el overclocking. Intel Core i7-4770K refrigerado por aire fue capaz de mantener una frecuencia estable de 4,6 GHz, y Intel Core i7-950 no puede exceder los 4 GHz refrigerados por agua.

También vale la pena señalar que el primer sistema de prueba se prueba en la sala de operaciones. Sistema de Windows 7x64 en lugar de Windows 8.1... Hay tres razones para esto:

  • Primero, el administrador de trabajadores virtuales escritorio de windows(Windows Aero o wdm.exe) utiliza una cantidad significativa de memoria de video. Con una resolución de 2160p, Windows 7 ocupa más de 200 MB, Windows 8.1- 300 MB, además de 123 MB ventanas reservadas... V Windows 8.1 Es imposible desactivar esta opción sin efectos secundarios importantes, pero en Windows 7 el problema se resuelve cambiando al tema básico. 400 MB es el 20% de la memoria de video total de la tarjeta de 2 GB.
  • Cuando se activan los temas básicos (simplificados), el consumo de memoria en Windows 7 se estabiliza. Ella siempre toma 99 MB a 1080p y 123 MB a 2160p con una tarjeta gráfica GeForce GTX 690... Esto permite la máxima repetibilidad de la prueba. A modo de comparación: Aero ocupa unos 200 MB y +/- 40 MB.
  • CON Controlador de nvidia 331.82 WHQL hay un error cuando activación de Windows Aero a 2160p. Aparece solo cuando Aero está encendido en la pantalla, en la que la imagen 4K se realiza mediante dos mosaicos y se manifiesta en una carga reducida en la GPU durante la prueba (salta en el rango de 60-80% en lugar de 100%) , lo que afecta la pérdida de rendimiento hasta en un 15%. Ya hemos notificado a Nvidia de nuestro hallazgo.

Es imposible mostrar efectos de imagen fantasma y desgarro en capturas de pantalla regulares y videos de juegos. Por lo tanto, usamos una cámara de video de alta velocidad para capturar la imagen real en la pantalla.

La temperatura en la carcasa se mide con el sensor de temperatura incorporado Samsung 840 Pro. La temperatura ambiente es de 20-22 ° C. Ruido de fondo para todos pruebas acústicas fue 33,7 dB (A) +/- 0,5 dB (A).

Configuración de prueba
Juegos
The Elder Scrolls V: Skyrim Versión 1.9.32.0.8, prueba propia de THG, 25 segundos, HWiNFO64
Hitman: Absolution Versión 1.0.447.0, benchmark incorporado, HWiNFO64
Total War: Rome 2 Parche 7, punto de referencia "Forest" integrado, HWiNFO64
BioShock Infinite Parche 11, Versión 1.0.1593882, punto de referencia incorporado, HWiNFO64
Ensayos sintéticos
Ungine Valley Versión 1.0, ExtremeHD Preset, HWiNFO64
3DMark Fire Strike Versión 1.1

Se pueden usar muchas herramientas para medir el consumo de memoria de video. Optamos por HWiNFO64, que ha recibido altas calificaciones de la comunidad de entusiastas. El mismo resultado se puede obtener con usando MSI Postquemador, EVGA Precision X o Estadísticas de RivaTuner Servidor.

Desmontando mitos sobre el rendimiento de la GPU | Si habilitar o no V-Sync es la cuestión

Al evaluar las tarjetas de video, el primer parámetro que quiero comparar es el rendimiento. Qué moderno y más Decisiones rápidas superar a los productos anteriores? La web mundial está repleta de datos de prueba de miles de recursos en línea que intentan responder a esta pregunta.

Comencemos por analizar el rendimiento y los factores a considerar si realmente desea saber qué tan rápida es una tarjeta gráfica en particular.

Mito: la velocidad de fotogramas es un indicador del nivel de rendimiento de los gráficos.

Comencemos con un factor que nuestros lectores probablemente ya conocen, pero muchos todavía tienen una idea equivocada al respecto. El sentido común dicta que una velocidad de fotogramas de 30 FPS o más se considera adecuada para el juego. Algunas personas piensan que incluso valores más bajos servirán para un juego normal, mientras que otros insisten en que incluso 30 FPS es muy poco.

Sin embargo, en la controversia, no siempre es obvio que FPS sea solo la frecuencia detrás de la cual se encuentran algunos asuntos complejos. En primer lugar, en las películas la frecuencia es constante, pero en los juegos cambia y, como resultado, se expresa como un valor medio. Las fluctuaciones de frecuencia son un subproducto de la potencia requerida por la tarjeta gráfica para procesar la escena, y las velocidades de fotogramas cambian a medida que cambia el contenido de la pantalla.

Es simple: la calidad de la experiencia de juego es más importante que una alta velocidad de cuadro promedio. La estabilidad de la dotación de personal es otro factor de suma importancia. Imagínese conducir por una autopista a una velocidad constante de 100 km / hy el mismo viaje a una velocidad media de 100 km / h, lo que consume mucho tiempo de cambio y frenado. Llegarás al lugar señalado a la misma hora, pero las impresiones del viaje variarán mucho.

Así que dejemos de lado la pregunta "¿Qué nivel de desempeño será suficiente?" por el lado. Volveremos a él después de discutir otros temas importantes.

Presentamos V-sync

Mitos: No es necesario tener una frecuencia de fotogramas superior a 30 FPS, ya que el ojo humano no ve la diferencia. Los valores superiores a 60 FPS en un monitor de 60 Hz no son necesarios, ya que la imagen ya se muestra 60 veces por segundo. V-sync siempre debe estar activado. V-sync siempre debe estar desactivado.

¿Cómo se muestran realmente los fotogramas renderizados? Casi todos los monitores LCD funcionan de tal manera que la imagen en la pantalla se actualiza un número fijo de veces por segundo, generalmente 60. Aunque existen modelos capaces de actualizar la imagen a 120 y 144 Hz. Este mecanismo se llama frecuencia de actualización y se mide en hercios.

La discrepancia entre la frecuencia de cuadro variable de la tarjeta gráfica y la frecuencia de actualización fija del monitor puede ser un problema. Cuando la frecuencia de fotogramas es mayor que la frecuencia de actualización, se pueden mostrar varios fotogramas en un solo escaneo, lo que da como resultado un artefacto llamado desgarro de pantalla. En la imagen de arriba, las barras de colores enfatizan los fotogramas individuales de la tarjeta de video, que se muestran cuando están listos. Esto puede resultar muy molesto, especialmente en los juegos de disparos en primera persona llenos de acción.

La siguiente imagen muestra otro artefacto que aparece a menudo en la pantalla, pero que es difícil de capturar. Dado que este artefacto está asociado con el funcionamiento de la pantalla, no es visible en las capturas de pantalla, pero es claramente visible a simple vista. Para atraparlo, necesita una cámara de video de alta velocidad. La utilidad FCAT que usamos para capturar un fotograma en Battlefield 4, muestra un espacio, pero no un efecto fantasma.

El desgarro de la pantalla es evidente en ambas imágenes de BioShock Infinite. Sin embargo, en el panel Sharp 60Hz, es mucho más pronunciado que en el monitor Asus 120Hz, ya que la frecuencia de actualización de la pantalla del VG236HE es el doble. Este artefacto es la indicación más clara de que la sincronización vertical, o sincronización V, no está habilitada en el juego.

El segundo problema en la imagen de BioShock es el efecto fantasma, que es claramente visible en la parte inferior de la imagen de la izquierda. Este artefacto está asociado con el retraso en la visualización de la imagen en la pantalla. En resumen: los píxeles individuales no cambian de color lo suficientemente rápido, y así es como tipo dado resplandor crepuscular. Este efecto en el juego aparece mucho más vívidamente de lo que se muestra en la imagen. El panel Sharp de la izquierda tiene un tiempo de respuesta de gris a gris de 8 ms y parece borroso con movimientos rápidos.

Volvamos a las lagunas. La sincronización vertical anterior es una solución bastante antigua al problema. Consiste en sincronizar la frecuencia a la que la tarjeta de video entrega cuadros con la frecuencia de actualización del monitor. Dado que varios fotogramas ya no aparecen al mismo tiempo, tampoco hay interrupciones. Pero si en la configuración de gráficos máxima de su juego favorito la frecuencia de fotogramas cae por debajo de 60 FPS (o por debajo de la frecuencia de actualización de su panel), entonces la frecuencia de fotogramas efectiva saltará entre múltiplos de la frecuencia de actualización, como se muestra a continuación. Este es otro artefacto llamado frenado.

Una de las controversias más antiguas en Internet es la sincronización vertical. Alguien insiste en que la tecnología siempre debe estar encendida, alguien está seguro de que siempre debe estar apagada y alguien elige la configuración según el juego específico.

Entonces, ¿habilitar o no V-sync?

Digamos que eres la mayoría y estás usando una pantalla normal con una frecuencia de actualización de 60Hz:

  • Si estás jugando juegos de disparos en primera persona y / o tienes problemas con el retraso de entrada percibido, y / o tu sistema no puede mantener al menos 60 FPS en el juego en todo momento, y / o estás probando una tarjeta de video, entonces la sincronización vertical debería apagarse.
  • Si ninguno de los factores anteriores se aplica a usted y ve un desgarro notable en la pantalla, entonces la sincronización vertical debe estar activada.
  • Si no está seguro, es mejor dejar desactivado V-sync.
Si está utilizando una pantalla para juegos de 120/144 Hz (si posee una de estas pantallas, es probable que la haya comprado debido a la alta frecuencia de actualización):
  • Vsync solo debe activarse en juegos más antiguos en los que el juego se ejecuta a velocidades de cuadro superiores a 120 FPS y la pantalla se rompe todo el tiempo.

Tenga en cuenta que, en algunos casos, el efecto de caída de la velocidad de fotogramas debido a la sincronización V no aparece. Estas aplicaciones admiten el almacenamiento en búfer triple, aunque esta solución no es muy común. También en algunos juegos (por ejemplo, The Elder Scrolls V: Skyrim), V-sync está activado de forma predeterminada. Forzar el apagado modificando algunos archivos genera problemas con el motor del juego. En tales casos, es mejor dejar Vsync habilitado.

G-Sync, FreeSync y el futuro

Afortunadamente, incluso en la mayoría computadoras débiles el retardo de entrada no superará los 200 ms. Por lo tanto, su propia reacción tiene la mayor influencia en los resultados del juego.

Sin embargo, a medida que aumentan las diferencias en la latencia de entrada, aumenta su impacto en el juego. Imagina un jugador profesional cuya reacción es comparable a la de los mejores pilotos, es decir, 150ms. Un retraso de entrada de 50 ms significa que la persona responderá un 30% más lento (es decir, cuatro cuadros en la pantalla con una frecuencia de actualización de 60Hz) de su oponente. A nivel profesional, esta es una diferencia muy notable.

Para los simples mortales (incluidos nuestros editores, que mostraron un resultado de 200 ms en la prueba visual) y para aquellos que prefieren jugar Civilization V en lugar de Counter Strike 1.6, las cosas son un poco diferentes. Probablemente pueda ignorar el retraso de entrada por completo.

En igualdad de condiciones, aquí hay algunos factores que pueden empeorar la latencia de entrada:

  • Reproducir en un HDTV (especialmente si el Modo Juego está desactivado) o reproducir en una pantalla LCD con procesamiento de video que no se puede apagar. Se puede encontrar una lista ordenada de métricas de retraso de entrada para varias pantallas en la base de datos DisplayLag .
  • Reproducir en pantallas LCD con paneles IPS con más hora alta respuesta (típicamente 5-7ms G2G) en lugar de paneles de película TN + (1-2ms GTG) o pantallas CRT (más rápido disponible).
  • Juega en pantallas de baja frecuencia de actualización. Las nuevas pantallas de juegos admiten 120 Hz o 144 Hz.
  • Reproducción a baja velocidad de fotogramas (30 FPS es un fotograma cada 33 ms; 144 FPS es un fotograma cada 7 ms).
  • Usando un mouse USB con una tasa de sondeo baja. El tiempo de ciclo a 125 Hz es de aproximadamente 6 ms, lo que da un retraso de entrada promedio de aproximadamente 3 ms. Al mismo tiempo, la tasa de sondeo ratón para juegos puede llegar hasta 1000 Hz, con un retardo de entrada medio de 0,5 ms.
  • Usando un teclado de baja calidad (por lo general, el retraso de entrada del teclado es de 16 ms, pero en modelos económicos puede ser incluso mayor).
  • Habilitar V-sync, especialmente cuando se combina con el almacenamiento en búfer triple (existe el mito de que Direct3D no incluye el almacenamiento en búfer triple. De hecho, Direct3D tiene en cuenta la opción de almacenamiento en búfer en segundo plano múltiple, pero pocos juegos la usan). Si es un experto en tecnología, puede consultar revisado por Microsoft(Inglés) sobre este asunto.
  • Un juego con un tiempo de preprocesamiento elevado. La cola predeterminada en Direct3D es de tres fotogramas, o 48 ms a 60 Hz. Este valor puede aumentarse hasta 20 fotogramas para obtener más "suavidad" y reducirse a un fotograma para una mejor respuesta debido al aumento de las fluctuaciones en el tiempo de fotograma y, en algunos casos, la pérdida general de FPS. No hay ningún parámetro nulo. Zero simplemente restablece la configuración a su valor original de tres fotogramas. Si es un experto en tecnología, puede consultar revisado por Microsoft(Inglés) sobre este asunto.
  • Alta latencia de la conexión a Internet. Si bien esto no es del todo relevante para la definición de latencia de entrada, tiene un efecto notable en ella.

Factores que no afectan la latencia de entrada:

  • Usando un teclado con un conector PS / 2 o USB (vea la página adicional en nuestra revisión "Cinco teclados con interruptor mecánico: solo lo mejor para tus manos"(Inglés)).
  • Usando cableado o inalámbrico conexión de red(verifique el ping de su enrutador si no lo cree; el ping no debe exceder 1 ms).
  • Usando SLI o CrossFire. Las colas de procesamiento más largas necesarias para implementar estas tecnologías se compensan con el mayor rendimiento.

Conclusión: el retraso de entrada solo es importante para juegos "rápidos" y realmente juega un papel importante a nivel profesional.

No es solo la tecnología de visualización y la tarjeta gráfica las que afectan el retraso de entrada. El hardware, la configuración del hardware, la pantalla, la configuración de la pantalla y la configuración de la aplicación contribuyen a este indicador.

Desmontando mitos sobre el rendimiento de la GPU | Mitos de la memoria de video

La memoria de video es responsable de la configuración de resolución y calidad, pero no aumenta la velocidad

Los fabricantes suelen utilizar la memoria de vídeo como herramienta de marketing. Dado que los jugadores están convencidos de que más es mejor, a menudo vemos tarjetas gráficas de nivel de entrada que tienen significativamente más RAM de la que realmente necesitan. Pero los entusiastas saben que lo más importante es el equilibrio, y en todos los componentes de la PC.

En términos generales, la memoria de video se refiere a la GPU discreta y las tareas que maneja, independientemente de la memoria del sistema instalada en la placa base. Las tarjetas gráficas utilizan varias tecnologías de RAM, las más populares de las cuales son DDR3 y GDDR5 SDRAM.

Mito: las tarjetas gráficas con 2 GB de memoria son más rápidas que los modelos con 1 GB.

No es sorprendente que los fabricantes estén equipando GPU de bajo costo con más memoria (y mayores ganancias), ya que mucha gente cree que más memoria agregará velocidad. Echemos un vistazo a este problema. La cantidad de memoria de video de una tarjeta de video no afecta su rendimiento, si no elige configuraciones de juego que utilizan toda la memoria disponible.

Pero entonces, ¿por qué necesita memoria de video adicional? Para responder a esta pregunta, debe averiguar para qué se utiliza. La lista es simplificada pero útil:

  • Dibujar texturas.
  • Soporte de búfer de cuadros.
  • Soporte de búfer de profundidad ("Z Buffer").
  • Soporte para otros recursos necesarios para renderizar el marco (mapas de sombras, etc.).

Por supuesto, el tamaño de las texturas que se cargan en la memoria depende del juego y de la configuración de detalles. Por ejemplo, el paquete de texturas de alta resolución de Skyrim incluye 3GB de texturas. La mayoría de los juegos cargan y descargan texturas dinámicamente según sea necesario, sin embargo, no todas las texturas necesitan estar en la memoria de video. Pero las texturas que se deben representar en una escena en particular deben estar en la memoria.

Se utiliza un búfer de fotogramas para almacenar la imagen tal como se renderiza antes o mientras se envía a la pantalla. Por lo tanto, la cantidad de memoria de video requerida depende de la resolución de salida (una imagen con una resolución de 1920 x 1080 píxeles a 32 bits por píxel "pesa" aproximadamente 8,3 MB, y una imagen 4K con una resolución de 3840 x 2160 píxeles a 32 bits por píxel es ya unos 33,2 MB) y el número de búferes (al menos dos, rara vez tres o más).

Los modos especiales anti-aliasing (FSAA, MSAA, CSAA, CFAA, pero no FXAA o MLAA) aumentan de manera efectiva la cantidad de píxeles que deben procesarse y aumentan proporcionalmente la cantidad total de memoria de video requerida. El suavizado basado en renderizado tiene un efecto particularmente grande en el consumo de memoria, que aumenta con el tamaño de la muestra (2x, 4x, 8x, etc.). Los búferes adicionales también consumen memoria de video.

Así, una tarjeta de video con una gran cantidad de memoria gráfica permite:

  1. Juega a resoluciones más altas.
  2. Juega con una configuración de calidad de textura más alta.
  3. Juega a niveles más altos de suavizado.

Ahora destruimos el mito.

Mito: necesitas 1, 2, 3, 4 o 6 GB de VRAM para jugar (inserta la resolución nativa de tu pantalla).

El factor más importante a considerar al elegir la cantidad de RAM es la resolución a la que jugará. Naturalmente, las resoluciones más altas requieren más memoria. El segundo factor importante es el uso de las tecnologías anti-aliasing mencionadas anteriormente. Otros parámetros gráficos son menos importantes en términos de la cantidad de memoria requerida.

Antes de entrar en las medidas reales, déjeme advertirle. Existe un tipo especial de tarjeta gráfica de gama alta con dos GPU (AMD Radeon HD 6990 y Radeon HD 7990 así como Nvidia GeForce GTX 590 y GeForce GTX 690), que están equipados con una cierta cantidad memoria. Pero como resultado de usar una configuración de dos GPU, los datos se duplican esencialmente, dividiendo la cantidad efectiva de memoria en dos. Por ejemplo, GeForce GTX 690 con 4 GB se comporta como dos tarjetas de 2 GB en SLI. Además, cuando agrega una segunda tarjeta a una configuración CrossFire o SLI, la memoria de video de la matriz no se duplica. Cada tarjeta reserva solo su propia cantidad de memoria.

Ejecutamos estas pruebas en Windows 7 x64 con el tema Aero desactivado. Si está utilizando Aero (o Windows 8 / 8.1, que no tiene Aero), se pueden agregar aproximadamente 300 MB a las métricas.

Como se vio de la última encuesta en Steam, la mayoría de los jugadores (aproximadamente la mitad) usan tarjetas de video con 1 GB de memoria de video, aproximadamente el 20% tiene modelos con 2 GB y una pequena cantidad de de los usuarios (menos del 2%) trabajan con adaptadores gráficos con 3 GB de memoria de video o más.

Probamos Skyrim con el paquete de texturas oficial Alta calidad... Como puede ver, 1 GB de memoria es apenas suficiente para reproducir a 1080p sin suavizado o usando MLAA / FXAA. 2 GB te permite ejecutar el juego a una resolución de 1920 x 1080 píxeles con máximo detalle y 2160p con suavizado reducido. Para activar la configuración máxima y el anti-aliasing 8xMSAA, incluso 2 GB no son suficientes.

El motor de creación de Bethesda es único este paquete puntos de referencia. No siempre está limitado por la velocidad de la GPU, pero a menudo está limitado por las capacidades de la plataforma. Pero en estas pruebas, vimos por primera vez cómo Skyrim en la configuración máxima alcanza el límite de la memoria de video del adaptador gráfico.

También vale la pena señalar que la activación de FXAA no consume memoria adicional... Por lo tanto, existe un buen compromiso cuando no es posible utilizar MSAA.

Desmontando mitos sobre el rendimiento de la GPU | Dimensiones adicionales de la memoria de video

El motor gráfico Glacier 2 de Io Interactive, en el que se basa Hitman: Absolution, consume mucha memoria y, en nuestras pruebas, es solo superado por el motor Warscape de Creative Assembly (Total War: Rome II) con la configuración de máximo detalle.

En Hitman: Absolution, una tarjeta de video con 1GB de memoria de video no es suficiente para jugar en configuraciones de ultra calidad a 1080p. El modelo de 2GB habilitará 4xAA a 1080p o reproducirá sin MSAA a 2160p.

Para habilitar 8xMSAA a una resolución de 1080p, se requieren 3 GB de memoria de video, y 8xMSAA a 2160p píxeles podrán sacar una tarjeta de video no más débil GeForce GTX Titan con 6 GB de memoria.

Aquí, la activación de FXAA tampoco usa memoria adicional.

Nota: nueva prueba Ungine Valley 1.0 no admite automáticamente MLAA / FXAA. Por tanto, los resultados de consumo de memoria con MLAA / FXAA se obtienen de forma forzada utilizando CCC / NVCP.

Los datos muestran que la prueba de rendimiento de Valley funciona bien en una tarjeta con 2 GB de memoria a 1080p (al menos en términos de memoria de video). Incluso puedes usar una tarjeta de 1GB con 4xMSAA activo, aunque no todos los juegos podrán hacer esto. Sin embargo, a 2160p, el punto de referencia funciona bien en una tarjeta de 2GB sin efectos de postprocesamiento o anti-aliasing habilitados. El umbral de 2GB se alcanza cuando se activa 4xMSAA.

Ultra HD con 8xMSAA requiere hasta 3 GB de memoria de video. Esto significa que con dicha configuración, el punto de referencia se pasará solo en GeForce GTX Titan o en uno de los modelos AMD de 4GB con chip Hawaii.

Total War: Rome II utiliza el motor Warscape actualizado de Creative Assembly. Actualmente no es compatible con SLI (pero CrossFire sí). Tampoco es compatible con ninguna forma de MSAA. De todas las formas de anti-aliasing, solo se puede usar el MLAA de AMD, que es una de las técnicas de posprocesamiento como SMAA y FXAA.

Una característica interesante de este motor es la capacidad de reducir la calidad de la imagen en función de la memoria de video disponible. El juego puede mantener un nivel aceptable de velocidad con una participación mínima del usuario. Pero la falta de soporte SLI está acabando con el juego en Tarjeta gráfica nvidia en una resolución de 3840x2160 píxeles. Al menos por ahora, este juego se juega mejor en Tarjeta AMD si elige resolución 4K.

Sin MLAA, el punto de referencia "bosque" integrado del juego en una plataforma Extreme usa 1848 MB de memoria de video disponible. Límite GeForce GTX 690 Se superan los 2 GB cuando se activa MLAA a 2160p. A 1920 x 1080 píxeles, el uso de memoria está en el rango de 1400 MB.

tenga en cuenta que Tecnología AMD(MLAA) se ejecuta en hardware Nvidia. Dado que FXAA y MLAA son técnicas de posprocesamiento, técnicamente no hay ninguna razón por la que no puedan funcionar en hardware de otro fabricante. O Creative Assembly está cambiando secretamente a FXAA (a pesar de lo que dice el archivo de configuración), o los especialistas en marketing de AMD no tomaron ese hecho en cuenta.

Para jugar Total War: Rome II a 1080p en configuraciones de gráficos Extreme, necesitas una tarjeta gráfica de 2GB, y para jugar sin problemas a 2160p necesitas una matriz CrossFire de más de 3GB. Si su tarjeta solo tiene 1 GB de memoria de video, aún puede jugar el nuevo Total War, pero solo a 1080p y configuraciones de calidad más bajas.

¿Qué sucede cuando la memoria de video se utiliza por completo? En resumen, los datos se transfieren a la memoria del sistema a través del bus PCI Express. En la práctica, esto significa que el rendimiento cae significativamente, especialmente cuando se han cargado texturas. Es poco probable que quieras enfrentarte a esto, ya que será casi imposible jugar debido a las constantes ralentizaciones.

Entonces, ¿cuánta memoria de video necesitas?

Si tiene una tarjeta de video con 1 GB de memoria de video y un monitor con una resolución de 1080p, entonces no necesita pensar en una actualización en este momento. Sin embargo, la tarjeta de 2GB permitirá configuraciones de anti-aliasing más altas en la mayoría de los juegos, así que considérelo como un punto de partida mínimo si desea disfrutar de juegos modernos a 1920 x 1080.

Si planea usar configuraciones de 1440p, 1600p, 2160p o de varios monitores, entonces es mejor considerar modelos con capacidad de memoria superior a 2GB, especialmente si desea habilitar MSAA. Es mejor considerar comprar un modelo de 3 GB (o varias tarjetas con más de 3 GB de memoria en SLI / CrossFire).

Por supuesto, como dijimos, es importante lograr un equilibrio. Es poco probable que una GPU débil, respaldada por 4 GB de memoria GDDR5 (en lugar de 2 GB), permita reproducir a altas resoluciones solo debido a la presencia de una gran cantidad de memoria. Es por eso que en nuestras revisiones de tarjetas de video probamos varios juegos, varias resoluciones y varias configuraciones de detalle. Después de todo, antes de hacer recomendaciones, es necesario identificar todas las posibles deficiencias.

Desmontando mitos sobre el rendimiento de la GPU | Gestión térmica en tarjetas de video modernas

Moderno Tarjetas gráficas AMD y Nvidia utilizan mecanismos de protección para aumentar la velocidad del ventilador y, en última instancia, reducir la velocidad del reloj y el voltaje si el chip se sobrecalienta. Esta tecnología no siempre funciona para la estabilidad de su sistema (especialmente cuando está overclockeado). Está diseñado para proteger el equipo de daños. Por lo tanto, no es raro que las tarjetas con una configuración de parámetros demasiado alta fallen y requieran un reinicio.

Existe mucha controversia sobre la temperatura máxima de la GPU. Sin embargo, las temperaturas más altas, si el equipo las tolera, son preferibles porque indican una mayor disipación de calor en general (debido a la diferencia con la temperatura ambiente, la cantidad de calor que se puede transferir es mayor). Al menos desde un punto de vista técnico, la decepción de AMD con la respuesta del techo térmico de la GPU de Hawaii es comprensible. Todavía no hay estudios a largo plazo para poder hablar sobre la viabilidad de estos ajustes de temperatura. Basado experiencia personal con respecto a la estabilidad de los dispositivos, preferiríamos confiar en las especificaciones del fabricante.

Por otro lado, es bien sabido que los transistores de silicio funcionan mejor a temperaturas más bajas. Esta es la razón principal por la que los overclockers utilizan refrigeradores de nitrógeno líquido para maximizar el enfriamiento de las virutas. En general, las temperaturas más bajas ayudan a proporcionar más margen para el overclocking.

Las tarjetas gráficas más voraces del mundo son Radeon HD 7990(TDP 375W) y GeForce GTX 690(TDP 300W). Ambos modelos están equipados con dos GPU... Las tarjetas con una sola GPU consumen mucha menos energía, aunque las tarjetas gráficas de la serie Radeon R9 290 acercándose al nivel de 300 vatios. De todos modos, es nivel alto disipación de calor.

Los valores están indicados en la descripción de los sistemas de refrigeración, por lo que hoy no profundizaremos en ellos. Estamos más interesados ​​en lo que sucede cuando se aplica una carga a las GPU modernas.

  1. Está ejecutando una tarea intensa como un juego en 3D o una minería de Bitcoin.
  2. La frecuencia de reloj de la tarjeta de video se incrementa a los valores nominales o de refuerzo. La tarjeta comienza a calentarse debido al aumento del consumo de corriente.
  3. La velocidad del ventilador aumenta gradualmente hasta el punto indicado en el firmware. Como regla general, el crecimiento se detiene cuando el nivel de ruido alcanza los 50 dB (A).
  4. Si la velocidad del ventilador programada no es suficiente para mantener la temperatura de la GPU por debajo de cierto nivel, la velocidad del reloj comienza a disminuir hasta que la temperatura desciende al umbral especificado.
  5. La tarjeta debe funcionar de manera estable en un rango de frecuencia y temperatura relativamente estrecho hasta que se corte la carga.

No es difícil imaginar que el momento en el que se activa el estrangulamiento térmico depende de muchos factores, incluido el tipo de carga, el intercambio de aire en la caja, la temperatura del aire ambiente e incluso la presión ambiental. Esta es la razón por la que las tarjetas de video se ralentizaron en diferentes momentos. El punto de activación de estrangulamiento térmico se puede utilizar para determinar el nivel de rendimiento de referencia. Y si configuramos la velocidad del ventilador (y, en consecuencia, el nivel de ruido) manualmente, podemos crear un punto de medición en función del ruido. ¿Cuál es el punto de esto? Vamos a averiguar ...

Desmontando mitos sobre el rendimiento de la GPU | Prueba de rendimiento a un nivel de ruido constante de 40 dB (A)

¿Por qué 40 dB (A)?

Primero, observe la A entre paréntesis. Significa "ajustado para A". Es decir, los niveles de presión sonora se corrigen a lo largo de una curva que simula la sensibilidad del oído humano a los niveles de ruido en diferentes frecuencias.

Cuarenta decibelios se considera el promedio de ruido de fondo en una habitación normalmente silenciosa. En estudios de grabación, este valor está en la región de 30 dB y 50 dB corresponde a una calle tranquila o una conversación entre dos personas en una habitación. Cero es el umbral mínimo para la audición humana, aunque es muy raro escuchar sonidos en el rango de 0 a 5 dB si tiene más de cinco años. La escala de decibelios es logarítmica, no lineal. Por lo tanto, 50 dB suena dos veces más fuerte que 40, que, a su vez, es dos veces más fuerte que 30.

El nivel de ruido de una PC que funciona a 40 dB (A) debe mezclarse con el ruido de fondo de una casa o apartamento. Como regla general, no debe ser escuchado.

Hecho curioso Hecho curioso: en la habitacion mas silenciosa del mundo el nivel de ruido de fondo es de -9 dB. Si pasa menos de una hora en la oscuridad, debido a la privación sensorial (restricción de la información sensorial), pueden comenzar las alucinaciones. ¿Cómo mantener un nivel de ruido constante de 40 dB (A)?

Varios factores afectan el perfil acústico de una tarjeta de video, uno de los cuales es la velocidad del ventilador. No todos los ventiladores producen la misma cantidad de ruido a la misma velocidad de rotación, pero cada ventilador debe estar al mismo nivel en velocidad constante rotación.

Entonces, midiendo el nivel de ruido directamente con un medidor de SPL a una distancia de 90 cm, ajustamos manualmente el perfil del ventilador para que la presión sonora no supere los 40 dB (A).

Tarjeta de video Ajuste del ventilador% Velocidad del ventilador, rpm dB (A) ± 0,5
Radeon R9 290X 41 2160 40
GeForce GTX 690 61 2160 GeForce GTX 690. Por otro lado, GeForce GTX Titan utiliza un perfil acústico diferente, alcanzando los 40 dB (A) a una velocidad de rotación superior a 2780 rpm. Al mismo tiempo, el ajuste del ventilador (65%) está cerca de GeForce GTX 690 (61%).

Esta tabla ilustra los perfiles de los ventiladores junto con una variedad de ajustes preestablecidos. Las tarjetas overclockeadas pueden ser muy ruidosas bajo carga: obtuvimos un valor de 47 dB (A). Al procesar una tarea típica, la tarjeta resultó ser la más silenciosa. GeForce GTX Titan(38,3 dB (A)), y el más alto es GeForce GTX 690(42,5 dB (A)).

Desmontando mitos sobre el rendimiento de la GPU | ¿Puede el overclocking afectar el rendimiento a 40 dB (A)?

Mito: el overclocking siempre aumenta el rendimiento.

Al ajustar un perfil de fan específico y dejar que las tarjetas bajen el reloj a un nivel estable, obtenemos puntos de referencia interesantes y repetibles.


Tarjeta de video Env. temperatura (° C) Ajuste de ventilación,% Velocidad de ventilación, rpm dB (A) ± 0,5 Reloj GPU1, MHz Reloj GPU2, MHz Hora de memoria, MHz FPS
Radeon R9 290X 30 41 2160 40 870-890 No 1250 55,5
Overclocking Radeon R9 290X 28 41 2160 40 831-895 No 1375 55,5
GeForce GTX 690 42 61 2160 40 967-1006 1032 1503 73,1
Overclocking de GeForce GTX 690 43 61 2160 40 575-1150 1124 1801 71,6
GeForce GTX Titan 30 65 2780 40 915-941 No 1503 62 Radeon R9 290X La Radeon R9 290X se queda atrás en más pruebas estándar.

También es curioso el aumento más pronunciado de la temperatura ambiente en el caso cuando se usa GeForce GTX 690(12-14 ° C). Está conectado al ventilador axial, que se encuentra en el centro de la tarjeta de video. Expulsa aire hacia el interior de la carcasa, lo que limita el margen térmico. En la mayoría de los casos convencionales, esperaríamos una imagen similar. Por lo tanto, debe decidir por su cuenta aumentar la emisión de ruido para mejorar el rendimiento (o viceversa) en función de sus propias preferencias.

Con una comprensión detallada de la sincronización vertical, el retraso de entrada, la memoria de video y probando un perfil acústico específico, podemos volver a trabajar en la segunda parte del artículo, que ya incluye un estudio de las tasas de transferencia de datos PCIe, tamaños de pantalla, un estudio detallado de tecnologías exclusivas de diferentes fabricantes y un análisis de precios.



¿Te gustó el artículo? Compártelo