Контакты

Видеокарты. Видеокарты Разгон карты gtx 680

Перейдём к тестам разгона. Мы попытались выжать из всех трёх видеокарт максимальную частоту кадров, обойдя штатные уровни, выбранные производителями. Как обычно, мы выставили ограничение Power Limit на максимум, а максимальное допустимое напряжение - на 1,175 В.

EVGA GeForce GTX 680 SC Signature 2:

Мы начали со штатной частоты GPU 1098 МГц, достигнув разгона до 1144 МГц. Это соответствует разгону примерно на четыре процента. Частоту памяти 1552 МГц мы смогли увеличить до 1706 МГц. С учётом эталонного дизайна печатной платы EVGA и выбранной системы охлаждения, результат можно назвать вполне приемлемым.

Gigabyte GeForce GTX 680 Super Overclock:

Из-за сложной мощной охлаждения и усиленной подсистемы питания мы ожидали получить от Gigabyte GeForce GTX 680 Super Overclock высокие результаты. Мы увеличили частоту GPU с 1137 до 1262 МГц. Это соответствует разгону примерно на 11 процентов. Память мы смогли разогнать с 1552 МГц до 1728 МГц. Конечно, мы не смогли достичь результатов видеокарты для оверклокеров , но, в целом, мы остались довольны.

Point of View TGT GeForce GTX 680 Beast:

POV / TGT установила у видеокарты Beast уже весьма высокие тактовые частоты. В любом случае, мы попытались их поднять. Мы смогли разогнать GPU с частоты 1163 МГц до 1212 МГц, что соответствует разгону более чем в четыре процента. Частоту памяти мы смогли увеличить с 1502 МГц до 1754 МГц.

Разгон привел к следующим результатам по производительности:

По энергопотреблению, температуре и уровню шума мы получили следующие результаты:

Энергопотребление всей системы под нагрузкой, Вт.

Температура под нагрузкой, градусы Цельсия.

Уровень шума под нагрузкой, дБ(А).

Первые новости об оригинальной видеокарте компании Gigabyte Technology Co., Ltd. с кулером WindForce 5X появились ещё в начале весны 2012 года. Тогда новинка, без оговорок, смогла удивить всех весьма оригинальным подходом к организации охлаждения, применив в конструкции кулера сразу пять маленьких вентиляторов. WindForce 5X казался настолько неординарным, что многие и вовсе усомнились в появлении видеокарт Gigabyte с таким кулером в свободной продаже. Однако, этого, к счастью, не произошло, и в середине лета компания успешно запустила в серию сразу две видеокарты с использованием WindForce 5X: Gigabyte Radeon HD 7970 SOC WindForce 5X (GV-R797SO-3GD) и Gigabyte GeForce GTX 680 SOC WindForce 5X (GV-N680SO-2GD) . Правда, первую к настоящему времени уже успели снять с продажи ввиду появления более быстрых «GHz Edition», а вот вторая свободно продаётся, пусть и недёшево. Её-то мы сегодня изучим и протестируем.

1. Обзор видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт (GV-N680SO-2GD)

технические характеристики

Технические характеристики видеокарты Gigabyte приведены в таблице в сравнении с эталонной видеокартой NVIDIA GeForce GTX 680:



упаковка и комплектация

Видеокарта поставляется в большой картонной коробке, на лицевой стороне которой приведена ключевая информация о продукте:


На обратной – подробное описание системы охлаждения, используемых технологий, фирменной утилиты для разгона и мониторинга, а также прочая, менее значительная информация.

В комплекте поставки два кабеля-переходника с PATA-разъёмов на восьмиконтактные, компакт-диск с драйверами и утилитами, инструкция по установке и рекламный буклет:


Прямо скажем, комплектация для продукта верхнего ценового сегмента очень скромная.

Gigabyte GeForce GTX 680 SOC WindForce 5X выпускается в Тайване и стоит 549 долларов США. Гарантия на продукт – 3 года.

особенности

Видеокарта имеет размеры 295х120х64 мм и выглядит монументально, напоминая собой эдакий броненосец:


Вместо привычных вентиляторов или турбины на лицевой стороне видеокарты мы видим металлический пластиковый кожух с декоративными прорезями, названием компании-производителя и лейблами «Super OverClock». Обратная сторона видеокарты также закрыта металлической пластиной с перфорацией.

Сверху виден ряд из пяти маленьких вентиляторов, частично накрытых металлической пластиной, а снизу – массивный радиатор с тепловыми трубками:


Gigabyte GeForce GTX 680 SOC WindForce 5X оснащается двумя DVI выходами (один с Dual Link), одним выходом HDMI версии 1.4а и одним выходом DisplayPort версии 1.2:


С другой стороны видеокарты видны сразу три разъёма для вентиляторов и какой-то интерфейсный выход непонятного назначения.

Два разъёма MIO для создания различных SLI-конфигураций размещены на своих стандартных местах: в верхней части печатной платы видеокарты у её выходов:


А вот стандартные шести- и восьмиконтактные разъёмы питания, инженеры Gigabyte заменили на два восьмиконтактных, стремясь обеспечить необходимый запас тока при работе на повышенных частотах. Рекомендуемая мощность блока питания для системы с одной такой видеокартой заявлена на отметке 650 ватт, что на 100 ватт выше спецификаций эталонной NVIDIA GeForce GTX 680.

Печатная плата Gigabyte GeForce GTX 680 SOC WindForce 5X выполнена по оригинальному дизайну и имеет усиленную систему питания:


За обеспечение питания графического процессора отвечают сразу восемь фаз, а ещё три отведены на питание памяти и силовых цепей:


Видеокарта относится к серии Super Overclock , построенной по концепции применения высококачественных компонентов с увеличенным сроком службы, японских конденсаторов, пленочных конденсаторов Proadlizer NEC/TOKIN с низким эквивалентным последовательным сопротивлением ESR, установленных на обратной стороне печатной платы:


За управление питанием графического процессора отвечает восьмифазный цифровой PWM-контроллер CHiL CHL8318 :


В верхней части платы видна группа контактов J13, являющейся точками для замера рабочих напряжений V-PLL, V-MEM и V-GPU. Это не столь удобно, как, например, у MSI, но всё же редкие видеокарты оснащены такой возможностью.

Кроме всего вышеперечисленного, видеокарта оснащена двумя версиями BIOS, которые можно переключать квадратной кнопкой с подсветкой, размещённой у выходов платы. В обычной версии (синяя подсветка) просто зашиты повышенные частоты, а вот при переключении на так называемую экстремальную версию BIOS видеокарты (красная подсветка) снимаются все ограничения по токам, и до 300% увеличивается предел мощности графического процессора. Этот BIOS предназначен для экстремального оверклокинга при сверхнизких температурах.

Графические процессоры для видеокарт Gigabyte серии Super Overclock проходят специальную систему отбора «GPU Gauntlet» посредством нескольких циклов стресс-тестирования. В итоге на такие видеокарты устанавливаются только наиболее качественные чипы с высоким оверклокерским потенциалом. Наш кристалл GK104 выпущен в Тайване на 25-й неделе 2012 года (середина июня) и относится к ревизии А2:


Его базовая частота повышена с 1006 до 1137 МГц или сразу на 13%, а в моменты высокой нагрузки частота может увеличиваться до 1202 МГц. Во всём остальном это обычный «Kepler» с напряжениями 1,175 В для 3D-режима и 0,988 В – для 2D-режима, в котором частота снижается до 324 МГц.

На видеокарте установлено 2 Гбайт GDDR5-памяти производства компании Samsung с маркировкой K4G20325FD-FC03 :


Её эффективная частота повышена с номинальных 6008 МГц до 6200 МГц или +3,2%, что совсем немного, но вполне себе приятный бонус. В 2D-режиме частота видеопамяти снижается до 648 МГц.

В итоге спецификации Gigabyte GeForce GTX 680 SOC WindForce 5X таковы:


Добавим, что BIOS видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X вы можете скачать из нашего файлового архива (BIOS Gigabyte GeForce GTX 680 SOC WindForce 5X , и перейдём к изучению системы охлаждения WindForce 5X.

система охлаждения WindForce 5X

Какой бы ни была печатная плата видеокарты Gigabyte GeForce GTX 680 SOC WindForce 5X, всё это, по большому счёту, мы с вами уже видели ранее в продуктах ASUS, MSI и самой Gigabyte. Поистине уникальной в этом продукте является система охлаждения WindForce 5X. В компании не скрывают, что гордятся этой разработкой, и оригинальности ей действительно не занимать, ведь в её конструкции скомбинированы тепловая камера, девять медных тепловых трубок диаметром 6 мм, гигантский алюминиевый радиатор и пять 40-мм вентиляторов:



Несмотря на огромную массу (вес видеокарты с кулером 1622 (!) грамма), крепится он к печатной плате всего шестью винтами, четыре из которых расположены по углам графического процессора и два на радиаторе для силовых элементов:


Защитный кожух снять чуть более сложно, но без него становится ясно, что кожух этот в большей степени декоративный, нежели защитный:


Как видим, боковые стороны радиатора плотно закрыты загнутыми и сомкнутыми друг с другом рёбрами, а длинная стальная планка служит креплением для самого кожуха и не более того.

При толщине радиатора 45 мм понятно, что тепловая камера не смогла бы равномерно распределить весь тепловой поток по рёбрам, поэтому инженеры Gigabyte оснастили радиатор сразу девятью медными тепловыми трубками диаметром 6 мм. Четыре выходят в одну сторону, а пять – в другую, но все они равномерно пронизывают верхнюю часть рёбер радиатора:


Контакт основания кулера с графическим процессором осуществлён посредством густой и серой термопасты, а с микросхемами памяти и силовыми элементами радиатор контактирует через термопрокладки. Все сопряжения в радиаторе пропаяны.

Сразу пять 40-мм вентиляторов, установленных на верхнем торце радиатора, выпущены компанией Power Logic (модель PLA04015S12HH), базируются на подшипниках качения и управляются широтно-импульсной модуляцией (PWM):


Вентиляторы установлены в перевёрнутом виде, то есть в процессе работы они будут выдувать горячий воздух из радиатора, засасывая его снизу. И если на боковой стенке вашего корпуса нет вентилятора «на выдув», то нагретый видеокартой воздух будет оставаться внутри корпуса и его придётся выводить другими корпусными вентиляторами.

Давайте проверим, сколь эффективен кулер WindForce 5X. Для этого в качестве нагрузки мы использовали пять циклов теста весьма ресурсоёмкой игры Aliens vs. Predator (2010) при максимальном качестве графики в разрешении 2560х1440 пикселей с анизотропной фильтрацией уровня 16х и с использованием MSAA-сглаживания степени 4x:



Для мониторинга температур и прочих параметров применялись программа MSI Afterburner версии 2.2.5 и утилита GPU-Z версии 0.6.6 . Все тесты проводились в закрытом корпусе системного блока, конфигурацию которого вы сможете увидеть в следующем разделе статьи, при комнатной температуре 24 градуса Цельсия. Тестирование эффективности системы охлаждения видеокарты было проведено до её разборки с использованием штатного термоинтерфейса.

Посмотрим на эффективность кулера Gigabyte GeForce GTX 680 SOC WindForce 5X в автоматическом режиме работы и при максимальной скорости вентиляторов:


Автоматический режимМаксимальная мощность


При автоматической регулировке вращения вентиляторов, когда их скорость (если верить данным мониторинга) увеличивалась до 7260 об/мин, графический процессор прогрелся до 68 градусов Цельсия, что для разогнанного GK104 является превосходным результатом. Если же выставить скорость вентиляторов на максимум (9750 об/мин по данным мониторинга), то температура графического процессора составила всего 54 градуса Цельсия. Это как-то даже смешно для разогнанной GeForce GTX 680. Зато совсем не смешно для слуха пользователя.

К сожалению, традиционных измерений уровня шума в сегодняшней статье не будет. Причин тому две. Во-первых, для подключения пяти вентиляторов к печатной плате используются сразу три коннектора двух разных типов, поэтому подключить их к нашему прибору для мониторинга и управления не представлялось возможным. Второй причиной явился один бракованный вентилятор, как раз тот, который мы сняли на фото выше. При включении его подшипник завывал так, что терпеть его было крайне сложно. Правда, после прогрева он несколько утихомиривался, но всё равно лучшего решения, чем принудительно остановить его мы не нашли. К слову, температурные тесты проведены при всех пяти активированных вентиляторах. Субъективно, без гремящего подшипником вентилятора, кулер WindForce 5X работает тихо до 4000-4500 об/мин, комфортно до 6000 об/мин, а выше этой отметки, увы, уже заметно выделяется на фоне тихого системного блока. Как вы помните, в автоматическом режиме работы вентиляторы раскручивались до 7260 об/мин, поэтому мы не можем назвать Gigabyte GeForce GTX 680 SOC WindForce 5X тихой видеокартой. Только в 2D-режиме, когда скорость вентиляторов находится у отметки 2000 об/мин, видеокарту действительно не слышно, хотя для игрового продукта это не столь важно.

оверклокерский потенциал

Изучение оверклокерского потенциала Gigabyte GeForce GTX 680 SOC WindForce 5X мы начали при штатном напряжении 1,175 В и максимальном значении Power limit. Система охлаждения функционировала в автоматическом режиме. Базовую частоту графического процессора нам удалось поднять на 65 МГц, а частоту видеопамяти на 1120 эффективных мегагерц:


В результате частоты видеокарты составили 1202/1267/7328 МГц:


Результат разгона GPU вполне обычный для GeForce GTX 680, и большего нам не удалось добиться ни при включении экстремального BIOS видеокарты, ни при повышении напряжения на графическом процессоре. Впрочем, достигнутая частота памяти не может не радовать.

После разгона видеокарты максимальная температура графического процессора увеличилась на 3 градуса Цельсия до 71 градуса, а скорость вентиляторов повысилась на 150 об/мин при итоговых 7410 об/мин:



В завершение обзора видеокарты нельзя не сказать несколько слов о фирменной утилите Gigabyte OC Guru II , способной не только контролировать все параметры Gigabyte GeForce GTX 680 SOC WindForce 5X, но и управлять ими:


Кроме возможности изменения частот, напряжений и их мониторинга, утилитой можно выполнять тонкую подстройку PWM-частот и степень загрузки графического процессора, памяти и шины PCI-Express:


В отдельном окне можно вручную настроить скорость вращения вентиляторов в зависимости от температуры, или выбрать одну из трёх предустановок:



энергопотребление

Измерение энергопотребления системы с различными видеокартами осуществлялось с помощью многофункциональной панели Zalman ZM-MFC3 , которая показывает потребление системы «от розетки» в целом (без учёта монитора). Измерение было проведено в 2D-режиме, при обычной работе в Microsoft Word или интернет-«сёрфинге», а также в 3D-режиме, нагрузка в котором создавалась с помощью трёхкратного теста из игры Metro 2033: The Last Refuge в разрешении 2560х1440 при максимальных настройках качества графики.

Давайте посмотрим на результаты:



Что интересно, система с видеокартой Gigabyte оказалась немного экономичнее в плане потребления электроэнергии, чем система с почти такой же видеокартой ASUS. Даже после разгона Gigabyte GeForce GTX 680 SOC WindForce 5X до частот 1202/7320 МГц она потребляет чуть меньше, чем ASUS GeForce GTX 680 DirectCU II TOP на номинальных для неё частотах 1137/6008 МГц. В дополнение отметим, что система с Radeon HD 7970 GHz Edition (в исполнении Sapphire) всё же более требовательна к энергопотреблению, чем обе системы с GeForce GTX 680. Ну, а лидером сегодня вполне закономерно стала система с двухпроцессорной GeForce GTX 690. В 2D-режиме бездействия энергопотребление всех систем отличается в самой минимальной степени.

2. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено на системе следующей конфигурации:

Системная плата: Intel Siler DX79SI (Intel X79 Express, LGA 2011, BIOS 0537 от 23.07.2012);
Центральный процессор: Intel Core i7-3960X Extreme Edition 3,3 ГГц (Sandy Bridge-E, C1, 1,2 В, 6x256 Kбайт L2, 15 Мбайт L3);
Система охлаждения CPU: Phanteks PH-TC14PЕ (два 140 мм вентилятора Corsair AF140 Quiet Edition при 900 об/мин);
Термоинтерфейс: ARCTIC MX-4 ;
Оперативная память: DDR3 4x4 Гбайт Mushkin Redline (2133 МГц, 9-10-10-28, 1,65 В);
Видеокарты:

NVIDIA GeForce GTX 690 2x2 Гбайт 256 бит GDDR5, 915/6008 МГц;
Gigabyte GeForce GTX 680 SOC WindForce 5X 2 Гбайт 256 бит GDDR5, 1137/6200 и 1202/7320 МГц;
ASUS GeForce GTX 680 DirectCU II TOP 2 Гбайт 256 бит GDDR5, 1137/6008 МГц;
Sapphire Radeon HD 7970 OC Dual-X 3 Гбайт 384 бит GDDR5, 1050/6000 МГц;

Системный диск: SSD 256 Гбайт Crucial m4 (SATA-III, CT256M4SSD2, BIOS v0009);
Диск для программ и игр: Western Digital VelociRaptor (SATA-II, 300 Гбайт, 10000 об/мин, 16 Мбайт, NCQ) в коробке Scythe Quiet Drive 3,5";
Архивный диск: Samsung Ecogreen F4 HD204UI (SATA-II, 2 Тбайт, 5400 об/мин, 32 Мбайт, NCQ);
Корпус: Antec Twelve Hundred (передняя стенка – три Noiseblocker NB-Multiframe S-Series MF12-S2 на 1020 об/мин; задняя – два Noiseblocker NB-BlackSilentPRO PL-1 на 1020 об/мин; верхняя – штатный 200-мм вентилятор на 400 об/мин);
Панель управления и мониторинга: Zalman ZM-MFC3 ;
Блок питания: Seasonic SS-1000XP Active PFC F3 (1000 Вт), 120-мм вентилятор;
Монитор: 27" Samsung S27A850D (DVI-I, 2560х1440, 60 Гц).

Производительность видеокарты Gigabyte мы сравним с очень быстрой ASUS GeForce GTX 680 DirectCU II TOP на номинальных частотах и с Sapphire Radeon HD 7970 OC Dual-X , разогнанной до уровня GHz Edition :




Кроме того, в качестве ориентира по скорости в тестирование добавлена эталонная NVIDIA GeForce GTX 690 на своих номинальных частотах:




Для снижения зависимости производительности видеокарт от скорости платформы, 32-нм шестиядерный процессор при множителе 37, опорной частоте 125 МГц и активированной функции «Load-Line Calibration» был разогнан до 4,625 ГГц при повышении напряжения в BIOS материнской платы до 1,49 В:



Технология «Hyper-Threading» активирована. При этом 16 Гбайт оперативной памяти функционировали на частоте 2 ГГц с таймингами 9-11-10-28 при напряжении 1,65 В.

Тестирование, начатое 3 ноября 2012 года, было проведено под управлением операционной системы Microsoft Windows 7 Ultimate x64 SP1 со всеми критическими обновлениями на указанную дату и с установкой следующих драйверов:

чипсет материнской платы Intel Chipset Drivers – 9.3.0.1025 WHQL от 25.10.2012 ;
библиотеки DirectX End-User Runtimes, дата выпуска – 30 ноября 2010 года ;
драйверы видеокарт на графических процессорах AMDCatalyst 12.11 Beta от 23.10.2012 + Catalyst Application Profiles 12.10 (CAP1);
драйверы видеокарт на графических процессорах NVIDIA – GeForce 310.33 beta от 23.10.2012 .

Производительность видеокарт была проверена в двух разрешениях: 1920х1080 и 2560х1440 пикселей. Для тестов были использованы два режима качества графики: «Quality + AF16x» – качество текстур в драйверах по-умолчанию с включением анизотропной фильтрации уровня 16х, и «Quality + AF16x + MSAA 4х(8х)» с включением анизотропной фильтрации уровня 16х и полноэкранного сглаживания степени 4x или 8x, в случаях, когда среднее число кадров в секунду оставалось достаточно высоким для комфортной игры. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. Если данные настройки в играх отсутствовали, то параметры изменялись в панелях управления драйверов Catalyst и GeForce. Там же была отключена вертикальная синхронизация. Больше никаких изменений в настройки драйверов не вносились.

Так как мы неоднократно тестировали GeForce GTX 680 и его конкурента, то сегодняшний список тестовых приложений был сокращён до одного полусинтетического пакета и 8 игр (по принципу наиболее ресурсоёмких и свежих):

3DMark 2011 (DirectX 11) – версия 1.0.3.0, профили настроек «Performance» и «Extreme»;
Metro 2033: The Last Refuge (DirectX 10/11) – версия 1.2, использовался официальный тест, настройки качества «Very High», тесселляция, DOF включено, использовалось ААА-сглаживание, двойной последовательный проход сцены «Frontline»;
Total War: SHOGUN 2 – Fall of the Samurai (DirectX 11) – версия 1.1.0, встроенный тест (битва при Sekigahara) на максимальных настройках качества графики и использовании в одном из режимов MSAA 4x;
Crysis 2 (DirectX 11) – версия 1.9, использовался Adrenaline Crysis 2 Benchmark Tool v1.0.1.14 BETA , профиль настроек качества графики «Ultra High», текстуры высокого разрешения активированы, двукратный цикл демо-записи на сцене «Times Square»;
Battlefield 3 (DirectX 11) – версия 1.4, все настройки качества графики на «Ultra», двойной последовательный проход заскриптованной сцены из начала миссии «На охоту» продолжительностью 110 секунд;
Sniper Elite V2 Benchmark (DirectX 11) – версия 1.05, использовался Adrenaline Sniper Elite V2 Benchmark Tool v1.0.0.2 BETA максимальные настройки качества графики («Ultra»), Advanced Shadows: HIGH, Ambient Occlusion: ON, Stereo 3D: OFF, двойной последовательный прогон теста;
Sleeping Dogs (DirectX 11) – версия 1.5, использовался Adrenaline Sleeping Dogs Benchmark Tool v1.0.0.3 BETA , максимальные настройки качества графики по всем пунктам, Hi-Res Textures pack установлен, FPS Limiter и V-Sync отключены, двойной последовательный прогон теста с суммарным сглаживанием на уровне «Normal» и на уровне «Extreme»;
F1 2012 (DirectX 11) – update 9, использовался Adrenaline Racing Benchmark Tool v1.0.0.13 , настройки качества графики на уровне «Ultra», бразильская трасса «Interlagos» 2 круга, 24 машины, лёгкий дождь, режим камеры – «Bonnet»;
Borderlands 2 (DirectX 9) – версия 1.1.3, встроенный тест при максимальных настройках качества графики и максимальном уровне PhysX, сглаживание FXAA включено.

Если в играх реализована возможность фиксации минимального числа кадров в секунду, то оно также отражалось на диаграммах. Каждый тест проводился дважды, за окончательный результат принималось лучшее из двух полученных значений, но только в случае, если разница между ними не превышала 1%. Если отклонения прогонов тестов превышали 1%, то тестирование повторялось ещё, как минимум, один раз, чтобы получить достоверный результат.





Borderlands 2


Мы не стали комментировать каждую диаграмму, так как, по большому счёту, ничего нового на них не увидели. В целом Gigabyte GeForce GTX 680 SOC WindForce 5X чуть быстрее ASUS GeForce GTX 680 DirectCU II TOP за счёт более скоростной памяти, но разница мизерна. Разгон Gigabyte приносит ей 5-7% производительности плюсом, что также немного, но и пренебрегать таким бесплатным повышением производительности не стоит. В противостоянии с Sapphire Radeon HD 7970 OC Dual-X на частотах 1050/6000 МГц на новых версиях драйверов новая видеокарта Gigabyte выигрывает в 3DMark 2011, Crysis 2, Borderlands 2, а также качественных режимах Total War: SHOGUN 2 и F1 2012. Паритет у этих видеокарт только в Battlefield 3. В свою очередь, Radeon опережает GeForce в Metro 2033: The Last Refuge, Sniper Elite V2, Sleeping Dogs, а также в режимах без использования сглаживания Total War: SHOGUN 2 и F1 2012. Из особенностей работы двухпроцессорной NVIDIA GeForce GTX 690 на новых драйверах и в новых тестах выделим отсутствие поддержки SLI в игре F1 2012, а остальные тесты сюрпризов не преподнесли.

Заключение


Gigabyte GeForce GTX 680 SOC WindForce 5X, безусловно, оказалась очень интересной видеокартой. Досконально проработанная печатная плата с восьмифазной системой питания графического процессора и применением высококачественных компонентов для серии «Super Overclock» обеспечат стабильность при разгоне и долговечность эксплуатации. Отобранный по специальной программе «GPU Gauntlet» графический процессор, дополнительный BIOS c настройками для разгона под азотом и точки для замера ключевых напряжений наверняка обратят на себя внимание экстремальных оверклокеров. Высокие заводские частоты вкупе с весьма эффективной системой охлаждения WindForce 5X и конкурентоспособной стоимостью просто не могут не привлечь большинство обычных пользователей.

В то же время, систему охлаждения этого стильного и внешне монументального продукта мы не можем назвать тихой. Вдобавок, для раскрытия потенциала ей требуется просторный корпус с грамотно организованной системой вентиляции. Кроме того, у продуктов такого класса должна быть более насыщенная и притягивающая комплектация, а в качестве морального успокоения флагманский продукт Gigabyte можно было и оснастить четырьмя гигабайтами памяти вместо нынешних двух. Тем не менее, о Gigabyte GeForce GTX 680 SOC WindForce 5X у нас сложилось позитивное впечатление. Выбор, как и всегда, за вами.

Введение
Накануне наш портал Мега Обзор сообщил о начале поставок видеокарт семейства NVIDIA GTX 690. Отличительной особенностью данных видеокарт является базирование на двух чипах GK104, на которых основаны видеокарты GeForce GTX 680. Учитывая высокую стоимость двухчиповых решений GeForce GTX 690 мы понимаем их низкую популярность среди отечественных пользователей, поэтому хотим представить вашему вниманию видеокарту GeForce GTX 680 в исполнении от компании Zotac.
В сегодняшнем обзоре вашему вниманию будет представлена видеокарта ZOTAC GeForce GTX 680 AMP! Edition, которая отличается наличием заводского разгона. Отметим, что на сегодняшний день видеокарты GeForce GTX 680 итак являются наиболее производительными решениями в одночиповом сегменте, а дополнительный заводской разгон делает данные решения еще более производительными.

Сразу же следует остановиться на следующих фактах. Как оказалось, новые видеокарты GeForce GTX 680 за счет низкого энергопотребления могут похвастаться наличием достаточно высокого разгонного потенциала. При наличии фреонового охлаждения энтузиастам удавалось достичь цифры в 1957 Мгц по ядру, а под воздушным охлаждением предельной оказалась цифра в 1442 Мгц. Естественно, для достижения столь высоких результатов возникала необходимость выполнения вольтмода. Рабочее напряжение графического ядра было повышено до 1,212 вольт. Немногие пользователи смогут повторить аналогичные результаты, но именно они являются ориентиром для предельных значений рабочих частот новой серии видеокарт.

Картинка кликабельна --


Компания Zotac представила сразу два альтернативных варианта видеокарт на базе GeForce GTX 680. Первый экземпляр носит название GeForce GTX 680 OC и имеет 4 Гб видеопамяти на борту, а второй экземпляр GeForce GTX 680 AMP! Edition и имеет 2 Гб видеопамяти на борту. Первая видеокарта хоть и имеет название Zotac GeForce GTX 680 OC трудиться на референсных частотах и отличается лишь удвоенным объемом видеопамяти, а второе решение мы рассмотрим в ходе нашего обзора.

Всем специалистам, разбирающимся в компьютерных графических устройствах, ясно, что видеокарта GeForce GTX 680 должна была быть еще более производительней, чем существующий вариант. Выход данной видеокарты обусловлен тем, что она уже итак достаточно хороша и обходит по уровню производительности все решения семейства Tahiti. Если бы AMD смогла выпустить Radeon HD 7970 новой ревизии мы бы увидели совсем другую видеокарту под маркой GeForce GTX 680, а существующий продукт носил бы более скромное название, например, GeForce GTX 660 или GeForce GTX 670. Но так как этого не потребовалось, топовая одночиповая видеокарта получила ряд преимуществ перед решением AMD Radeon HD 7970. Во-первых, данное ядро содержит меньше транзистором и занимает меньшую площадь, что удешевляет его производство. Во-вторых, стоимость стандартной версии GeFirce GTX 680 находится ближе к 500 долларам, что дешевле, нежели топовый продукт AMD.

В новой линейке видеокарт GeFirce GTX 680 решены все проблемы данного семейства видеокарт. Длина новой видеокарты равняется 254 мм, что меньше длины видеокарт от AMD серии Radeon HD 7970. Новая видеокарта готова работать с несколькими мониторами без установки второго решения. В рамках технологии NVIDIA 3D Vision Surround пользователю предлагается объединить в единый тандем до трех мониторов в формате 2D и два монитора для демонстрации стереоскопического изображения. Новое графическое ядро Kepler стало еще более энергоэффективным и более производительным. Ядро Kepler вобрало в себя все сильные стороны ядра Fermi и избавилось от бльшинства его болячек, что позволило повысить производительность. Переход на 28 нанометровый технологический процесс позволил снизить рабочее напряжение транзисторов, что в последующем снизило энергопотребление и тепловыделение нового ядра. Если графическое ядро Fermi имело высокую математическую мощность и откровенно слабую обработку геометрии и текстур, то в новом ядре Kepler постарались добиться баланса между данными важнейшими вычислительными функциями видеокарты.

Многие отмечают, что двух гигабайт видеопамяти для решения GeForce GTX 680 явно недостаточно. Именно для этих людей предлагаются варианты с 4 гигабайтами видеопамяти. Тем не менее, следует отметить, что опыт показывает двух гигабайт видеопамяти для данной видеокарты достаточно даже при работе с несколькими мониторами. Приобретая видеокарты с 4 гигабайтами памяти на борту следует отмечать, что данные видеокарты имеют меньший разгонный потенциал, чем решения с 2 гигабайтами видеопамяти. Комплектация

Картинка кликабельна --


Дизайн коробок видеокарт под маркой Zotac не меняется на протяжении многих лет, возможно, именно это позволяет производителю позиционировать свои решения по более низкой стоимости, чем конкурирующие.

На лицевой стороне коробки указана модель видеокарты, наличие расширенной гарантии и купонно на скачивание игр Assassin Creed.

Картинка кликабельна --


В комплект поставки включено:
- видеокарта,
- инструкция,
- диск с драйверами и ПО,
- купоны на скачивание игр,
- переходники питания PCI-Express,
- переходник DVI-to-HDMI. Внешний осмотр видеокарты

Картинка кликабельна --


Рассматривая новую видеокарту ZOTAC GeForce GTX 680 AMP! Edition в глаза бросается модифицированная система охлаждения, состоящая из четырех медных тепловых трубок. За охлаждение основного радиатора охлаждения отвечают два 90 мм вентилятора.

Картинка кликабельна --


Прямой контакт с ядром осуществляет медное основание. Медные тепловые трубки выполняют лишь отводящую функцию.

Картинка кликабельна --


Оборотная сторона видеокарты ничем не прикрыта, не распаянных элементов не обнаружено. Имеется два коннектора для мостиков SLI с возможностью организации тандема из трех видеокарт.

Картинка кликабельна --


В качестве контроллера напряжения выступает чип Richtek RT8802A, вольтмод которого программными методами обычно не возможен, поэтому приходиться применять прямой метод вольтмода распайкой дополнительного резистора или подкраской необходимого резистора карандашом.

Картинка кликабельна --


В качестве чипов видеокапамяти используются чипы Hynix с маркировкой H5GQ2H24MFR-R0C. Спецификации видеокарты
1. Рабочая частота ядра: 1006 МГц
2. Универсальных процессоров: 1536
3. Тип памяти: GDDR5
4. Объем памяти: 2 Гб
5. Рабочая частота видеопамяти: 1502 МГц
6. Шина 256 битная
7. Шина PCI Express 3.0
8. Рекомендованная стоимость: $499 долларов для США
Видеокарта ZOTAC GeForce GTX 680 AMP! Edition имеет заводской разгон до 1111 Мгц по ядру и 1652 Мгц по видеопамяти. Неплохой уровень разгона, так как не каждый заводской разгон может похвастаться столь прекрасным результатом. Тестовая конфигурация
Для тестирования графической карты ZOTAC GeForce GTX 680 AMP! Edition была использована следующая конфигурация:
1. Процессор Intel Core i7 920.
2. Материнская плата ASUS P6T.
3. 2x3 Gb Samsung Original DDR3-1600
4. WD 1 TB WD1001FALS Caviar Black SATAII
5. Блок питания Corsair AX1200
6. OCZ Agility 3 240GB SSD
7. Корпус Thermaltake Mambo.

1. Температурный режим работы видеокарты.


Видеокарта тестировалась при следующих условиях:
- в комнате 27 градусов,
- видеокарта установлена в закрытый корпус,
- в корпусе нет дополнительных вентиляторов охлаждения,
- нагрузка подается до полной стабилизации температур в течение 15 минут.
Система охлаждения видеокарты от Zotac на отлично справляется с поставленными задачами.

2. Разгон видеокарты
Видеокарта ZOTAC GeForce GTX 680 AMP! Edition показала достаточно слабый разгонный потенциал. Без изменения стандартного напряжения максимальная частота по ядру составила 1132 Мгц, по видеопамяти 1898 Мгц. Заключение
Учитывая наличие заводского разгона видеокарта ZOTAC GeForce GTX 680 AMP! Edition - она показала себя с отличной стороны. Не высокий уровень цены, наличие всего необходимого в базовой комплектации, высокая эффективность установленной системы охлаждения позволяет сделать выбор в пользу данной видеокарты.

Одна из самых производительных видеокарт 2012-го года, Nvidia Geforce GTX 680, комплектовалась графическим процессором GK104, благодаря чему легко справляется с запуском не слишком старых игр и видео в формате до 4К. В своё время она стала достойным конкурентом модели Radeon HD 7970 и всех остальных высокопроизводительных однопроцессорных видеокарт. В 2018-м году она уже не может использоваться для сборки мощного или даже среднего по параметрам геймерского компьютера, однако вполне подходит для бюджетных игровых ПК.

Видеокарта получила от производителя графику GPU GK104 с 1536 ядрами CUDA (в 3 раза больше по сравнению с моделью GTX 580) и 128 текстурными блоками.

Остальные характеристики GTX 680 можно представить следующим списком:

  • базовая частота процессора/памяти – 1006/6008 МГц;
  • объём памяти – 2048 Мб;
  • техпроцесс – 28 нм;
  • число транзисторов – 3,54 млрд., больше по сравнению с GTX 580, но заметно меньше, чем у Radeon HD 7970;
  • ширина шины памяти – 256 бит;
  • интерфейс – PCI-E 3.0.

С помощью видеокарты можно подключать к одному компьютеру до 4 экранов без специальных проводников, три из них – в режиме 3D Vision Surround. Для подключения могут использоваться 2 порта DVI (DVI-I и DVI-D), HDMI и DisplayPort. Максимальное разрешение дисплея в этом случае – 3840×2160 пикселей.

Продажная цена GTX 680 в самом начале составляла $499 или 17999 руб. для России. Эта стоимость заметно ниже по сравнению конкурентов типа Radeon HD 7970. Узнавая, сколько стоит видеокарта GTX 680 сейчас, можно получить цифру примерно на уровне $100–150.

Обзор GTX 680

На вид графическая карта ненамного отличается от предыдущей версии GTX 580. Особенно, с учётом использования массивного кулера-турбины и другим особенностям системы охлаждения.

Для экономии пространства с платы убрали испарительную камеру. Рёбра радиатора сделали более скошенными, облегчив прохождение воздуха. Эта особенность и использование для изготовления турбины специального звукопоглощающего материала приводит к заметному снижению шума от кулера, если сравнивать с 580-й версией или Radeon HD 7970.

Среди других особенностей модели стоит отметить:

  • наличие полноразмерных портов DisplayPort и HDMI, позволяющих обойтись без переходников;
  • меньшее количество микросхем памяти на плате по сравнению с конкурентами;
  • отсутствие теплораспределителя на графическом процессоре, позволяющее избежать сколов при установке кулера.
Максимальное энергопотребление GTX 680 находится на уровне 195 Вт – ниже по сравнению с показателями аналогичных по производительности карт Nvidia. Благодаря этому при использовании видеокарты в качестве дополнительного питания можно обойтись всего лишь 2 шестиконтактными разъёмами.

Как разогнать видеокарту Nvidia Geforce GTX 680

Выполняя разгон GTX 680, можно попробовать увеличить её производительность в играх и даже использовать эту карту для добычи криптовалюты. Для этого применяется специальная технология GPU Boost и одна из утилит, подходящих для графических процессоров Nvidia – например, MSI Afterburner или RivaTuner.

При увеличении напряжения питания видеоадаптера на 10% можно получить частоту 1100 МГц (вместо 1006) и эффективное значение на уровне 6912 МГц (вместо 6008). Результатом такого разгона стало незначительное увеличение нагрузки на систему охлаждения, кулеры которой стали работать с максимальным количеством оборотов.

При использовании графического адаптера в играх производительность выросла примерно на 7-13%, в зависимости от настроек.

Если сравнивать возможности GTX 680 в майнинге, до разгона она показывала значение 15 Mh/s для Эфириума, после повышения частоты – около 16,2 Mh/s.

Такой уровень не слишком высокий и примерно соответствует графическим картам GTX 1050, хотя у более новой модели от Nvidia меньше энергопотребление, а значит майнить выгоднее.

При сравнительно невысокой стоимости электроэнергии майнинг на GTX 680 принесёт определённую прибыль отечественному пользователю. Хотя покупать эту карту специально для таких целей нецелесообразно – на рынке можно найти варианты с более выгодным соотношением затрат к скорости добычи криптовалют.

Тестирование в играх

Проверяя FPS GTX 680 в играх, можно получить представление о её возможностях и принять решение по поводу покупки карты. Удобнее всего сделать это, тестируя самые требовательные к ресурсам игровые приложения на момент выпуска модели и в настоящее время. Причём, используя её вместе с соответствующими ЦПУ (Core i5 или i7) и памятью (не меньше 6–8 Гб).

При запуске с помощью видеоадаптера современных игр были получены такие результаты:

  • для Lost Planet 2 – игры, в которой активно используется 3D-графика и происходит постоянное наложение карт смещения с геометрическими объектами, – GTX 680 показывает 52 кадра в секунду;
  • при запуске ещё более требовательной к характеристикам компьютера игры Metro 2033 с разрешением FullHD можно получить значение около 25 FPS – неплохо для комфортного игрового процесса, однако практически на грани;
  • в игре DiRT 3 показатели GTX 680 составляют около 74 кадров в секунду, хотя эта игра уже не может продемонстрировать все возможности графики;
  • для Mafia II FPS карты достигает 50 даже без разгона, для разогнанной карты значение увеличивается примерно на 12%;
  • на максимальных настройках в шутере Aliens vs. Predator видеоадаптер показывает 32 FPS;
  • для технологического шутера Hard Reset значения FPS получились самыми впечатляющими – при запуске игры на высоких настройках частота достигает 83 кадр/с;
  • при попытке поиграть в одну из последних частей стратегии Total War, Shogun 2, видеокарта снова получает приличное значение частоты – 106 кадр/сек;
  • в игре Batman: Arkham City при разрешении 1650х1080 видеоадаптер показывает 27 FPS.

При запуске с помощью GTX 680 современных игровых приложений показатели падают. Однако на средних и минимальных настройках всё равно запускаются почти все игры.

Например, в Assasin Creed: Origins при запуске с процессором Core i7 и 6 Гб ОЗУ она обеспечит плавный игровой процесс с разрешением 1280х720. На невысоких настройках запустится и Kingdom Come: Deliverance, игра 2018 года, хотя для нормальной работы понадобится 8 Гб оперативной памяти.

Обновление драйверов

Отсутствие подходящего для GTX 680 драйвера приводит к проблемам с работой требовательных к ресурсам игр и других полезных программ. На экране компьютера будут появляться сообщения об ошибке, компьютер начнёт зависать и работать медленнее, чем должен. Решение проблемы заключается в скачивании подходящего программного обеспечения с официального ресурса производителя – компании Nvidia.

Можно воспользоваться для обновления драйвера и другими сайтами, в надёжности которых уверен пользователь. Не рекомендуется скачивать и устанавливать ПО для видеокарты со сторонних ресурсов – результатом нередко становится заражение компьютера вирусом. Нежелательно делать это и с помощью специальных утилит, использование которых может привести и к установке устаревших драйверов, и к попаданию на ПК вредоносных программ.

Методика тестирования

Конфигурация тестового стенда
CPU Intel Core i7-3960X @ 4,6 ГГц (100x46)
Материнская плата ASUS P9X79 Pro
Оперативная память DDR3 Kingston HyperX 4x2 Гбайт @ 1600 МГц, 9-9-9
ПЗУ Transcend 2,5 SSD 128 Гбайт
Блок питания IKONIK Vulcan, 1200 Вт
Охлаждение CPU Thermalright Silver Arrow
Корпус CoolerMaster Test Bench V1.0
Операционная система Windows 7 Ultimate X64 Service Pack 1
ПО для карт AMD AMD Catalyst 12.2 + Catalyst Application Profiles 12.2 CAP 1
ПО для карт NVIDIA 300.99 (GeForce GTX 680), WHQL 296.10 (остальные)

Настройки драйвера AMD Catalyst — по умолчанию
Antialiasing Application Settings
Anisotropic Filtering Application Settings
Tesselation Application Settings
Catalyst A.I. Texture Filter Quality Quality, Enable Surface Format Optimization
Wait for V-Sync Disable, unless application Specifies
AA Mode Multisample
Triple buffernig Disable
Настройки драйвера NVIDIA
CUDA графические процессоры Все
Анизотропная фильтрация Управление приложением
Вертикальная синхронизация Использовать настройку 3D-приложения
Затенение фонового освещения Выкл.
Максимальное количество заранее подготовленных кадров 3
Потоковая оптимизация Авто
Режим управления электропитанием Адаптивный
Сглаживание — гамма-коррекция Выкл.
Сглаживание — режим Управление от приложения
Тройная буферизация Выкл.
Ускорение нескольких дисплеев Режим многодисплейной производительности
Фильтрация текстур — анизотропная оптимизация Выкл.
Фильтрация текстур — качество Качество
Фильтрация текстур — отрицательное отклонение УД Разрешить
Фильтрация текстур — трилинейная оптимизация Вкл.
Набор бенчмарков
Программа API Настройки Режим тестирования Разрешение
3DMark 2011 DirectX 11 Профили Performance, Extreme

Unigine Heaven 2 DirectX 11 Макс. качество, DirectX 11, тесселяция в режиме Extreme AF 16x, MSAA 4x 1920х1080 / 2560х1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking Tool DirectX 10 Frost flythrough. Макс. настройки, DirectX 10 AF 16x, MSAA 4x 1920х1080 / 2560х1440
Metro 2033 + Metro 2033 Benchmark DirectX 11 Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл. AF 16x, MSAA 4x 1920х1080 / 2560х1440
DiRT 3 + Adrenaline Racing Benchmark Tool DirectX 11 Aspen, 8 машин. Макс. качество, DirectX 11 AF, AA 4х 1920х1080 / 2560х1440
Crysis 2 + Adrenaline Crysis 2 Benchmark Tool DirectX 11 Central Park. Макс. качество, DirectX 11, текстуры высокого разрешения AF 16x, Post MSAA + Edge AA 1920х1080 / 2560х1440
Battlefield 3 + FRAPS DirectX 11 Начало миссии Going Hunting. Макс. качество. AF 16x, MSAA 4x 1920х1080 / 2560х1440
Batman: Arkham City. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440
The Elder Scrolls 5: Skyrim + FRAPS DirectX 9 Город Whiterun. Макс. качество AF 16x, MSAA 4x 1920х1080 / 2560х1440
Call of Duty: Modern Warfare 3 + FRAPS DirectX 9 Миссия Return to Sender. Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440

В качестве соперников GeForce GTX 680 в тестировании приняли участие следующие видеокарты:

  • AMD Radeon HD 7970 (1160/7200 МГц, 3 Гбайт)
  • AMD Radeon HD 7970 (925/5500, 3 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)
  • NVIDIA GeForce GTX 580 (772/4004 МГц, 1,5 Гбайт)
  • AMD Radeon HD 6970 (880/5500 МГц, 2 Гбайт)

Разгон, температура, энергопотребление

GeForce GTX 680 мы разгоняли с помощью единственной утилиты, которая сейчас поддерживает Kepler, — EVGA Precision X 3.0 Beta 20, да и то не без проблем. Вручную выставить напряжение GPU она как бы позволяет, но на самом деле это ни на что не влияет.

В целом GPU Boost сильно осложняет жизнь оверклокеру, меняя частоту и напряжение непредсказуемым образом. Кроме того, есть ограничение на потребляемую мощность, которую пока можно увеличить только на 32%. Поэтому если одновременно с процессором разогнать и память, то GPU Boost уже не будет так сильно поднимать частоту. Наконец, при перегреве Boost Clock тоже падает.

Мы проверили два разных варианта разгона, увеличив лимит энергопотребления и обороты кулера до максимума. Предельная базовая частота GPU, на которой карта была стабильна, составила 1086 МГц. При этом в бенчмарке Unigine Heaven Boost Clock достигал 1152 МГц, а напряжение на ядре — 1,175 В (базовое для режима 3D — 1,062 В). Второй вариант разгона: дополнительно увеличить частоту памяти на 460 Мгц — 6928 МГц эффективной частоты. В таком случае Boost Clock поднимается только до 1139 МГц.

Судя по графикам, в большинстве игр больший прирост производительности обеспечивает разгон GPU совместно с памятью. В целом большого эффекта от разгона нет: повышение частоты малозаметное, а в штатном режиме работы все равно трудится GPU Boost, отнимая хлеб у оверклокера.

По температурному режиму GTX 680 ничем не лучше своих соперников. Radeon HD 7970 под нагрузкой греется меньше, GTX 580 — немного сильнее. Все дело в новой системе охлаждения, малошумной, но не столь эффективной

Пиковое энергопотребление системы с GTX 680 на борту немного выше, чем у HD 7970, и приближается к оному у HD 6970. По сравнению с GTX 580 прогресс налицо, но разница не критическая. В разгоне GTX 680 развивает мощность лишь на 10 Вт больше, чем в штатном режиме. Что и не удивительно, так как разгон невелик.

⇡ Производительность, синтетические тесты

  • GTX 680 с большим отрывом опережает Radeon HD 7970 и сравнялся с разогнанным HD 7970.
  • По показателю Graphics Score GTX 680 приближается к GTX 590 (по 3DMark Score у последнего аномально низкий результат, но ничего, к глюкам 3DMark мы уже привыкли).
  • GTX 680 с разгоном выходит на уровень Radeon HD 6990.
  • Преимущество GTX 680 перед GTX 580 огромно.

  • Здесь между GTX 680 и HD 7970 на штатных частотах нет большой разницы.
  • Двухпроцессорные карты все-таки быстрее, чем GTX 680 (с GTX 590 у 3DMark 2011 опять сложные отношения).
  • Разогнанный GTX 680 не только превосходит разогнанный HD 7970, но даже сравнялся с HD 6990 — постоянным рекордсменом в этом бенчмарке.
  • Прирост скорости по отношению к GTX 580 весьма велик.

Unigine Heaven 2

  • GTX 680 превзошел HD 7970. Разница особенно велика при разрешении 1920х1080.
  • GTX 680 находится на одном уровне с HD 6990, но до GTX 590 немного не достает.
  • Разогнанный GTX 680 сравним с разогнанным HD 7970 и GTX 590.
  • Опять-таки есть большой прогресс по сравнению с GTX 580.

⇡ Производительность, игровые тесты

Crysis Warhead (DirectX 10)

  • А вот здесь GTX 680 проиграл своему основному конкуренту. Разгон помогает сравниться с HD 7970, работающим в штатном режиме, но разогнанный HD 7970 уже совершенно недосягаем.
  • Двухпроцессорные карты GTX 680 не может догнать даже с разгоном.
  • GTX 680 значительно быстрее, чем предыдущий флагман NVIDIA, GTX 580.

Metro 2033 (DirectX 11)

  • GTX 680 уступает HD 7970 и только благодаря разгону может с ним сравниться.
  • Разогнанный HD 7970 на голову превосходит разогнанный GTX 680.
  • Двухпроцессорные карты GTX 680 не по зубам.
  • Прирост производительности по сравнению с GTX 580 в абсолютных значениях невелик, что объясняется невероятной тяжестью этой игры с максимальными настройками.

DiRT 3 (DirectX 11)

  • GTX 680 берет реванш, демонстрируя огромное преимущество перед HD 7970.
  • HD 7970 с разгоном сравнивается с GTX 680 в штатном режиме, но разогнанный GTX 680 с большим отрывом вновь выходит вперед.
  • GTX 680 работает почти так же быстро, как GTX 590 и Radeon HD 6990, а при разгоне опережает их.
  • Про GTX 580 нечего и говорить. Преимущество нового флагмана колоссальное.

Crysis 2 (DirectX 11)

  • GTX 680 чуть-чуть быстрее, чем HD 7970.
  • Разгон почти не прибавил FPS при разрешении 1920х1080, но в 2560х1440 у GTX 680 теперь есть ощутимое преимущество над HD 7970. Разогнанный HD 7970 также упирается в невидимое ограничение в режиме 1920x1080, а в 2560x1440 берет реванш.
  • GTX 680 мало отличается от GTX 590 и сопоставим с Radeon HD 6990 в разрешении 1920x1080.
  • Превосходство GTX 680 над GTX 580 огромно.

Battlefield 3 (DirectX 11)

  • GTX 680 быстрее, чем HD 7970, но разница заметна только в режиме 1920х1080.
  • Разгон не прибавил GTX 680 ни единого FPS! В то же время разогнанный HD 7970 оставил своего соперника далеко позади.
  • Двухпроцессорные карты GTX 680 догнать не удалось.
  • Несмотря ни на что, по сравнению с GTX 580 новая карта работает чрезвычайно быстро.

Batman: Arkham City (DirectX 11)

  • GTX 680 с огромным отрывом опередил HD 7970 в режиме 1920х1080. В режиме 2560х1440 разница уже не столь велика.
  • Разгон существенно прибавил GTX 680 FPS в разрешении 2560х1440, а вот в 1920х1080 эффекта нет. Поэтому в первом режиме разогнанная карта немного быстрее, чем разогнанный HD 7970, а во втором уступает.
  • GTX 680 гораздо быстрее, чем GTX 590 и HD 6990. Многопроцессорные конфигурации в этой игре работают из рук вон плохо.
  • Налицо большой прогресс по сравнению с GTX 580.

The Elder Scrolls 5: Skyrim (DirectX 9)

  • GTX 680 заметно быстрее, чем HD 7970, в режиме 1920x1080, а вот в 2560х1440 значимой разницы уже нет.
  • От разгона GTX 680 в этой игре нет никакого толку. HD 7970 подтянулся в режиме 1920x1080, но GTX 680 все равно чуть-чуть быстрее.
  • По результатам GTX 680 немного превосходит даже GTX 590.
  • GeForce GTX 580 не сильно отстает от GTX 680 в режиме 1920x1080, хотя в 2560х1440 разница уже весьма велика.
  • В целом с сугубо практической точки зрения в этой игре нет разницы между топовыми картами GTX 680, GTX 590, HD 6990 и HD 7970. Движок слишком простой по современным меркам.

Call of Duty: Modern Warfare 3 (DirectX 9)

  • GTX 680 самую малость быстрее, чем HD 7970.
  • Разгон на производительность GTX 680 практически не повлиял. А вот HD 7970 разогнался отлично и ушел далеко вперед.
  • Двухпроцессорные карты недосягаемы для GTX 680.
  • GTX 680 снова гораздо быстрее своего предшественника.

Все игры

  • Первое, что хорошо заметно на графиках: разгон дает GTX 680 до смешного малый прирост производительности. Очевидно, что GPU Boost уже в штатном режиме выбирает запас частоты. Лишь в некоторых играх от разгона есть какая-то польза.
  • В большинстве игр GTX 680 быстрее, чем Radeon HD 7970, но разница не критическая. Кроме того, есть примеры превосходства адаптера AMD: Crysis Warhead и Metro 2033.
  • Radeon HD 7970 отлично разгоняется и часто берет у GTX 680 реванш.

⇡ Выводы

Ну что ж, ожидание релиза сопровождалось такими невероятными слухами, что все уже успели вообразить себе видеокарту с неслыханными спецификациями и чудовищной вычислительной мощью. 512-битная шина памяти, 6,4 млрд транзисторов и тому подобное. А в результате гордое имя GeForce GTX 680 получил куда менее амбициозный продукт. Такое впечатление, что за флагмана линейки отдувается адаптер среднего уровня. Неспроста же GPU новинки называется GK104, а не GK110, что соответствовало бы предшествующей номенклатуре (интрига вокруг GK110 сохраняется: выйдет ли он вообще в серии GeForce 600?) . Видно, что для успешной конкуренции с Radeon HD 7970 из карты выжали все что можно. Частоту GPU подняли до 1 ГГц, оставив лишь небольшой запас для разгона. Да и разгонять ее вручную почти что бессмысленно. В штатном режиме это уже делает технология GPU Boost, которую, похоже, прилепили к карте в последний момент, чтобы использовать малейшую лазейку для прироста производительности. Оверклокеры еще не раз помянут ее добрым словом.

Но если отрешиться от высоких ожиданий, то с практической точки зрения Kepler оказался вполне конкурентоспособным. Пусть победа достигнута неизящными методами, но GTX 680 все-таки быстрее, чем Radeon HD 7970, при этом дешевле (по официальным ценам — да. На деле Radeon HD 7970 уже стоит менее 17 000 рублей. — прим. ред. ) и потребляет меньше электроэнергии. А конкуренция всегда работает в пользу покупателя.



Понравилась статья? Поделитесь ей