Контакти

Системні вимоги до g-sync hdr. Як включити підтримку NVIDIA G-SYNC та повністю розкрити її потенціал Не працює g sync в іграх

Огляд технології G-Sync коротка історіяфіксованої частоти оновлення

Давним-давно монітори були громіздкими та містили електронно-променеві трубки та електронні гармати. Електронні гармати бомбардують екран фотонами для освітлення кольорових люмінофорних точок, які ми називаємо пікселями. Вони промальовують зліва направо кожен "скануючий" рядок від верхнього до нижнього. Регулювання швидкості електронної гармати від одного повного оновлення до наступного не дуже практикувалося раніше, та й особливої ​​потреби до появи тривимірних ігор у цьому не було. Тому ЕПТ та пов'язані з ними аналогові стандарти відео були розроблені з фіксованою частотою оновлення.

РК-монітори поступово замінили ЕПТ, а цифрові роз'єми (DVI, HDMI та DisplayPort) замінили аналогові (VGA). Але асоціації, які відповідають за стандартизацію відеосигналів (на чолі з VESA), не перейшли з фіксованої частоти оновлення. Кіно і телебачення, як і раніше, спираються на вхідний сигнал з постійною частотою кадрів. І знову перехід на регульовану частоту оновлення не здається таким необхідним.

Регульовані частоти кадрів та фіксовані частоти оновлення не співпадають

До появи сучасної 3D-графіки фіксована частота оновлення проблемою для дисплеїв не була. Але вона виникла, коли ми вперше зіткнулися з потужними графічними процесорами: частота, на якій GPU візуалізував окремі кадри (що ми називаємо частотою кадрів, що зазвичай виражається у FPS або кадрах за секунду), непостійна. Вона змінюється з часом. У важких графічних сценах картка може забезпечувати 30 FPS, а якщо дивитися на пусте небо – 60 FPS.


Вимкнення синхронізації призводить до розривів

Виходить, що змінна частота кадрів графічного процесора та фіксована частота оновлення РК-панелі разом працюють не дуже добре. У такій конфігурації ми стикаємося із графічним артефактом під назвою "розрив". Він з'являється, коли два і більше неповні кадри візуалізуються разом протягом одного циклу оновлення монітора. Зазвичай вони зміщуються, що дає неприємний ефект під час руху.

На зображенні вище показані два добре відомі артефакти, які часто зустрічаються, але їх важко зафіксувати. Оскільки це артефакти дисплея, на звичайних ігрових скріншотах ви такого не побачите, проте наші знімки показують, що насправді ви бачите під час гри. Щоб зняти їх, потрібна камера з високошвидкісним режимом зйомки. Або якщо у вас є картка з підтримкою відеозахоплення, ви можете записати несжатий поток відео з порту DVI і чітко побачити перехід від одного кадру до іншого; саме цей спосіб ми використовуємо для тестів FCAT. Однак найкраще спостерігати описаний ефект на власні очі.

Ефект розриву видно на обох зображеннях. Верхнє зроблено за допомогою камери, нижнє – через функцію відеозахоплення. Нижня картинка "розрізана" по горизонталі і виглядає зміщеною. На верхніх двох зображеннях лівий знімок зроблено на екрані Sharp із частотою оновлення 60 Гц, правий – на дисплеї Asus із частотою 120 Гц. Розрив на 120-герцевому дисплеї виражений не так сильно, оскільки частота оновлення вдвічі вища. Проте ефект видно, і проявляється так само, як і на лівому зображенні. Артефакт такого типу – явна ознака того, що зображення були зроблені за відключеної вертикальної синхронізації (V-sync).


Battlefield 4 на GeForce GTX 770 з відключеною V-sync

Другий ефект, який видно на знімках BioShock: Infinite, називається двоїнням (ghosting). Він особливо добре видно у нижній частині лівого знімка і пов'язаний із затримкою оновлення екрана. Якщо коротко, то окремі пікселі мало швидко змінюють колір, що призводить до світіння такого типу. Окремо взятий кадр неспроможна передати, який ефект двоїння на саму гру. Панель з часом відгуку від сірого до сірого 8 мс, така як Sharp, даватиме в результаті розмите зображення при будь-якому русі на екрані. Ось чому ці дисплеї зазвичай не рекомендують для шутерів від перової особи.

V-sync: "шило на мило"

Вертикальна синхронізація, або V-sync – це дуже старе вирішення проблеми розриву. Під час активації цієї функції відеокарта намагається відповідати частоті оновлення екрана, повністю видаляючи розриви. Проблема в тому, що якщо ваша відеокарта не зможе утримати частоту кадрів вище 60 FPS (на дисплеї з частотою оновлення 60 Гц), ефективна частота кадрів скакатиме між значеннями, кратними частоті оновлення екрана (60, 30, 20, 15 FPS тощо). д.), що у свою чергу призведе до відчутних пригальмовувань.


Коли частота кадрів падає нижче за частоту оновлення при активній V-sync, ви відчуєте пригальмовування

Більш того, оскільки вертикальна синхронізація змушує відеокарту чекати і іноді покладається на буфер невидимих ​​поверхонь, V-sync може додавати в ланцюжок візуалізації додаткову затримку введення. Таким чином V-sync може бути як порятунком, так і прокляттям, вирішуючи одні проблеми, але при цьому провокуючи інші недоліки. Неофіційне опитування наших співробітників показало, що геймери, як правило, відключають вертикальну синхронізацію, і включають лише тоді, коли розриви стають нестерпними.

Креативний підхід: Nvidia представляє G-Sync

Під час запуску нової відеокарти GeForce GTX 680компанія Nvidia включила режим драйвера під назвою Adaptive V-sync (адаптивна вертикальна синхронізація), який намагається нівелювати проблеми при включенні V-sync, коли частота кадрів вище за частоту оновлення монітора і швидко відключаючи її, коли відбувається різке падіння продуктивності нижче за частоту оновлення. Хоча технологія сумлінно виконувала свої функції, це був лише обхід проблеми, який не дозволяв позбутися розривів, якщо частота кадрів була нижчою за частоту оновлення монітора.

Реалізація G-Syncнабагато цікавіше. Якщо говорити загалом, Nvidia показує, що замість того, щоб змушувати відеокарти працювати на фіксованій частоті монітора, ми можемо змусити нові монітори працювати на непостійній частоті.


Частота кадрів GPU визначає частоту оновлення монітора, прибираючи артефакти, пов'язані з включенням та вимкненням V-sync

Пакетний механізм передачі роз'єму DisplayPort відкрив нові можливості. Використовуючи змінні інтервали гасіння у відеосигналі DisplayPort та замінюючи пристрій масштабування монітора на модуль, що працює зі змінними сигналами гасіння, РК-панель може працювати на змінній частоті оновлення, пов'язаної з частотою кадрів, яку виводить відеокарта (у межах частоти оновлення монітора). На практиці Nvidia креативно підійшла до використання особливих можливостей інтерфейсу DisplayPort та спробувала зловити двох зайців одночасно.

Ще перед початком тестів хочеться віддати належне за творчий підхід до вирішення реальної проблеми, що впливає на ігри на ПК. Це інновації у всій красі. Але які результати G-Syncна практиці? Давайте з'ясовувати.

Nvidia надіслала нам інженерний зразок монітора Asus VG248QE, в якому пристрій масштабування замінено на модуль G-Sync. Із цим дисплеєм ми вже знайомі. Йому присвячена стаття "Огляд Asus VG248QE: 24-дюймовий ігровий монітор із частотою оновлення 144 Гц за $400", в якій монітор заробив нагороду Tom's Hardware Smart Buy. Тепер настав час дізнатися, як нова технологія Nvidia вплине на найпопулярніші ігри.

Огляд технології G-Sync 3D LightBoost, вбудована пам'ять, стандарти та 4K

Переглядаючи матеріали для преси від Nvidia, ми ставили собі чимало питань, як про місце технології в сучасному, так і її роль у майбутньому. Під час недавньої поїздки до головного офісу компанії в Санта-Клара наші колеги зі США отримали деякі відповіді.

G-Sync та 3D LightBoost

Перше, що ми помітили - це те, що Nvidia надіслала монітор Asus VG248QE, модифікований для підтримки G-Sync. Цей монітор також підтримує технологію Nvidia 3D LightBoost, яка спочатку була розроблена для підвищення яскравості 3D-дисплеїв, але довгий час неофіційно використовувалася в 2D-режимі, застосовуючи пульсуюче фонове підсвічування панелі для зменшення ефекту двоїння (або розмиття рухів). Звичайно, стало цікаво, чи використовується дана технологія в G-Sync.

Nvidia дала негативну відповідь. Хоча використання обох технологій одночасно було б ідеальним рішенням, сьогодні стробування фонового підсвічування на змінній частоті оновлення призводить до проблем із мерехтінням та яскравістю. Вирішити їх неймовірно складно, оскільки необхідно налаштувати яскравість та відстежувати імпульси. Як результат, зараз доводиться вибирати між двома технологіями, хоча компанія намагається знайти спосіб використати їх одночасно у майбутньому.

Вбудована пам'ять модуля G-Sync

Як ми вже знаємо, G-Syncусуває покрокову затримку введення, пов'язану з V-sync, оскільки більше немає необхідності очікувати на завершення сканування панелі. Тим не менш, ми помітили, що модуль G-Syncмає вбудовану пам'ять. Чи може буферизувати кадри самостійно? Якщо так, скільки часу потрібно кадру, щоб пройти через новий канал?

За даними Nvidia, кадри не буферизуються у пам'яті модуля. У міру надходження даних вони з'являються на екрані, а пам'ять виконує деякі інші функції. Тим не менш, час обробки для G-Syncпомітно менше однієї мілісекунди. Фактично майже з такою самою затримкою ми стикаємося при вимкненій V-sync, і вона пов'язана з особливостями гри, відеодрайвера, мишки і т.д.

Чи буде стандартна G-Sync?

Таке питання ставилося в останньому інтерв'ю з AMD, коли читач хотів дізнатися про реакцію компанії на технологію G-Sync. Однак нам захотілося запитати це безпосередньо у розробника та дізнатися, чи планує Nvidia вивести технологію на промисловий стандарт. Теоретично компанія може пропонувати G-Syncяк апгрейд для стандарту DisplayPort, що забезпечує змінні частоти оновлень. Зрештою, Nvidia є членом асоціації VESA.

Однак, нові специфікації для DisplayPort, HDMI або DVI не плануються. G-Syncі так підтримує DisplayPort 1.2, тобто міняти стандарт не потрібно.

Як уже зазначалося, Nvidia працює над сумісністю G-Syncз технологією, яка зараз називається 3D LightBoost (але скоро носитиме інше ім'я). Крім того, компанія шукає спосіб знизити собівартість модулів G-Syncта зробити їх більш доступними.

G-Sync на дозволах Ultra HD

Nvidia обіцяє появу моніторів із підтримкою G-Syncта дозволами до 3840x2160 пікселів. Однак модель від Asus, яку ми сьогодні розглянемо, підтримує лише 1920×1080 пікселів. На даний моментМонітори Ultra HD використовують контролер STMicro Athena, що має два пристрої масштабування для створення поділеного на плитки дисплея. Нам цікаво, чи буде модуль G-Syncпідтримувати конфігурацію MST?

Правду кажучи, дисплеїв 4K зі зміною частотою кадрів ще доведеться почекати. Ще не існує окремого пристрою масштабування, що підтримує роздільну здатність 4K, найближче має з'явитися у першій чверті 2014 року, а монітори, ними оснащені, – лише у другій чверті. Оскільки модуль G-Syncзамінює пристрій масштабування, сумісні панелі з'являться після цього моменту. На щастя, модуль спочатку підтримує Ultra HD.

Що відбувається до 30 Гц?

G-Syncможе змінювати частоту оновлення екрана до 30 Гц. Пояснюється це тим, що за дуже низьких частотахоновлення екрана зображення на РК-екрані починає руйнуватися, що призводить до появи візуальних артефактів. Якщо джерело забезпечує менше 30 FPS, модуль оновлюватиме панель автоматично, уникаючи можливих проблем. Це означає, що одне зображення може відтворюватися більш ніж один раз, але нижній поріг становить 30 Гц, що забезпечить максимальне якісне зображення.

Огляд технології G-Sync Панелі 60 Гц, SLI, Surround та наявність

Технологія обмежується лише панелями із високою частотою оновлення?

Ви помітите, що перший монітор з G-Syncспочатку має дуже високу частоту оновлення екрана (вище необхідного для технології рівня) та роздільну здатність 1920x1080 пікселів. Але Asus дисплей має власні обмеження, наприклад, 6-бітну TN-панель. Нам стало цікаво, впровадження технології G-Syncпланується лише у дисплеях з високою частотою оновлення або ми зможемо побачити її на більш поширених 60-герцевих моніторах? Крім того, хочеться якнайшвидше отримати доступ до роздільної здатності 2560x1440 пікселів.

У Nvidia знову повторили, що найкращий досвід від G-Syncможна отримати тоді, коли відеокарта утримує частоту кадрів у межах 30 – 60 FPS. Таким чином, технологія дійсно може вигідно використовувати звичайні монітори з частотою 60 Гц та модулем G-Sync .

Але навіщо використовувати монітор на 144 Гц? Схоже, що багато виробників моніторів вирішили впровадити функцію низького розмиття руху (3D LightBoost), що потребує високої частоти оновлення. Але ті, хто вирішив не використовувати цю функцію (а чому б і ні, адже вона поки що не сумісна з G-Sync), можуть створити панель з G-Syncза набагато менші гроші.

Говорячи про дозволи, можна відзначити, що все складається таким чином: QHD-екрани з частотою оновлення понад 120 Гц можуть почати випускатися вже на початку 2014 року.

Чи існують проблеми з SLI та G-Sync?

Що потрібно для того, щоб побачити G-Sync у режимі Surround?

Зараз, звичайно, не потрібно об'єднувати два графічні адаптери, щоб забезпечити виведення на екран зображення як 1080p. Навіть відеокарта середнього класу на базі Kepler зможе надати рівень продуктивності, необхідний для комфортної гри на цьому дозволі. Але також немає можливості запустити дві карти у SLI на трьох G-Sync-Монітори в режимі Surround.

Це обмеження пов'язане із сучасними виходами для дисплеїв на картах Nvidia, які, як правило, мають два порти DVI, один HDMI та один DisplayPort. G-Syncвимагає наявності DisplayPort 1.2, і адаптер не працюватиме (як і концентратор MST). Єдиний варіант – це підключити три монітори як Surround до трьох карт, тобто. для кожного монітора окрема картка. Природно, ми припускаємо, що партнери Nvidia почнуть випускати карти G-Sync Edition з великою кількістю роз'ємів DisplayPort.

G-Sync та потрійна буферизація

Для комфортної гри з вертикальною синхронізацією була потрібна активна потрійна буферизація. Чи потрібна вона для G-Sync? Відповідь – ні. G-Syncне тільки не потребує потрійної буферизації, оскільки канал ніколи не зупиняється, вона, навпаки, шкодить G-Syncоскільки додає додатковий кадр затримки без приросту продуктивності. На жаль, потрійну буферизацію гри часто задають самостійно і обійти вручну їх не можна.

А щодо ігор, які зазвичай погано реагують на відключення V-sync?

Ігри типу Skyrim, яка є частиною нашого тестового пакета, призначені для роботи з вертикальною синхронізацією на панелі 60 Гц (хоча це іноді ускладнює життя через затримку введення). Для їх тестування потрібна модифікація певних фалів із розширенням.ini. Бо поводиться G-Syncз іграми на базі двигунів Gamebryo і Creation, чутливих до налаштувань вертикальної синхронізації? Вони обмежуються 60 FPS?

По-друге, потрібен монітор із модулем Nvidia G-Sync. Цей модуль замінює масштабуючий пристрій екрана. І, наприклад, до розділеного Ultra HD-дисплею додати G-Syncнеможливо. У сьогоднішньому огляді ми використовуємо прототип з роздільною здатністю 1920×1080 пікселів та частотою оновлення до 144 Гц. Але навіть за його допомогою ви зможете скласти уявлення про те, який вплив матиме G-Sync, якщо виробники почнуть встановлювати їх у дешевші панелі на 60 Гц.

По-третє, потрібна наявність кабелю DisplayPort 1.2. DVI та HDMI не підтримуються. У найближчій перспективі це означає, що єдиний варіант для роботи G-Syncна трьох моніторах в режимі Surround є їх підключення через потрійну зв'язку SLI, оскільки кожна картка має лише по одному роз'єму DisplayPort, і адаптери для DVI на DisplayPort в цьому випадку не працюють. Те саме стосується MST-концентраторів.

І, нарешті, не слід забувати про підтримку в драйверах. Останній пакет версії 331.93 beta вже має сумісність із G-Sync, і ми припускаємо, що майбутні версії з сертифікатом WHQL будуть їй оснащуватися.

Тестовий стенд

Конфігурація тестового стенду
Процесор Intel Core i7-3970X (Sandy Bridge-E), базова частота 3,5 ГГц, розгін до 4,3 ГГц, LGA 2011, 15 Мбайт загального кешу L3, Hyper-Threading увімк., функції енергозбереження увімк.
Системна плата MSI X79A-GD45 Plus (LGA 2011) X79 Express Chipset, BIOS 17.5
Оперативна пам'ять G.Skill 32 Гбайт (8 x 4 Гбайт) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 та 1,65 В
Накопичувач Samsung 840 Pro SSD 256 Гбайт SATA 6Гбіт/с
Відеокарти Nvidia GeForce GTX 780 Ti 3 Гбайт
Nvidia GeForce GTX 760 2 Гбайт
Блок живлення Corsair AX860i 860 W
Системне ПЗ та драйвери
ОС Windows 8 Professional 64-bit
DirectX DirectX 11
Відеодрайвер Nvidia GeForce 331.93 Beta

Тепер необхідно розібратися, у яких випадках G-Syncмає найбільший вплив. Велика ймовірність, що ви вже зараз використовуєте монітор із частотою оновлення 60 Гц. Серед геймерів більш популярні моделі з частотою 120 і 144 Гц, але Nvidia справедливо припускає, що більшість ентузіастів на ринку все ж таки буде дотримуватися рівня 60 Гц.

При активній вертикальній синхронізації на моніторі з частотою оновлення 60 Гц найбільш помітні артефакти з'являються в тих випадках, коли карта не може забезпечити частоту 60 кадрів в секунду, що призводить до дратівливих стрибків між 30 і 60 FPS. Тут спостерігаються помітні пригальмовування. При відключеній вертикальній синхронізації ефект розривів буде найбільш помітним у сценах, де потрібно часто обертати камерою або в яких відбувається багато рухів. Деяких гравців це настільки відволікає, що вони просто включають V-sync і зазнають пригальмовування та затримки введення.

При частоті оновлення 120 і 144 Гц і вищій частоті кадрів дисплей оновлюється частіше, скорочуючи час, коли один кадр зберігається протягом кількох сканувань екрана за умови недостатньої продуктивності. Проте проблеми з активною та неактивною вертикальною синхронізацією зберігаються. З цієї причини ми будемо тестувати монітор Asus в режимі 60 і 144 Гц із включеною та вимкненою технологією G-Sync .

Огляд технології G-Sync Тестування G-Sync із включеною V-Sync

Настав час розпочати тестування G-Sync. Залишається тільки встановити карту відеозахоплення, масив із кількох SSD і перейти до тестів, правильно?

Ні не правильно.

Сьогодні ми вимірюємо не продуктивність, а якість. У разі тести можуть показати лише одне: частоту кадрів у конкретний час. Про якість та досвід використання при включеній та вимкненій технології G-Syncвони не говорять зовсім нічого. Тому доведеться покладатися на наш ретельно вивірений і промовистий опис, який ми намагатимемося максимально наблизити до реальності.

Чому б просто не записати відеоролик та не віддати його на суд читачам? Справа в тому, що камера записує відео на фіксованій швидкості 60 Гц. Монітор також відтворює відео на постійній частоті оновлення 60 Гц. Оскільки G-Syncвпроваджує змінну частоту оновлення, технологію у дії ви не побачите.

Враховуючи кількість доступних ігор, кількість можливих тестових комбінацій є незліченною. V-sync вкл., V-sync вимк., G-Syncвкл. G-Syncвикл., 60 Гц, 120 Гц, 144 Гц, ... Список можна продовжувати ще довго. Але ми почнемо з частоти оновлення 60 Гц та активної вертикальної синхронізації.

Напевно, найпростіше почати з власної демонстраційної утиліти Nvidia, у якій маятник хитається з боку на бік. Утиліта може імітувати частоту кадрів 60, 50 або 40 FPS. Або частота може коливатися між 40 та 60 FPS. Потім можна відключити або увімкнути V-sync і G-Sync. Хоча тест і вигаданий, він добре демонструє можливості технології. Можна спостерігати сцену при 50 FPS з увімкненою вертикальною синхронізацією і думати: "Все цілком непогано, і видимі пригальмовування можна терпіти". Але після активації G-Syncвідразу хочеться сказати: "Про що я думав? Різниця очевидна, як день і ніч. Як я міг жити з цим раніше?"

Але не забуватимемо, що це технічна демонстрація. Хотілося б доказів на основі реальних ігор. Для цього потрібно запустити гру з високими системними вимогами, як Arma III.

В Arma III можна встановити тестову машину GeForce GTX 770та виставити ультраналаштування. З відключеною вертикальною синхронізацією частота кадрів коливається не більше 40 – 50 FPS. Але якщо увімкнути V-sync, вона знизиться до 30 FPS. Продуктивність недостатньо висока, щоб спостерігалися постійні коливання між 30 та 60 FPS. Натомість частота кадрів відеокарти просто зменшується.

Оскільки гальмування зображення не було, істотна різниця при активації G-Syncнепомітна, крім того, що реальна частота кадрів підскакує на 10 - 20 FPS вище. Затримка введення також повинна знизитися, оскільки той самий кадр не зберігається протягом декількох сканувань монітора. Нам здається, що Arma взагалі менш "смикана", ніж багато інших ігор, так що затримка не відчувається.

З іншого боку, у Metro: Last Light вплив G-Syncбільш виражено. З відеокартою GeForce GTX 770гру можна запустити при роздільній здатності 1920x1080 точок з дуже високими налаштуваннями деталізації, включаючи 16x AF, нормальну тесселяцію та розмиття рухів. У цьому випадку можна вибирати параметри SSAA з 1x до 2x до 3x, щоб поступово знижувати частоту кадрів.

Крім того, оточення гри включає передпокій, в якому легко "стрейфіти" вперед і назад. Запустивши рівень з активною вертикальною синхронізацією на 60 Гц ми вийшли в місто. Fraps показав, що з трикратним згладжуванням SSAA частота кадрів склала 30 FPS, а при відключеному згладжуванні – 60 FPS. У першому випадку відчутні пригальмовування та затримки. З відключеним SSAA ви отримаєте абсолютно плавну картинку на 60 FPS. Однак активація 2x SSAA призводить до коливань від 60 до 30 FPS, з чого кожен продубльований кадр створює незручності. Це одна з ігор, в якій ми обов'язково відключили б вертикальну синхронізацію і просто ігнорували розриви. У багатьох все одно вже виробилася звичка.

Проте G-Syncпозбавляє всіх негативних ефектів. Вам більше не доведеться дивитися в лічильник Fraps, чекаючи просідань нижче 60 FPS, щоб знизити ще один графічний параметр. Ви, навпаки, можете підвищити деякі з них, оскільки навіть у разі уповільнення до 50 – 40 FPS очевидних пригальмовувань не буде. А якщо відключити вертикальну синхронізацію? Про це ви дізнаєтесь пізніше.

Огляд технології G-Sync Тестування G-Sync з вимкненою V-Sync

Висновки в цьому матеріалі створені на основі опитування авторів і друзів Tom's Hardware по Skype (іншими словами, вибірка опитуваних невелика), але майже всі вони розуміють, що таке вертикальна синхронізація і з якими недоліками доводиться у зв'язку миритися користувачам. , вони вдаються за допомогою вертикальної синхронізації лише тому випадку, коли розриви через дуже великого розкиду в частоті кадрів і частоті оновлення монітора стають нестерпними.

Як ви можете уявити, вплив вимкненої вертикальної синхронізації на візуальну складову складно переплутати, хоча на це сильно впливають конкретна гра і її налаштування деталізації.

Візьмемо, наприклад, Crysis 3. Гра з легкістю може поставити на коліна вашу графічну підсистему на найвищих параметрах графіки. І, оскільки Crysis 3є шутером від першої особи з динамічним геймплеєм, розриви можуть бути досить відчутними. На прикладі вище висновок FCAT було захоплено між двома кадрами. Як бачите, дерево повністю розрізане.

З іншого боку, коли ми примусово відключаємо вертикальну синхронізацію в Skyrim, розриви не такі вже й сильні. Зверніть увагу, що в цьому випадку частота кадрів дуже висока, і кілька кадрів з'являються на екрані з кожним скануванням. Таким оглядам кількість рухів на кадр відносно низька. При грі в Skyrim у такій конфігурації існують проблеми, і, можливо, вона не найоптимальніша. Але вона показує, що навіть за відключеної вертикальної синхронізації відчуття від гри може змінюватися.

Як третій приклад ми вибрали кадр із зображенням плеча Лари Крофт з гри Tomb Raider, на якому видно досить чіткий розрив зображення (також подивіться на волосся і лямку майки). Tomb Raider – єдина гра з нашої вибірки, яка дозволяє вибирати між подвійною та потрійною буферизацією при активації вертикальної синхронізації.

Останній графік показує, що Metro: Last Light з G-Syncпри 144 Гц, в цілому, забезпечує таку ж продуктивність, як при відключеній вертикальній синхронізації. Проте на графіку не можна побачити відсутність розривів. Якщо використовувати технологію з екраном 60 Гц, частота кадрів впорається в 60 FPS, але при цьому не буде гальмування або затримки.

У всякому разі, ті з вас (і нас), хто провів незліченну кількість часу за графічними тестами, спостерігаючи один і той же бенчмарк знову і знову, могли звикнути до них і візуально визначити, наскільки добрий той чи інший результат. Так ми вимірюємо абсолютну продуктивність відеокарт. Зміни у картинці з активною G-Syncвідразу впадають у вічі, оскільки утворюється плавність, як із включеної V-sync, але не розривів, властивих для відключеної V-sync. Жаль, що зараз ми не можемо показати різницю у відеоролику.

Огляд технології G-Sync Сумісність із іграми: майже чудово

Перевіряємо інші ігри

Ми протестували ще кілька ігор. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4побували на тестовому стенді. Усі вони, окрім Skyrim, виграли від технології G-Sync. Ефект залежав від конкурентної гри. Але якби ви бачили його, одразу визнали б, що ігнорували недоліки, які були присутні раніше.

Артефакти все ж таки можуть з'являтися. Наприклад, ефект сповзання, пов'язаний зі згладжуванням, при плавному русі помітний сильніше. Швидше за все, вам захочеться виставити згладжування якомога вище, щоб усунути неприємні нерівності, які раніше були не такі помітні.

Skyrim: особливий випадок

Графічний двигун Creation, на якому розроблена Skyrim, активує вертикальну синхронізацію за умовчанням. Щоб тестувати гру на частоті кадрів вище 60 FPS, до одного з.ini-файлів гри потрібно додати рядок iPresentInterval=0.

Таким чином, Skyrim можна тестувати трьома способами: у вихідному стані, дозволяючи драйверу Nvidia "використовувати налаштування програми", увімкнути G-Syncв драйвері і залишити налаштування Skyrim незайманими, а потім увімкнути G-Syncта відключити V-sync у файлі гри з розширенням.ini.

Перша конфігурація, в якій досвідчений монітор виставлений на 60 Гц, показала стабільні 60 FPS на ультранастройках з відеокартою GeForce GTX 770. Отже, ми отримали плавну та приємну картинку. Тим не менш, введення від користувача, як і раніше, страждає від затримки. Крім того, стрейф з боку на бік виявив помітне розмиття рухів. Проте саме в такий спосіб на ПК грає більшість людей. Звичайно, ви можете купити екран із частотою оновлення 144 Гц, і він реально усуне розмиття. Але оскільки GeForce GTX 770забезпечує частоту оновлення на рівні приблизно 90 - 100 кадрів в секунду, з'являться відчутні пригальмовування, коли двигун коливатиметься між 144 і 72 FPS.

При 60 Гц G-Syncмає негативний вплив на картинку, ймовірно, це пов'язано з активною вертикальною синхронізацією, при тому що технологія повинна працювати з відключеною V-sync. Тепер бічний стрейф (особливо ближче до стін) призводить до виражених гальмування. Це потенційна проблема для 60-герцевих панелей з G-Syncпринаймні в таких іграх як Skyrim. На щастя, у разі монітора Asus VG248Q можна переключитися в режим 144 Гц, і, незважаючи на активну V-sync, G-Syncпрацюватиме на такій частоті кадрів без нарікань.

Повне відключення вертикальної синхронізації в Skyrim призводить до більш "точного" керування мишею. Однак при цьому з'являються розриви зображення (не кажучи про інші артефакти, такі як мерехтлива вода). Увімкнення G-Syncзалишає пригальмовування на рівні 60 Гц, але на 144 Гц ситуація значно покращується. Хоча в оглядах відеокарт ми тестуємо гру з відключеною вертикальною синхронізацією, ми б не рекомендували грати без неї.

Для Skyrim, можливо, найбільш найкращим рішеннямбуде відключити G-Syncі грати на 60 Гц, що дасть постійні 60 кадрів в секунду на вибраних налаштуваннях графіки.

Огляд технології G-Sync G-Sync – те, що ви чекали?

Навіть перед тим, як ми отримали тестовий зразок монітора Asus з технологій G-Sync, нас вже порадував той факт, що Nvidia працює над цілком реальною проблемою, що впливає на ігри, рішення якої ще не було запропоновано. До цього часу ви на свій смак могли включати або не включати вертикальну синхронізацію. При цьому будь-яке рішення супроводжувалося компромісами, які негативно впливають на ігровий досвід. Якщо ви волієте не включати вертикальну синхронізацію доти, поки розриви зображення стануть нестерпними, можна сказати, що ви вибираєте менше з двох зол.

G-Syncвирішує проблему, надаючи дисплею можливість сканувати екран на змінній частоті. Такі інновації – єдиний спосіб і надалі просувати нашу індустрію, зберігаючи технічна перевага персональних комп'ютерівнад ігровими консолями та платформами. Nvidia, без сумніву, витримає критику за те, що не розробила стандарту, який могли б застосувати конкуренти. Тим не менш, для свого рішення компанія використовує DisplayPort 1.2. В результаті лише через два місяці після анонсу технології G-Syncвона опинилася у нас у руках.

Питання, чи реалізує Nvidia все, що обіцяла в G-Sync?

Три талановитих розробника, які розхвалюють якості технології, яку ви ще не бачили у дії, можуть надихнути будь-кого. Але якщо ваш перший досвід з G-Syncзаснований на демонстраційному тесті з маятником від Nvidia, ви точно поставите питання, чи можлива взагалі така величезна різниця, або ж тест представляє особливий сценарій, який дуже хороший, щоб бути правдою.

Звичайно, при перевірці технології в реальних іграх ефект виявляється не таким однозначним. З одного боку, були вигуки "Ого!" і "З глузду з'їхати!", з іншого - "Здається, я бачу різницю". Найкраще вплив активації G-Syncпомітно при зміні частоти поновлення дисплея з 60 Гц на 144 Гц. Але ми також намагалися провести тест на 60 Гц з G-Sync, щоб дізнатися, що ви отримаєте (сподіваємось) з більш дешевими дисплеями у майбутньому. У деяких випадках простий перехід з 60 на 144 Гц вас сильно вразить, якщо ваша відеокарта може забезпечити високу частоту кадрів.

Сьогодні нам відомо, що Asus планує запровадити підтримку G-Syncу моделі Asus VG248QE, Яка, за словами компанії, наступного року буде продаватися за ціною $400. Монітор має рідну роздільну здатність 1920x1080 пікселів та частоту оновлення 144 Гц. Версія без G-Syncвже отримала нашу нагороду Smart Buy за визначну продуктивність. Але особисто для нас 6-бітна TN-панель є недоліком. Дуже хочеться бачити 2560×1440 пікселів на IPS-матриці. Ми навіть погоджуємося на частоту оновлення 60 Гц, якщо це допоможе знизити ціну.

Хоча на виставці CESми чекаємо цілу купу анонсів, офіційних коментарів Nvidia щодо інших дисплеїв з модулями G-Syncта їх цін ми не чули. Крім того, ми не впевнені, які плани компанії щодо модуля для апгрейду, який має дозволити вам запровадити модуль. G-Syncу вже куплений монітор Asus VG248QEза 20 хв.

Зараз ми можемо сказати, що варто зачекати. Ви побачите, що в одних іграх вплив нової технологійне можна переплутати, а в інших воно менш виражене. Але в будь-якому випадку G-Syncвідповідає на "бородатий" питання, включати або не включати вертикальну синхронізацію.

Є ще одна цікава думка. Після того, як ми протестували G-Sync, ще скільки AMD зможе ухилятися від коментарів? Компанія подразнила наших читачів у своєму інтерв'ю(англ.), наголосивши, що вона скоро визначитися з цією можливістю. Якщо у неї щось у планах? Кінець 2013 року та початок 2014 року готують нам безліч цікавих новин для обговорення, включаючи Battlefield 4 Mantle-версії, майбутню архітектуру Nvidia Maxwell, G-Sync, двигун AMD xDMA з підтримкою CrossFire і чутки про нові двочіпові відеокарти. Зараз нам не вистачає відеокарт, об'єм пам'яті GDDR5 яких більше ніж 3 Гбайт (Nvidia) і 4 Гбайт (AMD), але коштують вони менше $1000.

Є речі, писати про які не просто важко, а дуже важко. Які просто потрібно один раз побачити, ніж сто разів почути про них чи прочитати в Інтернеті. Наприклад, неможливо описати якісь природні чудеса, на зразок величного Гранд-Каньйону або засніжених Алтайських гір. Можна сто разів дивитися на красиві картинки з їхнім зображенням та милуватися відеороликами, але живих вражень це не замінить.

Тема плавності виведення кадрів на монітор із застосуванням технології Nvidia G-Sync теж відноситься до таких тем - за текстовими описами зміни не здаються такими істотними, але в перші ж хвилини за 3D-грою на системі з відеокартою Nvidia Geforce, підключеної до G-Sync -Монітору, стає зрозуміло, наскільки великим є якісний стрибок. І хоча з моменту анонсу технології минуло вже більше року, технологія не втрачає актуальності, конкурентів у неї досі немає (серед рішень, що вийшли на ринок), а відповідні монітори продовжують випускатися.

Компанія Nvidia вже давно займається питанням поліпшення сприйняття користувачами графічних процесорів Geforce відеоряду в сучасних іграх шляхом підвищення плавності рендерингу. Можна згадати технологію адаптивної синхронізації Adaptive V-Sync, яка є гібридом, що поєднує режими з увімкненою та вимкненою вертикальною синхронізацією (V-Sync On та V-Sync Off, відповідно). У випадку, коли GPU забезпечує рендеринг із частотою кадрів менше частоти оновлення монітора, синхронізація відключається, а для FPS, що перевищує частоту оновлення, - включається.

Проблеми плавності за допомогою адаптивної синхронізації вирішилися не всі, але все ж таки це був важливий крок у правильному напрямку. Але чому взагалі знадобилося робити якісь спеціальні режимисинхронізації та навіть випускати програмно-апаратні рішення? Що не так у технологіях, які існують уже десятки років? Сьогодні ми розповімо вам про те, як технологія Nvidia G-Sync допомагає усунути всі відомі артефакти виведення зображення на екран, на кшталт розривів зображення, неплавності відеоряду та збільшення затримок.

Забігаючи далеко вперед, можна сказати, що технологія синхронізації G-Sync дозволяє отримати плавну зміну кадрів з максимально можливою продуктивністю і комфортом, що дуже відчутно при грі за таким монітором - це помітно навіть звичайному домашньому користувачеві, а для затятих гравців може означати поліпшення часу реакції, а заразом і ігрових досягнень.

На сьогоднішній день більшість ПК-гравців використовують монітори з частотою оновлення 60 Гц - типові РК-екрани, найпопулярніші зараз. Відповідно, і при включеній синхронізації (V-Sync On), і при вимкненій - завжди спостерігаються будь-які недоліки, пов'язані з базовими проблемами давніх технологій, про які ми поговоримо далі: високі затримки та ривки FPS при включеному V-Sync та неприємні розриви зображення при вимкненому.

Оскільки затримки і неплавність частоти кадрів сильніше заважають грі і дратують, рідко хто з гравців включає зовсім синхронізацію. І навіть деякі моделі моніторів з частотою оновлення 120 і 144 Гц, що з'явилися на ринку, не можуть допомогти усунути проблеми повністю, вони їх просто роблять трохи менш помітними, оновлюючи вміст екрана вдвічі частіше, але ті ж артефакти присутні: лаги і відсутність тієї самої комфортної плавності.

І тому що монітори з G-Sync у парі з відповідною відеокартою Nvidia Geforce здатні забезпечити не тільки високу частоту оновлення, але й усунути всі ці недоліки, то придбання подібних рішень можна вважати навіть важливішим, ніж навіть апгрейд на потужніший GPU. Але давайте розберемося спочатку про те, чому взагалі знадобилося робити щось від давно відомих рішень - у чому тут проблема?

Проблеми існуючих методів відеовиводу

Технології виведення зображення на екран із фіксованою частотою оновлення з'явилися ще з тих часів, коли використовувалися монітори на електронно-променевих трубках (ЕЛТ). Більшість читачів мають їх пам'ятати - пузатенькі такі, як і давні телевізори. Ці технології спочатку розроблялися для показу телевізійного зображення з фіксованою частотою кадрів, але у випадку пристроїв для виведення 3D-картинки, що динамічно розраховується на ПК, це рішення викликає великі проблеми, не вирішені досі.

Навіть найсучасніші РК-монітори мають фіксовану частоту оновлення зображення на екрані, хоча технологічно ніщо не заважає змінювати картинку на них у будь-який час, з будь-якою частотою (у розумних межах, зрозуміло). Але ПК-гравці з давніх-давен ЕПТ-моніторів змушені миритися з явно неідеальним рішенням проблеми синхронізації частоти кадрів 3D-рендерінгу та частоти оновлення монітора. Варіантів виведення зображення досі було зовсім небагато - два, і вони мають недоліки.

Корінь всіх проблем полягає в тому, що при фіксованій частоті оновлення картинки на моніторі, відеокарта малює кожен кадр за різний час - так виходить через складність сцени, що постійно змінюється, і навантаження на графічний процесор. І час рендерингу кожного кадру є непостійним, він змінюється кожен кадр. Не дивно, що при спробі вивести ряд кадрів на монітор виникають проблеми синхронізації, адже деякі з них вимагають значно більше часу на малювання, ніж інші. У результаті виходить різний час підготовки кожного кадру: то 10 мс, то 25 мс, наприклад. А монітори, що існують до появи G-Sync, могли виводити кадри тільки через певний проміжок часу - не раніше, не пізніше.

Справа ускладнюється ще й багатством програмно-апаратних конфігурацій ігрових ПК, у поєднанні з дуже сильно різним навантаженням в залежності від гри, налаштувань якості, налаштувань відеодрайвера і т. д. В результаті, неможливо налаштувати кожну ігрову систему так, щоб підготовка кадрів велася з постійним або хоча б не надто різним часом у всіх 3D-додатках та умовах - як це можливо на ігрових консолях з їхньою єдиною апаратною конфігурацією.

Природно, що на відміну від консолей з їх передбачуваним часом рендерингу кадрів, ПК-гравці досі серйозно обмежені можливості досягнення плавного ігрового ряду без відчутних просадок і лагів. В ідеальному (читай - неможливому насправді) випадку, оновлення зображення на моніторі має здійснюватися строго після того, як графічним процесором розрахований і підготовлений черговий кадр:

Як бачите, у цьому гіпотетичному прикладі GPU завжди встигає відмалювати кадр до того часу, як його потрібно передати на монітор – час кадру завжди трохи менше часу між оновленнями інформації на дисплеї, а у перервах графічний процесор трохи відпочиває. Але насправді ж все зовсім по-іншому - час малювання кадрів сильно відрізняється. Уявіть, якщо GPU не встигає відрендерити кадр за відведений час - тоді кадр необхідно або виводити пізніше, пропустивши одне оновлення зображення на моніторі (вертикальна синхронізація включена - V-Sync On), або виводити кадри частинами при відключеній синхронізації, і тоді на моніторі одночасно будуть присутні шматки з кількох сусідніх кадрів.

Більшість користувачів вимикають V-Sync, щоб отримати менші затримки та більш плавне виведення кадрів на екран, але це рішення сприяє появі видимих ​​артефактів у вигляді розривів зображення. А з включеною синхронізацією розривів картинки не буде, тому що кадри виводяться виключно повністю, але затримка між дією гравця та оновленням зображення на екрані зростає, а частота виведення кадрів виходить дуже нерівномірною, тому що GPU ніколи не малює кадри у суворій відповідності з часом оновлення картинки. на моніторі.

Ця проблема існує вже багато років і явно заважає комфорту при перегляді результату 3D-рендерінгу, але до деяких пір ніхто так і не спромігся її вирішити. А рішення те в теорії досить просте - потрібно просто виводити інформацію на екран суворо тоді, коли GPU закінчує роботу над наступним кадром. Але давайте спочатку ще докладніше розберемо на прикладах, як працюють існуючі технології виведення зображення, і яке рішення пропонує нам компанія Nvidia у своїй технології G-Sync.

Недоліки виведення при відключеній синхронізації

Як ми вже згадували, абсолютна більшість гравців вважає за краще тримати синхронізацію вимкненої (V-Sync Off), щоб отримати відображення відмальованих графічним процесором кадрів на моніторі максимально оперативно та з мінімальною затримкою між дією гравця (натискання клавіш, команди від миші) та їх відображенням. Для серйозних гравців це необхідно для перемог, та й для звичайних у такому разі відчуття будуть приємнішими. Ось так робота з відключеним V-Sync виглядає схематично:

Проблем та затримок із виведенням кадрів немає. Але хоча відключена вертикальна синхронізація вирішує проблему лага наскільки це можливо, забезпечуючи мінімальну затримку, разом з цим з'являються артефакти на зображенні - розрив картинки, коли зображення на екрані складається з декількох шматків сусідніх кадрів, відмальованих графічним процесором. Також помітна і відсутність плавності відеоряду через нерівномірність кадрів, що надходять від GPU на екран - розривів зображення в різних місцях.

Ці розриви зображення виникають в результаті виведення картинки, що складається з двох з кадрів, відрендерованих на GPU за час одного циклу оновлення інформації на моніторі. З кількох – коли частота кадрів перевищує частоту оновлення монітора, і з двох – коли приблизно відповідає їй. Подивіться на діаграму, зображену вище - якщо вміст кадрового буфера оновлюється всередині між часом виведення інформації на монітор, то підсумкова картинка на ньому буде спотворена - частина інформації в такому випадку належить до попереднього кадру, а решта - до поточного малюється.

З відключеною синхронізацією кадри передаються на монітор абсолютно без огляду на частоту та час його оновлення, тому ніколи не співпадають із частотою оновлення монітора. Іншими словами, з відключеним V-Sync на моніторах без підтримки G-Sync завжди будуть спостерігатися такі розриви зображення.

Йдеться не тільки про те, що гравцеві неприємно спостерігати смуги, що смикаються по всьому екрану, але й про те, що одночасне відмальовування частин різних кадрів може дезінформувати мозок, що особливо помітно при динамічних об'єктах у кадрі - гравець бачить зрушені відносно один одного частини об'єктів. Мириться з цим доводиться лише тому, що відключення V-Sync забезпечує мінімальні затримки виведення на даний момент, але далеко не ідеальна якість динамічного зображення, як ви можете переконатися на наступних прикладах (на кліку доступні кадри в повній роздільній здатності):

На прикладах вище, знятих за допомогою програмно-апаратного комплексу FCAT, ви можете переконатися, що реальне зображення на екрані може бути складено зі шматків декількох сусідніх кадрів - причому іноді і нерівномірно, коли від одного з кадрів береться вузька смужка, а сусідні займають решту ( помітно більшу) частину екрана.

Ще наочніше проблеми з розривом зображення помітні в динаміці (якщо ваша система і/або браузер не підтримує програвання роликів MP4/H.264 у роздільній здатності 1920×1080 пікселів з частотою оновлення 60 FPS, то вам доведеться завантажити їх і переглянути локально відповідними можливостями):

Як бачите, навіть у динаміці легко помітні неприємні артефакти як розривів картинки. Давайте подивимося, як це виглядає схематично - на діаграмі, де показаний метод виведення при відключеної синхронізації. При цьому кадри надходять на монітор відразу після того, як роботу над їх рендерингом закінчує GPU, і зображення виводиться на дисплей навіть якщо виведення інформації з поточного кадру ще не закінчено повністю - частина буфера, що залишилася, припадає на наступне оновлення екрана. Саме тому кожен виведений на монітор кадр нашого прикладу складається з двох відмальованих на GPU кадрів – з розривом зображення у позначеному червоним кольором місці.

У цьому прикладі перший кадр (Draw 1) малюється графічним процесором в екранний буфер швидше, ніж його час оновлення 16,7 мс - і раніше, ніж зображення буде передано монітору (Scan 0/1). GPU відразу починає роботу над наступним кадром (Draw 2), який і розриває картинку на моніторі, що містить ще половину попереднього кадру.

В результаті у багатьох випадках на зображенні з'являється явно помітна смуга - межа між частковим відображенням сусідніх кадрів. Надалі цей процес повторюється, тому що GPU працює над кожним кадром різну кількість часу, і без синхронізації процесу кадри від GPU та виведені на монітор ніколи не співпадають.

Плюси та мінуси вертикальної синхронізації

При включенні традиційної вертикальної синхронізації (V-Sync On) інформація на моніторі оновлюється тільки тоді, коли робота над кадром повністю закінчена графічним процесором, що виключає розриви в зображенні, адже кадри виводяться на екран виключно повністю. Але, оскільки монітор оновлює вміст лише у певні проміжки часу (залежно від характеристик пристрою виведення), ця прив'язка приносить інші проблеми.

Більшість сучасних РК-моніторів оновлюють інформацію із частотою 60 Гц, тобто 60 разів на секунду – приблизно кожні 16 мілісекунд. І з увімкненою синхронізацією час виведення зображення жорстко прив'язаний до частоти оновлення монітора. Але, як ми знаємо, частота рендерингу кадрів на GPU завжди змінна, і час малювання кожного кадру відрізняється в залежності від складності 3D-сцени, що постійно змінюється, і налаштувань якості.

Воно не може бути завжди рівним 16,7 мс, а буде або менше цього значення або більше. При включеній синхронізації робота графічного процесора над кадрами знову завершується то раніше, то пізніше часу оновлення екрана. У випадку, якщо кадр був відмальований швидше за цей момент, то особливих проблем немає - візуальна інформація просто чекає часу оновлення монітора для виведення кадру на екран повністю, а GPU простоює. А ось якщо кадр не встигає відрендеритися за відведений час, то йому доводиться чекати наступного циклу оновлення зображення на моніторі, що викликає збільшення затримки між діями гравця та візуальним відображенням на екрані. При цьому на екран знову виводиться зображення попереднього "старого" кадру.

Хоча все це відбувається досить швидко, але збільшення затримки візуально легко помітне, і не тільки професійними гравцями. Оскільки час рендеринга кадрів завжди змінний, то включення прив'язки до частоти оновлення монітора викликає ривки при виведенні динамічного зображення, адже кадри виводяться то швидко (рівно частоті оновлення монітора), то вдвічі-втричі-вчетверо повільніше. Розглянемо схематичний приклад такої роботи:

На ілюстрації показано, як кадри виводяться на монітор при увімкненій вертикальній синхронізації (V-Sync On). Перший кадр (Draw 1) малюється графічним процесором швидше, ніж 16,7 мс, тому GPU не переходить до роботи над відображенням наступного кадру, і не розриває зображення, як у випадку V-Sync Off, а очікує на повне виведення першого кадру на монітор. І вже після цього починає малювати наступний кадр (Draw 2).

А ось робота над другим кадром (Draw 2) займає більше часу ніж 16,7 мс, тому після їх закінчення на екран виводиться візуальна інформація з попереднього кадру, і він показується на екрані ще 16,7 мс. І навіть після того, як GPU закінчує роботу над наступним кадром, він не виводиться на екран, оскільки монітор має фіксовану частоту оновлення. Загалом доводиться чекати 33,3 мс для виведення другого кадру, і весь цей час додається до затримки між дією гравця та закінченням виведення кадру на монітор.

До проблеми тимчасового лага додається ще й розрив у плавності відеоряду, помітний за смиканням 3D-анімації. Дуже наочно проблема показана у короткому відеоролику:

Адже навіть найпотужніші графічні процесори у вимогливих сучасних іграх не завжди можуть забезпечити досить високу частоту кадрів, що перевищує типову частоту оновлення моніторів 60 Гц. І, відповідно, не дадуть можливості комфортної гри із включеною синхронізацією та відсутністю проблем на кшталт розриву картинки. Особливо якщо мова про такі ігри, як мережна гра Battlefield 4, дуже вимогливі Far Cry 4 і Assassin Creed Unity у високих дозволах і максимальних ігрових налаштуваннях.

Тобто, вибір у сучасного гравця невеликий - або одержуй відсутність плавності та збільшені затримки, або задовольняйся неідеальною якістю картинки з розірваними шматками кадрів. Звичайно, насправді все виглядає далеко не так вже й погано, адже якось ми грали весь цей час, правда? Але в часи, коли намагаються досягти ідеалу і як і в комфорті, хочеться більшого. Тим більше, що РК-дисплеї мають принципову технологічну можливість виводити кадри тоді, коли на це вкаже графічний процесор. Справа за малим – зв'язати GPU та монітор, і таке рішення вже є – технологія Nvidia G-Sync.

Технологія G-Sync - вирішення проблем у виконанні Nvidia

Отже, більшість сучасних ігор у варіанті з вимкненою синхронізацією викликають розриви картинки, а з включеною – неплавну зміну кадрів та збільшені затримки. Навіть за високої частоти оновлення традиційні монітори не дозволяють позбутися цих проблем. Ймовірно, вибір між двома далеко не ідеальними варіантами виведення кадрів у 3D-додатках за багато років настільки набрид працівникам компанії Nvidia, що вони вирішили позбутися проблем, давши гравцям принципово новий підхід до оновлення інформації на дисплеї.

Різниця між технологією G-Sync і існуючими методами виведення зображення на дисплеї полягає в тому, що час і частота виведення кадрів у випадку варіанта Nvidia визначається графічним процесором Geforce, і вона динамічно змінюється, а не фіксованою, як це було раніше. Інакше кажучи, у разі повне управління виведенням кадрів бере він GPU - щойно він закінчує роботу над черговим кадром, він виводиться на монітор, без затримок і розривів зображення.

Використання такого зв'язку між графічним процесором та спеціальним чином адаптованою апаратною частиною монітора, дає гравцям найкращий методвисновку - просто ідеальний, з погляду якості, що позбавляє всіх зазначених вище проблем. G-Sync забезпечує ідеально плавну зміну кадрів на моніторі, без затримок, ривків і артефактів, викликаних саме виведенням візуальної інформації на екран.

Природно, G-Sync працює не чарівним чином, і для роботи технології з боку монітора потрібно додати спеціальну апаратну логіку у вигляді невеликої плати, яку поставляє Nvidia.

Компанія працює з виробниками моніторів, щоб ті включили плати G-Sync до їх моделей ігрових дисплеїв. Для деяких моделей є навіть варіант апгрейду руками самого користувача, але такий варіант дорожчий та й не має сенсу, адже простіше відразу купити G-Sync-монітор. Від ПК досить присутності в його конфігурації будь-якої з сучасних відеокарт Nvidia Geforce, та й встановленого G-Sync-оптимізованого відеодрайвера - підійде кожна з нових версій.

При задіянні технології Nvidia G-Sync, після закінчення обробки чергового кадру 3D-сцени, графічний процесор Geforce посилає спеціальний сигнал у платі контролера G-Sync, вбудовану в монітор, а та вказує монітору, коли потрібно оновити зображення на екрані. Це дозволяє досягти просто ідеальної плавності та чуйності при грі на ПК - ви можете переконатися в цьому, переглянувши коротенький відеоролик (обов'язково при 60 кадрах на секунду!):

Давайте подивимося, як виглядає робота конфігурації з увімкненою технологією G-Sync, за нашою схемою:

Як бачите, все дуже просто. Увімкнення G-Sync прив'язує частоту оновлення монітора до закінчення візуалізації кожного кадру на графічному процесорі. GPU повністю контролює роботу: як тільки він закінчує прорахунок кадру, зображення відразу виводиться на G-Sync-сумісний монітор, і в результаті виходить не фіксована частота оновлення дисплея, а змінна - як частота кадрів GPU. Це усуває проблеми з розривом зображення (адже воно завжди містить інформацію з одного кадру), мінімізує ривки у частоті кадрів (монітор не чекає більше часу, ніж кадр фізично обробляється на GPU) та знижує затримки виводу щодо методу із включеною вертикальною синхронізацією.

Треба сказати, що такого рішення гравцям явно не вистачало, новий метод синхронізації GPU та монітора Nvidia G-Sync реально дуже сильно позначається на комфорті гри на ПК - з'являється та сама майже ідеальна плавність, якої не було досі - в наш час надпотужних відеокарт! З моменту анонсу технології G-Sync, старі методи миттєво стали анахронізмом і апгрейд до G-Sync-монітора, здатного на змінну частоту оновлення до 144 Гц, здається дуже привабливим варіантом, що дозволяє нарешті позбавитися проблем, лагів і артефактів.

Чи є у G-Sync недоліки? Звичайно, як і будь-яка технологія. Наприклад, у G-Sync є неприємне обмеження, яке полягає в тому, що вона забезпечує плавне виведення кадрів на екран при частоті від 30 FPS. А вибрана частота оновлення монітора в режимі G-Sync встановлює верхню планку швидкості оновлення вмісту екрана. Тобто, при виставленій частоті оновлення 60 Гц максимальна плавність забезпечуватиметься на частоті 30-60 FPS, а за 144 Гц - від 30 до 144 FPS, але не менше нижньої межі. І при змінній частоті (наприклад, від 20 до 40 FPS), результат вже не буде ідеальним, хоча й помітно краще за традиційний V-Sync.

Але найголовнішим недоліком G-Sync є те, що це – власна технологія компанії Nvidia, до якої немає доступу у конкурентів. Тому, на початку року, що минає, компанія AMD анонсувала аналогічну технологію FreeSync - також полягає в динамічній зміні кадрової частоти монітора відповідно до підготовки кадрів від GPU. Важлива відмінністьв тому, що розробка AMD відкрита і не вимагає додаткових апаратних рішень у вигляді спеціалізованих моніторів, так як FreeSync перетворилася на Adaptive-Sync, що стала опціональною частиною стандарту DisplayPort 1.2a від відомої організації VESA (Video Electronics Standards Association). Виходить, що компанія AMD вміло скористається розробленою конкурентом темою собі на благо, тому що без появи та популяризації G-Sync ніякого FreeSync би у них не було, як нам здається.

Цікаво, що технологія Adaptive-Sync також є частиною стандарту VESA embedded DisplayPort (eDP), і вже застосовується в багатьох компонентах для дисплеїв, в яких використовується eDP для передачі сигналу. Ще одна відмінність від G-Sync - учасники VESA можуть використовувати Adaptive-Sync без необхідності оплати. Втім, ймовірно, що Nvidia в майбутньому також буде підтримувати і Adaptive-Sync, як частина стандарту DisplayPort 1.2a, адже така підтримка не вимагатиме від них особливих зусиль. Але й від G-Sync компанія не відмовиться, оскільки вважає за пріоритетні власні рішення.

Перші монітори з підтримкою Adaptive-Sync повинні з'явитися в першому кварталі 2015 року, вони матимуть не тільки порти DisplayPort 1.2a, а й спеціальну підтримку Adaptive-Sync (не всі монітори з підтримкою DisplayPort 1.2a зможуть цим похвалитися). Так, компанія Samsung у березні 2015 року планує вивести на ринок лінійки моніторів Samsung UD590 (23,6 та 28 дюймів) та UE850 (23,6, 27 та 31,5 дюймів) з підтримкою дозволу UltraHD та технології Adaptive-Sync. Компанія AMD запевняє, що монітори з підтримкою цієї технології будуть до $100 дешевшими за аналогічні пристрої з підтримкою G-Sync, але їх складно порівнювати, тому що всі монітори різні і виходять у різний час. До того ж, на ринку вже є і не такі вже й дорогі G-Sync-моделі.

Наочна різниця та суб'єктивні враження

Вище ми описали теорію, а тепер настав час показати все наочно та описати свої відчуття. Ми протестували технологію Nvidia G-Sync на практиці в декількох 3D-додатках, використовуючи відеокарту Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra та монітор Asus PG278Q, що підтримує технологію G-Sync. На ринку продається кілька моделей моніторів з підтримкою G-Sync від різних виробників: Asus, Acer, BenQ, AOC та інших, а для монітора моделі Asus VG248QE можна навіть купити набір для модернізації його підтримки G-Sync власними силами.

Наймолодшою ​​моделлю відеокарти для використання технології G-Sync є Geforce GTX 650 Ti, з винятково важливою вимогою роз'єму DisplayPort на борту. З інших системних вимог зазначимо операційну систему як мінімум Microsoft Windows 7, застосування хорошого кабелю DisplayPort 1.2, а також рекомендується використання якісної миші з високою чутливістю та частотою опитування. Технологія G-Sync працює з усіма повноекранними 3D-програмами, що використовують графічні API OpenGL і Direct3D при запуску в операційних системах Windows 7 і 8.1.

Для роботи підійде будь-який сучасний драйвер, який G-Sync вже більше року підтримується всіма драйверами компанії. За наявності всіх необхідних компонентів, потрібно лише включити G-Sync у драйверах, якщо це ще не зроблено, і технологія буде працювати у всіх повноекранних програмах - і тільки в них, виходячи із самого принципу роботи технології.

Щоб увімкнути технологію G-Sync для повноекранних програм і отримати максимально комфортний результат, потрібно включити частоту оновлення 144 Гц на панелі керування Nvidia або налаштуваннях робочого столу операційної системи. Потім, переконайтеся, що використання технології дозволено на відповідній сторінці «Налаштування G-Sync».

А також - вибрати відповідний пункт на сторінці "Керування параметрами 3D" у параметрі "Вертикальний синхроімпульс" глобальних параметрів 3D. Там же можна і відключити використання технології G-Sync у тестових цілях або при появі будь-яких проблем (забігаючи вперед - за час нашого тестування нами не було виявлено).

Технологія G-Sync працює на всіх дозволах, що підтримуються моніторами, аж до UltraHD, але в нашому випадку ми використовували рідну роздільну здатність 2560×1440 пікселів при 144 Гц. У своїх порівняннях з поточним станом справ використовувався режим із частотою оновлення 60 Гц і відключеною технологією G-Sync, щоб емулювати поведінку типових моніторів без підтримки цієї технології, присутніх у більшості гравців. Більшість з яких використовує Full HD-монітори, що здатні максимум режим на 60 Гц.

Обов'язково треба згадати, що хоча при включеному G-Sync оновлення екрану буде на ідеальній частоті - коли цього "хоче" графічний процесор, оптимальним режимом все ж таки буде рендеринг з частотою кадрів порядку 40-60 FPS - це найбільш підходяща частота кадрів для сучасних ігор, не надто маленька, щоб упертись у нижню межу 30 FPS, але й не потребує зниження налаштувань. До речі, саме такої частоти прагнуть у програмі Geforce Experience компанії Nvidia, надаючи відповідні налаштування для популярних ігор в однойменному ПЗ, що додається в комплекті з драйверами.

Крім ігор, ми також випробували і спеціалізований тестовий додаток від Nvidia. Ця програма показує зручну для оцінки плавності та якості 3D-сцену з маятником, дозволяє імітувати різну частоту кадрів та вибирати режим відображення: V-Sync Off/On та G-Sync. За допомогою даного тестового програмного забезпечення дуже легко показати різницю між різними режимами синхронізації - наприклад, між V-Sync On і G-Sync:

Програма Pendulum Demo дозволяє протестувати різні способи синхронізації в різних умовах, вона імітує точну частоту кадрів 60 FPS для порівняння V-Sync та G-Sync в ідеальних для застарілого способу синхронізації умовах - у цьому режимі різниці між методами просто не повинно бути. А ось режим 40-50 FPS ставить V-Sync On у незручне положення, коли затримки та неплавна зміна кадрів видно неозброєним поглядом, оскільки час рендерингу кадру перевищує період оновлення при 60 Гц. При включенні G-Sync все стає ідеально.

Що стосується порівняння режимів з відключеною V-Sync і включеним G-Sync, то і тут додаток Nvidia також допомагає побачити різницю - при частотах кадрів між 40 і 60 FPS розриви зображення видно чітко, хоча лагів менше, ніж при V-Sync On. І навіть неплавний відеоряд щодо G-Sync режиму помітний, хоча теоретично цього не повинно бути - можливо, так позначається сприйняття мозком «розірваних» кадрів.

Ну а з увімкненим G-Sync будь-який з режимів тестової програми (постійна частота кадрів або змінна - не важливо) завжди забезпечується максимально плавний відеоряд. Та й в іграх всі проблеми традиційного підходу до оновлення інформації на моніторі з фіксованою частотою оновлення часом помітні мало не ще сильніше - в даному випадку ви можете наочно оцінити різницю між усіма трьома режимами на прикладі гри StarCraft II (перегляд раніше збереженого запису):

Якщо ваша система та браузер підтримує програвання формату відео даних MP4/H.264 з частотою 60 FPS, то ви наочно побачите, що в режимі відключеної синхронізації помітні явні розриви картинки, при включенні V-Sync спостерігаються ривки та неплавність відеоряду. Все це пропадає при включенні Nvidia G-Sync, при якій немає ні артефактів на зображенні, ні збільшення затримок, ні рваного темпу зміни кадрів.

Звичайно ж, G-Sync - це не чарівна паличка, і від затримок та пригальмовувань, викликаних не самим процесом виведення кадрів на монітор з фіксованою частотою оновлення, ця технологія не позбавить. Якщо в самій грі є проблеми з плавністю виведення кадрів і великі ривки в FPS, викликані завантаженням текстур, обробкою даних на CPU, неоптимальною роботою з відеопам'яттю, відсутністю оптимізації коду і т.д., то вони залишаться на місці. Більше того, вони стануть помітні навіть ще сильніше, тому що виведення інших кадрів буде ідеально плавним. Втім, на практиці на потужних системах проблеми зустрічається не надто часто, і G-Sync реально покращує сприйняття динамічного відеоряду.

Так як нова технологія виведення Nvidia впливає на весь конвеєр виводу, то вона теоретично може викликати артефакти та нерівномірність у частоті кадрів, особливо якщо гра штучно обмежує FPS на будь-якій позначці. Мабуть, такі випадки якщо й є, то настільки рідкісні, що ми їх навіть не помітили. Зате відзначили явне покращення комфорту при грі - при грі за монітором із задіяною технологією G-Sync складається таке враження, що ПК став настільки потужнішим, що здатний до постійної частоти кадрів не менше 60 FPS без будь-яких просадок.

Отримані під час гри G-Sync монітором відчуття дуже складно описати словами. Особливо помітна різниця при 40-60 FPS - частоті кадрів, що дуже часто зустрічається у вимогливих сучасних іграх. Різниця в порівнянні зі звичайними моніторами просто приголомшлива, і ми постараємося не тільки розповісти це словами та показати у відеоприкладах, але й показати графіки частоти кадрів, отримані за різних режимів виведення зображення на дисплей.

В іграх таких жанрів, як стратегії реального часу і подібних, на зразок StarCraft II, League of Legends, DotA 2 і т.д., переваги технології G-Sync відмінно видно, як можна переконатися за прикладом з відеоролика вище. Крім цього, такі ігри завжди вимагають стрімких дій, що не терплять затримок та неплавності в частоті кадрів, а плавний скролінг відіграє досить важливу роль у комфорті, якому сильно заважають розриви картинки при V-Sync Off, затримки та лаги при V-Sync On. Так що технологія G-Sync ідеально підійде для ігор такого типу.

Ще більше поширені шутери від першої особи, на зразок Crysis 3 і Far Cry 4, вони заодно є і дуже вимогливими до обчислювальних ресурсів, і при високих налаштуваннях якості гравці в них часто отримують частоту кадрів близько 30-60 FPS - ідеальний варіант для застосування G-Sync, що реально значно покращує комфорт при грі в таких умовах. Традиційний метод вертикальної синхронізації дуже часто змусить виводити кадри з частотою всього лише 30 FPS, збільшуючи лаги і ривки.

Приблизно те саме стосується ігор з видом від третьої особи, на зразок серіалів Batman, Assassin Creed і Tomb Raider. Ці ігри також використовують новітні графічні технології та вимагають досить потужних GPU для досягнення високої частоти кадрів. При максимальних налаштуванняху цих іграх та відключенні V-Sync часто виходить FPS порядку 30-90, що викликає неприємні розриви картинки. Увімкнення V-Sync допомагає лише в деяких сценах з меншими вимогами до ресурсів, а частота кадрів скаче від 30 до 60 східчасто, що спричиняє уповільнення та ривки. А включення G-Sync вирішує всі ці проблеми, і це добре помітно на практиці.

Результати практичних тестів

У цьому розділі ми розглянемо вплив G-Sync і V-Sync на частоту кадрів - за графіками продуктивності можна зрозуміти, як працюють різні технології. За час тестування ми перевірили кілька ігор, але далеко не всіма зручно показати різницю між V-Sync та G-Sync – деякі ігрові бенчмарки не дозволяють форсувати V-Sync, інші ігри не мають зручного засобу з програвання точної ігрової послідовності (більшість сучасних ігор, на жаль), треті виконуються на нашій тестовій системі або надто швидко або у вузьких межах частоти кадрів.

Так що ми зупинилися на грі Just Cause 2 з максимальними налаштуваннями, а також парою бенчмарків: Unigine Heaven та Unigine Valley - також при максимальних налаштуваннях якості. Частота кадрів у цих додатках змінюється у досить широких межах, що зручно для нашої мети – показати, що відбувається з виведенням кадрів у різних умовах.

На жаль, на даний момент у нас немає програмно-апаратної системи FCAT, і ми не зможемо показати графіки реального FPS і записані відеоролики в різних режимах. Натомість ми провели тестування щосекундної усередненої та миттєвої частоти кадрів за допомогою відомої утиліти при частоті оновлення монітора 60 і 120 Гц з використанням методів оновлення екрана V-Sync On, V-Sync Off, з використанням адаптивної синхронізації Adaptive V-Sync, а також з технологією G-Sync при 144 Гц, щоб показати наочну різницю між новою технологією та нинішніми 60 Гц моніторами з традиційною вертикальною синхронізацією.

G-Sync проти V-Sync On

Почнемо ми наше дослідження з порівняння режимів із включеною вертикальною синхронізацією (V-Sync On) та технологією G-Sync - це найбільш показове порівняння, в якому буде видно різницю між методами, що не мають недоліків у вигляді розриву зображення. Першим ми розглянемо тестовий додаток Heaven при максимальних налаштуваннях якості в роздільній здатності 2560×1440 пікселів (на кліку на зменшених картинках відкриваються графіки в повній роздільній здатності):

Як видно з графіки, частота кадрів при включеному G-Sync і за відсутності синхронізації практично збігається, крім частоти вище 60 FPS. А ось FPS в режимі з увімкненим методом вертикальної синхронізації помітно відрізняється, адже в ньому частота кадрів може бути нижчою або рівною 60 FPS і кратною цілим числам: 1, 2, 3, 4, 5, 6..., тому що монітору іноді доводиться показувати той самий попередній кадр по кілька періодів оновлення (два, три, чотири і так далі). Тобто, можливі «ступені» значення частоти кадрів за V-Sync On і 60 Гц: 60, 30, 20, 15, 12, 10, ... FPS.

Ця ступінчастість відмінно видно по червоній лінії графіка - під час прогону даного тесту, частота кадрів часто дорівнювала 20 або 30 FPS, і значно рідше - 60 FPS. Хоча за G-Sync та V-Sync Off (No Sync) вона часто знаходилася в ширших межах: 35–50 FPS. При увімкненому режимі V-Sync така частота виведення неможлива, тому монітор показує у таких випадках завжди 30 FPS - обмежуючи продуктивність та додаючи затримки до загального часу виведення.

Треба відзначити, що на графіці вище показана не миттєва частота кадрів, а усереднені значення в межах секунди, а насправді FPS може «стрибати» куди сильніше – чи не кожен кадр, що і викликає неприємну неплавність та лаги. Для того, щоб побачити це наочно, наведемо пару графіків з миттєвим FPS – точніше, з графіками часу рендерингу кожного кадру у мілісекундах. Перший приклад (лінії дещо зсунуті щодо один одного, показано лише зразкову поведінку в кожному режимі):

Як бачите, у цьому прикладі частота кадрів у разі G-Sync змінюється більш-менш плавно, а з V-Sync On - східчасто (поодинокі стрибки часу рендерингу є в обох випадках - це нормально). Для включеної вертикальної синхронізації час рендерингу та виведення кадру може бути 16,7 мс; 33,3 мс; 50 мс, що видно на графіку. У цифрах FPS це відповідає 60, 30 та 20 кадрам за секунду. Крім цього, особливої ​​різниці між поведінкою двох ліній немає, піки є в обох випадках. Розглянемо ще один показовий відрізок часу:

У цьому випадку очевидні «метанія» часу рендерингу кадрів, а разом з ними і FPS у випадку з включеною вертикальною синхронізацією. Подивіться, при V-Sync On спостерігається стрибкоподібна зміна часу рендерингу кадру від 16,7 мс (60 FPS) до 33,3 мс (30 FPS) і назад - насправді це викликає ту саму некомфортну неплавність і видимі ривки відеоряду. Плавність зміни кадрів у разі G-Sync куди вища і грати в такому режимі буде помітно комфортніше.

Розглянемо графік FPS у другому тестовому додатку - Unigine Valley:

У цьому бенчмарку ми відзначаємо приблизно те саме, що і в Heaven. Частота кадрів у режимах G-Sync і V-Sync Off майже збігається (крім піку вище 60 Гц), а включений V-Sync викликає явно ступінчасту зміну FPS, найчастіше показуючи 30 FPS, іноді скочуючи до 20 FPS і підвищуючись до 60 FPS. Типова поведінка цього методу, що викликає лаги, ривки та неплавність відеоряду.

У цьому підрозділі нам залишилося розглянути відрізок із вбудованого тесту гри Just Cause 2:

Ця гра добре показує всю неповноцінність застарілого способу синхронізації V-Sync On! При частоті кадрів, що змінюється, від 40 до 60-70 FPS, лінії G-Sync і V-Sync Off майже збігаються, а ось частота кадрів при V-Sync On доходить до 60 FPS лише на відрізках малої тривалості. Тобто за реальних можливостей GPU для гри на 40-55 FPS гравець буде задовольнятися лише 30 FPS.

Більш того, на ділянці графіка, де червона лінія стрибає від 30 до 40 FPS, насправді при перегляді зображення спостерігається явна неплавність частоти кадрів - вона стрибає від 60 до 30 чи не кожен кадр, що явно не додає плавності та комфорту під час гри. Але чи може бути з частотою оновлення кадрів 120 Гц вертикальна синхронізація впорається краще?

G-Sync проти V-Sync 60/120 Гц

Розглянемо два режими включеної вертикальної синхронізації V-Sync On при 60 і 120 Гц частоті оновлення зображення, порівнявши їх із режимом V-Sync Off (як ми визначили раніше, ця лінія практично ідентична з G-Sync). При частоті оновлення 120 Гц до вже відомих нам «ступеням» FPS додається більше значень: 120, 40, 24, 17 FPS тощо, що може зробити графік менш ступінчастим. Подивимося на частоту кадрів у бенчмарку Heaven:

Помітно, що частота оновлення 120 Гц допомагає режиму V-Sync On досягти кращої продуктивності та більш плавної зміни частоти кадрів. У випадках, коли за 60 Гц на графіку спостерігається 20 FPS, 120 Гц режим дає проміжне значення хоча б 24 FPS. І 40 FPS замість 30 FPS на графіку явно помітні. Але сходинок стало не менше, а навіть більше, так що частота кадрів при 120 Гц оновлення хоч і змінюється на меншу величину, зате робить це частіше, що також несприятливо позначається на загальній плавності.

У бенчмарку Valley змін менше, тому що середня частота кадрів найближча до рівня 30 FPS, доступної для обох режимів: з частотою оновлення 60 і 120 Гц. Вимкнена синхронізація забезпечує більш плавну зміну кадрів, але з візуальними артефактами, а режими V-Sync On знову показують ступінчасті лінії. У цьому підрозділі нам залишилося переглянути гру Just Cause 2.

І знову ми наочно бачимо, як ущербна вертикальна синхронізація, що не забезпечує плавної зміни кадрів. Навіть перехід на 120 Гц частоту оновлення дає режиму V-Sync On просто лише кілька додаткових «сходинок» FPS - стрибки частоти кадрів туди-сюди від одного ступеня до іншого нікуди не поділися - все це дуже неприємно відчувається при перегляді анімованих 3D-сцен, можете повірити нам на слово або знову переглянути приклади відеороликів вище.

Вплив методу виведення на середню частоту кадрів

А що виходить із середньою частотою кадрів при включенні всіх цих режимів синхронізації, як впливає на середню продуктивність включення V-Sync та G-Sync? Приблизно прикинути втрати швидкості можна навіть за графіками FPS, наведеними вище, але ми наведемо і середні значення частоти кадрів, отримані нами під час тестування. Першою знову буде Unigine Heaven:

Показники в режимах Adaptive V-Sync та V-Sync Off практично збігаються – адже вище 60 FPS швидкість майже не підвищується. Логічно, що включення V-Sync призводить до зниження середньої частоти кадрів, так як в цьому режимі використовуються ступінчасті показники FPS. При 60 Гц падіння середньої частоти кадрів становило понад чверть, а включення 120 Гц повернуло лише половину втрат у середньому FPS.

Найцікавіше для нас – наскільки знижується середня частота кадрів у режимі G-Sync. З якоїсь причини швидкість вище 60 FPS ріжеться, хоча на моніторі був виставлений режим 144 Гц, тому і швидкість при включенні G-Sync виявилася трохи нижче режиму з відключеною синхронізацією. В цілому можна вважати, що втрат немає зовсім, і їх точно не можна порівняти з недоліком швидкості при V-Sync On. Розглянемо другий бенчмарк – Valley.

У цьому випадку падіння середньої швидкості рендерингу в режимах з увімкненим V-Sync знизилося, так як частота кадрів весь час тесту була близька до значення 30 FPS - одного з "ступенів" частоти для V-Sync в обох режимах: 60 і 120 Гц. Ну і зі зрозумілих причин втрати у другому випадку виявилися трохи нижчими.

При включенні G-Sync середня частота кадрів знову вийшла меншою за ту, що зазначена в режимі відключеної синхронізації, все з тієї ж причини - включення G-Sync «зарізало» значення FPS вище 60. Але різниця невелика, і новий режим Nvidia забезпечує помітно більшу швидкість , ніж при увімкненій вертикальній синхронізації. Подивимося останню діаграму – середньої частоти кадрів у грі Just Cause 2:

У разі цієї гри режим V-Sync On постраждав значно сильніше, ніж у тестових додатках на двигуні Unigine. Середня частота кадрів у цьому режимі при 60 Гц більш ніж у півтора рази нижче, ніж за відключеної синхронізації зовсім! Включення частоти оновлення 120 Гц сильно покращує положення, але все ж таки G-Sync дозволяє досягти помітно більшої продуктивності навіть у середніх цифрах FPS, не кажучи вже про комфортність гри, яку тепер не оцінити одними лише цифрами - треба дивитися на власні очі.

Отже, у цьому розділі ми з'ясували, що технологія G-Sync забезпечує частоту кадрів, наближену до режиму з відключеною синхронізацією, і її включення майже не впливає на продуктивність. На відміну від вертикальної синхронізації V-Sync, при включенні якої частота кадрів змінюється ступінчасто, а найчастіше спостерігаються стрибки від одного ступеня до іншого, що викликає неплавні рухи при виведенні анімованого ряду кадрів і згубно впливає на комфорт у 3D-іграх.

Іншими словами, і наші суб'єктивні враження та тестові результати говорять про те, що технологія G-Sync від компанії Nvidia дійсно змінює візуальний комфорт від 3D-ігор на краще. Новий метод позбавлений як графічних артефактів у вигляді розривів картинки, що складається з кількох сусідніх кадрів, як ми бачимо в режимі з відключеним V-Sync, так не спостерігається і проблем із плавністю виведення кадрів на монітор та збільшенням затримок виведення, як у режимі V-Sync On.

Висновок

При всіх складностях об'єктивного виміру плавності відеовиводу спочатку хочеться висловити суб'єктивну оцінку. Ми були дуже вражені комфортністю гри на Nvidia Geforce та моніторі з підтримкою G-Sync від компанії Asus. Навіть разова «жива» демонстрація G-Sync справді справляє сильне враження плавністю зміни кадрів, а після тривалої спроби цієї технології, продовжувати грати на моніторі зі старими методами виведення зображення на екран стає дуже сумно.

Мабуть, G-Sync можна вважати найбільшою зміною в процесі виведення візуальної інформації на екран за тривалий час - нарешті ми побачили щось дійсно нове у зв'язку дисплеїв та графічних процесорів, що безпосередньо впливає на комфортність сприйняття 3D-графіки та ще й і так помітно. А до анонсу технології G-Sync компанією Nvidia ми протягом довгих років були прив'язані до застарілих стандартів виведення зображення, що ведуть своє коріння від вимог ТВ- та кіноіндустрії.

Звичайно, хотілося б отримати подібні можливості ще раніше, але і зараз час для її впровадження непоганий, так як у багатьох вимогливих 3D-іграх при максимальних налаштуваннях сучасні топові відеокарти забезпечують таку частоту кадрів, при якій переваги від включення G-Sync стають максимальними. І до появи технології від Nvidia досягнутий в іграх реалізм просто «вбивався» далеко не найкращими способами оновлення картинки на моніторі, що викликають розриви зображення, збільшені затримки та ривки у частоті кадрів. Технологія G-Sync дозволяє позбутися зазначених проблем, прирівнявши частоту виведення кадрів на екран до швидкості рендерингу графічного процесора (хоч і з деякими обмеженнями) - цим процесом тепер управляє сам GPU.

Ми не зустрічали жодної людини, яка спробувала G-Sync у роботі і залишилася незадоволеною цією технологією. Відгуки перших щасливців, які протестували роботу технології на заході Nvidia восени минулого року, були захоплені. Підтримали журналістів зі спеціалізованої преси та ігрові розробники (John Carmack, Tim Sweeney та Johan Andersson) – вони також дали виключно позитивні відгуки новому методу виведення. До яких тепер приєднуємося і ми – після кількох днів використання монітора з G-Sync, на старі пристрої з давно застарілими методами синхронізації повертатися не хочеться. Ах, якби вибір моніторів з G-Sync був більшим, і не були б вони оснащені виключно TN-матрицями.

Ну а з мінусів технології від Nvidia ми можемо відзначити те, що вона працює при частоті кадрів не менше 30 FPS, що можна вважати прикрим недоліком - було б краще, якби і за 20-25 FPS зображення виводилося б чітко після його підготовки на GPU . Але головний мінус технології в тому, що G-Sync – власне рішення компанії, яке не застосовується іншими виробниками графічних процесорів: AMD та Intel. Зрозуміти Nvidia теж можна, адже вони витратили ресурси на розробку та впровадження технології та домовлялися з виробниками моніторів про її підтримку саме з бажанням заробити. Власне, вони в черговий раз виступили двигуном технічного прогресу, незважаючи на жадібність компанії, що здається багатьом, до прибутку. Відкриємо великий «секрет»: прибуток є головною метою будь-якої комерційної компанії, і Nvidia – не виняток.

І все ж таки, майбутнє швидше за більш універсальними відкритими стандартами, аналогічними G-Sync по суті, на зразок Adaptive-Sync - опціональної можливості в рамках DisplayPort 1.2a. Але появи та розповсюдження моніторів з такою підтримкою доведеться почекати ще якийсь час – десь до середини наступного року, а G-Sync-монітори від різних компаній (Asus, Acer, BenQ, AOC та інші) вже продаються протягом кількох місяців , хоч і не дуже дешево. Ніщо не заважає Nvidia в майбутньому підтримати навіть Adaptive-Sync, хоча офіційно вони з цієї теми коментарів не давали. Сподіватимемося, що у шанувальників Geforce не тільки зараз є робоче рішення у вигляді G-Sync, а й у майбутньому з'явиться можливість використовувати динамічну частоту оновлення ще й у рамках загальноприйнятого стандарту.

Серед інших недоліків технології Nvidia G-Sync для користувачів відзначимо те, що її підтримка з боку монітора коштує виробнику суму, яка виливається і у збільшення роздрібної ціни щодо стандартних моніторів. Втім, серед G-Sync-моніторів є моделі різної вартості, у тому числі й не надто дорогі. Головне, що вони вже продаються, і кожен гравець може отримати максимум комфорту при грі прямо зараз, і поки що лише при використанні відеокарт Nvidia Geforce – за цю технологію компанія ручається.

Інструкція

Щоб виправити цей параметр, відкрийте меню вашої гри, знайдіть меню «Опції» або «Параметри», у підпункті «Відео» шукайте пункт «Вертикальна» (Vertical Sync). Якщо меню англомовне та текстові опції, тоді шукайте положення перемикача Disabled або «Вимкнено». Після цього натисніть кнопку «Застосувати» або Apply, щоб зберегти цей параметр. Зміни набувають чинності після перезапуску гри.

Інший випадок, якщо програма не має такого параметра. Тоді налаштовувати синхронізацію доведеться через драйвер відеокарти. Налаштування відрізняється для відеокарт виробництва AMD Radeonабо nVidia Geforce.

Якщо відеокарта належить до сімейства Geforce, натисніть правою кнопкою на робочому столі та виберіть пункт меню «Панель управління nVidia». Інший варіант – відкрийте панель управління через меню «Пуск», там буде іконка запуску з тією самою назвою. Якщо ні в панелі керування, ні в меню робочого столу ви не знайшли потрібну іконку, подивіться біля годинника в правому кутку екрана, там буде зелений значок nVidia, схожий на око - двічі клацніть на ньому. За підсумком відкриється меню опцій відеокарти.

Вікно панелі керування драйвера складається з двох частин, у лівій частині знаходяться категорії дій, а у правій – можливі варіанти та інформація. Виберіть у лівій частині нижній рядок «Керування параметрами 3D». У правій частині вікна, на закладці «Глобальні параметри», знайдіть у верхній частині списку опцію «Вертикальний синхроімпульс». Навпаки буде вказано поточне налаштування: "Увімкнути", "Вимкнути" або "Налаштування програми". Виберіть зі списку варіант «Вимкнути» і підтвердіть свій вибір, натиснувши кнопку «Застосувати».

У власників відеокарт AMD Radeon налаштування драйвера здійснюється через спеціальний додаток Catalyst. Щоб його запустити, натисніть правою кнопкою на робочому столі та виберіть Catalyst Control Center. Або відкрийте панель керування комп'ютером і знайдіть значок з тією самою назвою. Третій спосіб - у системної областіекрану біля годинника, в правому нижньому кутку, шукайте червоний круглий символ і двічі клацайте мишею на ньому. Результат усіх цих дій однаковий - відкриється центр керування настройками відеокарти.

Принцип той же, що в панелі управління nVidia. У лівій частині вікна будуть категорії налаштувань, а в правій – докладні налаштування та підказки до них. Виберіть "Ігри" або Gaming у лівій колонці, а потім підменю "Установки 3D-програми". У правій частині з'являться пункти параметрів різних параметрів відеокарти. Прокрутіть сторінку нижче і знайдіть напис "Чекати на вертикальне оновлення", а під ним повзунок перемикача з чотирма позначками. Пересуньте повзунок у крайнє ліве положення, нижче буде напис «Завжди вимкнено». Натисніть кнопку «Застосувати» у нижньому правому куті вікна, щоб зберегти зміни.

Огляд технології G-Sync Коротка історія фіксованої частоти оновлення

Давним-давно монітори були громіздкими та містили електронно-променеві трубки та електронні гармати. Електронні гармати бомбардують екран фотонами для освітлення кольорових люмінофорних точок, які ми називаємо пікселями. Вони промальовують зліва направо кожен "скануючий" рядок від верхнього до нижнього. Регулювання швидкості електронної гармати від одного повного оновлення до наступного не дуже практикувалося раніше, та й особливої ​​потреби до появи тривимірних ігор у цьому не було. Тому ЕПТ та пов'язані з ними аналогові стандарти відео були розроблені з фіксованою частотою оновлення.

РК-монітори поступово замінили ЕПТ, а цифрові роз'єми (DVI, HDMI та DisplayPort) замінили аналогові (VGA). Але асоціації, які відповідають за стандартизацію відеосигналів (на чолі з VESA), не перейшли з фіксованої частоти оновлення. Кіно і телебачення, як і раніше, спираються на вхідний сигнал з постійною частотою кадрів. І знову перехід на регульовану частоту оновлення не здається таким необхідним.

Регульовані частоти кадрів та фіксовані частоти оновлення не співпадають

До появи сучасної 3D-графіки фіксована частота оновлення проблемою для дисплеїв не була. Але вона виникла, коли ми вперше зіткнулися з потужними графічними процесорами: частота, на якій GPU візуалізував окремі кадри (що ми називаємо частотою кадрів, що зазвичай виражається у FPS або кадрах за секунду), непостійна. Вона змінюється з часом. У важких графічних сценах картка може забезпечувати 30 FPS, а якщо дивитися на пусте небо – 60 FPS.


Вимкнення синхронізації призводить до розривів

Виходить, що змінна частота кадрів графічного процесора та фіксована частота оновлення РК-панелі разом працюють не дуже добре. У такій конфігурації ми стикаємося із графічним артефактом під назвою "розрив". Він з'являється, коли два і більше неповні кадри візуалізуються разом протягом одного циклу оновлення монітора. Зазвичай вони зміщуються, що дає неприємний ефект під час руху.

На зображенні вище показані два добре відомі артефакти, які часто зустрічаються, але їх важко зафіксувати. Оскільки це артефакти дисплея, на звичайних ігрових скріншотах ви такого не побачите, проте наші знімки показують, що насправді ви бачите під час гри. Щоб зняти їх, потрібна камера з високошвидкісним режимом зйомки. Або якщо у вас є картка з підтримкою відеозахоплення, ви можете записати несжатий поток відео з порту DVI і чітко побачити перехід від одного кадру до іншого; саме цей спосіб ми використовуємо для тестів FCAT. Однак найкраще спостерігати описаний ефект на власні очі.

Ефект розриву видно на обох зображеннях. Верхнє зроблено за допомогою камери, нижнє – через функцію відеозахоплення. Нижня картинка "розрізана" по горизонталі і виглядає зміщеною. На верхніх двох зображеннях лівий знімок зроблено на екрані Sharp із частотою оновлення 60 Гц, правий – на дисплеї Asus із частотою 120 Гц. Розрив на 120-герцевому дисплеї виражений не так сильно, оскільки частота оновлення вдвічі вища. Проте ефект видно, і проявляється так само, як і на лівому зображенні. Артефакт такого типу – явна ознака того, що зображення були зроблені за відключеної вертикальної синхронізації (V-sync).


Battlefield 4 на GeForce GTX 770 з відключеною V-sync

Другий ефект, який видно на знімках BioShock: Infinite, називається двоїнням (ghosting). Він особливо добре видно у нижній частині лівого знімка і пов'язаний із затримкою оновлення екрана. Якщо коротко, то окремі пікселі мало швидко змінюють колір, що призводить до світіння такого типу. Окремо взятий кадр неспроможна передати, який ефект двоїння на саму гру. Панель з часом відгуку від сірого до сірого 8 мс, така як Sharp, даватиме в результаті розмите зображення при будь-якому русі на екрані. Ось чому ці дисплеї зазвичай не рекомендують для шутерів від перової особи.

V-sync: "шило на мило"

Вертикальна синхронізація, або V-sync – це дуже старе вирішення проблеми розриву. Під час активації цієї функції відеокарта намагається відповідати частоті оновлення екрана, повністю видаляючи розриви. Проблема в тому, що якщо ваша відеокарта не зможе утримати частоту кадрів вище 60 FPS (на дисплеї з частотою оновлення 60 Гц), ефективна частота кадрів скакатиме між значеннями, кратними частоті оновлення екрана (60, 30, 20, 15 FPS тощо). д.), що у свою чергу призведе до відчутних пригальмовувань.


Коли частота кадрів падає нижче за частоту оновлення при активній V-sync, ви відчуєте пригальмовування

Більш того, оскільки вертикальна синхронізація змушує відеокарту чекати і іноді покладається на буфер невидимих ​​поверхонь, V-sync може додавати в ланцюжок візуалізації додаткову затримку введення. Таким чином V-sync може бути як порятунком, так і прокляттям, вирішуючи одні проблеми, але при цьому провокуючи інші недоліки. Неофіційне опитування наших співробітників показало, що геймери, як правило, відключають вертикальну синхронізацію, і включають лише тоді, коли розриви стають нестерпними.

Креативний підхід: Nvidia представляє G-Sync

Під час запуску нової відеокарти GeForce GTX 680компанія Nvidia включила режим драйвера під назвою Adaptive V-sync (адаптивна вертикальна синхронізація), який намагається нівелювати проблеми при включенні V-sync, коли частота кадрів вище за частоту оновлення монітора і швидко відключаючи її, коли відбувається різке падіння продуктивності нижче за частоту оновлення. Хоча технологія сумлінно виконувала свої функції, це був лише обхід проблеми, який не дозволяв позбутися розривів, якщо частота кадрів була нижчою за частоту оновлення монітора.

Реалізація G-Syncнабагато цікавіше. Якщо говорити загалом, Nvidia показує, що замість того, щоб змушувати відеокарти працювати на фіксованій частоті монітора, ми можемо змусити нові монітори працювати на непостійній частоті.


Частота кадрів GPU визначає частоту оновлення монітора, прибираючи артефакти, пов'язані з включенням та вимкненням V-sync

Пакетний механізм передачі роз'єму DisplayPort відкрив нові можливості. Використовуючи змінні інтервали гасіння у відеосигналі DisplayPort та замінюючи пристрій масштабування монітора на модуль, що працює зі змінними сигналами гасіння, РК-панель може працювати на змінній частоті оновлення, пов'язаної з частотою кадрів, яку виводить відеокарта (у межах частоти оновлення монітора). На практиці Nvidia креативно підійшла до використання особливих можливостей інтерфейсу DisplayPort та спробувала зловити двох зайців одночасно.

Ще перед початком тестів хочеться віддати належне за творчий підхід до вирішення реальної проблеми, що впливає на ігри на ПК. Це інновації у всій красі. Але які результати G-Syncна практиці? Давайте з'ясовувати.

Nvidia надіслала нам інженерний зразок монітора Asus VG248QE, в якому пристрій масштабування замінено на модуль G-Sync. Із цим дисплеєм ми вже знайомі. Йому присвячена стаття "Огляд Asus VG248QE: 24-дюймовий ігровий монітор із частотою оновлення 144 Гц за $400", в якій монітор заробив нагороду Tom's Hardware Smart Buy. Тепер настав час дізнатися, як нова технологія Nvidia вплине на найпопулярніші ігри.

Огляд технології G-Sync 3D LightBoost, вбудована пам'ять, стандарти та 4K

Переглядаючи матеріали для преси від Nvidia, ми ставили собі чимало питань, як про місце технології в сучасному, так і її роль у майбутньому. Під час недавньої поїздки до головного офісу компанії в Санта-Клара наші колеги зі США отримали деякі відповіді.

G-Sync та 3D LightBoost

Перше, що ми помітили - це те, що Nvidia надіслала монітор Asus VG248QE, модифікований для підтримки G-Sync. Цей монітор також підтримує технологію Nvidia 3D LightBoost, яка спочатку була розроблена для підвищення яскравості 3D-дисплеїв, але довгий час неофіційно використовувалася в 2D-режимі, застосовуючи пульсуюче фонове підсвічування панелі для зменшення ефекту двоїння (або розмиття рухів). Звичайно, стало цікаво, чи використовується дана технологія в G-Sync.

Nvidia дала негативну відповідь. Хоча використання обох технологій одночасно було б ідеальним рішенням, сьогодні стробування фонового підсвічування на змінній частоті оновлення призводить до проблем із мерехтінням та яскравістю. Вирішити їх неймовірно складно, оскільки необхідно налаштувати яскравість та відстежувати імпульси. Як результат, зараз доводиться вибирати між двома технологіями, хоча компанія намагається знайти спосіб використати їх одночасно у майбутньому.

Вбудована пам'ять модуля G-Sync

Як ми вже знаємо, G-Syncусуває покрокову затримку введення, пов'язану з V-sync, оскільки більше немає необхідності очікувати на завершення сканування панелі. Тим не менш, ми помітили, що модуль G-Syncмає вбудовану пам'ять. Чи може буферизувати кадри самостійно? Якщо так, скільки часу потрібно кадру, щоб пройти через новий канал?

За даними Nvidia, кадри не буферизуються у пам'яті модуля. У міру надходження даних вони з'являються на екрані, а пам'ять виконує деякі інші функції. Тим не менш, час обробки для G-Syncпомітно менше однієї мілісекунди. Фактично майже з такою самою затримкою ми стикаємося при вимкненій V-sync, і вона пов'язана з особливостями гри, відеодрайвера, мишки і т.д.

Чи буде стандартна G-Sync?

Таке питання ставилося в останньому інтерв'ю з AMD, коли читач хотів дізнатися про реакцію компанії на технологію G-Sync. Однак нам захотілося запитати це безпосередньо у розробника та дізнатися, чи планує Nvidia вивести технологію на промисловий стандарт. Теоретично компанія може пропонувати G-Syncяк апгрейд для стандарту DisplayPort, що забезпечує змінні частоти оновлень. Зрештою, Nvidia є членом асоціації VESA.

Однак, нові специфікації для DisplayPort, HDMI або DVI не плануються. G-Syncі так підтримує DisplayPort 1.2, тобто міняти стандарт не потрібно.

Як уже зазначалося, Nvidia працює над сумісністю G-Syncз технологією, яка зараз називається 3D LightBoost (але скоро носитиме інше ім'я). Крім того, компанія шукає спосіб знизити собівартість модулів G-Syncта зробити їх більш доступними.

G-Sync на дозволах Ultra HD

Nvidia обіцяє появу моніторів із підтримкою G-Syncта дозволами до 3840x2160 пікселів. Однак модель від Asus, яку ми сьогодні розглянемо, підтримує лише 1920×1080 пікселів. На даний момент монітори Ultra HD використовують контролер STMicro Athena, що має два пристрої масштабування для створення поділеного на плитки дисплея. Нам цікаво, чи буде модуль G-Syncпідтримувати конфігурацію MST?

Правду кажучи, дисплеїв 4K зі зміною частотою кадрів ще доведеться почекати. Ще не існує окремого пристрою масштабування, що підтримує роздільну здатність 4K, найближче має з'явитися у першій чверті 2014 року, а монітори, ними оснащені, – лише у другій чверті. Оскільки модуль G-Syncзамінює пристрій масштабування, сумісні панелі з'являться після цього моменту. На щастя, модуль спочатку підтримує Ultra HD.

Що відбувається до 30 Гц?

G-Syncможе змінювати частоту оновлення екрана до 30 Гц. Пояснюється це тим, що за дуже низьких частот оновлення екрана зображення на РК-екрані починає руйнуватися, що призводить до появи візуальних артефактів. Якщо джерело забезпечує менше 30 FPS, модуль оновлюватиме панель автоматично, уникаючи можливих проблем. Це означає, що одне зображення може відтворюватися більш ніж один раз, але нижній поріг становить 30 Гц, що забезпечить максимальне якісне зображення.

Огляд технології G-Sync Панелі 60 Гц, SLI, Surround та наявність

Технологія обмежується лише панелями із високою частотою оновлення?

Ви помітите, що перший монітор з G-Syncспочатку має дуже високу частоту оновлення екрана (вище необхідного для технології рівня) та роздільну здатність 1920x1080 пікселів. Але Asus дисплей має власні обмеження, наприклад, 6-бітну TN-панель. Нам стало цікаво, впровадження технології G-Syncпланується лише у дисплеях з високою частотою оновлення або ми зможемо побачити її на більш поширених 60-герцевих моніторах? Крім того, хочеться якнайшвидше отримати доступ до роздільної здатності 2560x1440 пікселів.

У Nvidia знову повторили, що найкращий досвід від G-Syncможна отримати тоді, коли відеокарта утримує частоту кадрів у межах 30 – 60 FPS. Таким чином, технологія дійсно може вигідно використовувати звичайні монітори з частотою 60 Гц та модулем G-Sync .

Але навіщо використовувати монітор на 144 Гц? Схоже, що багато виробників моніторів вирішили впровадити функцію низького розмиття руху (3D LightBoost), що потребує високої частоти оновлення. Але ті, хто вирішив не використовувати цю функцію (а чому б і ні, адже вона поки що не сумісна з G-Sync), можуть створити панель з G-Syncза набагато менші гроші.

Говорячи про дозволи, можна відзначити, що все складається таким чином: QHD-екрани з частотою оновлення понад 120 Гц можуть почати випускатися вже на початку 2014 року.

Чи існують проблеми з SLI та G-Sync?

Що потрібно для того, щоб побачити G-Sync у режимі Surround?

Зараз, звичайно, не потрібно об'єднувати два графічні адаптери, щоб забезпечити виведення на екран зображення як 1080p. Навіть відеокарта середнього класу на базі Kepler зможе надати рівень продуктивності, необхідний для комфортної гри на цьому дозволі. Але також немає можливості запустити дві карти у SLI на трьох G-Sync-Монітори в режимі Surround.

Це обмеження пов'язане із сучасними виходами для дисплеїв на картах Nvidia, які, як правило, мають два порти DVI, один HDMI та один DisplayPort. G-Syncвимагає наявності DisplayPort 1.2, і адаптер не працюватиме (як і концентратор MST). Єдиний варіант – це підключити три монітори як Surround до трьох карт, тобто. для кожного монітора окрема картка. Природно, ми припускаємо, що партнери Nvidia почнуть випускати карти G-Sync Edition з великою кількістю роз'ємів DisplayPort.

G-Sync та потрійна буферизація

Для комфортної гри з вертикальною синхронізацією була потрібна активна потрійна буферизація. Чи потрібна вона для G-Sync? Відповідь – ні. G-Syncне тільки не потребує потрійної буферизації, оскільки канал ніколи не зупиняється, вона, навпаки, шкодить G-Syncоскільки додає додатковий кадр затримки без приросту продуктивності. На жаль, потрійну буферизацію гри часто задають самостійно і обійти вручну їх не можна.

А щодо ігор, які зазвичай погано реагують на відключення V-sync?

Ігри типу Skyrim, яка є частиною нашого тестового пакета, призначені для роботи з вертикальною синхронізацією на панелі 60 Гц (хоча це іноді ускладнює життя через затримку введення). Для їх тестування потрібна модифікація певних фалів із розширенням.ini. Бо поводиться G-Syncз іграми на базі двигунів Gamebryo і Creation, чутливих до налаштувань вертикальної синхронізації? Вони обмежуються 60 FPS?

По-друге, потрібен монітор із модулем Nvidia G-Sync. Цей модуль замінює масштабуючий пристрій екрана. І, наприклад, до розділеного Ultra HD-дисплею додати G-Syncнеможливо. У сьогоднішньому огляді ми використовуємо прототип з роздільною здатністю 1920×1080 пікселів та частотою оновлення до 144 Гц. Але навіть за його допомогою ви зможете скласти уявлення про те, який вплив матиме G-Sync, якщо виробники почнуть встановлювати їх у дешевші панелі на 60 Гц.

По-третє, потрібна наявність кабелю DisplayPort 1.2. DVI та HDMI не підтримуються. У найближчій перспективі це означає, що єдиний варіант для роботи G-Syncна трьох моніторах в режимі Surround є їх підключення через потрійну зв'язку SLI, оскільки кожна картка має лише по одному роз'єму DisplayPort, і адаптери для DVI на DisplayPort в цьому випадку не працюють. Те саме стосується MST-концентраторів.

І, нарешті, не слід забувати про підтримку в драйверах. Останній пакет версії 331.93 beta вже має сумісність із G-Sync, і ми припускаємо, що майбутні версії з сертифікатом WHQL будуть їй оснащуватися.

Тестовий стенд

Конфігурація тестового стенду
Процесор Intel Core i7-3970X (Sandy Bridge-E), базова частота 3,5 ГГц, розгін до 4,3 ГГц, LGA 2011, 15 Мбайт загального кешу L3, Hyper-Threading увімк., функції енергозбереження увімк.
Системна плата MSI X79A-GD45 Plus (LGA 2011) X79 Express Chipset, BIOS 17.5
Оперативна пам'ять G.Skill 32 Гбайт (8 x 4 Гбайт) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 та 1,65 В
Накопичувач Samsung 840 Pro SSD 256 Гбайт SATA 6Гбіт/с
Відеокарти Nvidia GeForce GTX 780 Ti 3 Гбайт
Nvidia GeForce GTX 760 2 Гбайт
Блок живлення Corsair AX860i 860 W
Системне ПЗ та драйвери
ОС Windows 8 Professional 64-bit
DirectX DirectX 11
Відеодрайвер Nvidia GeForce 331.93 Beta

Тепер необхідно розібратися, у яких випадках G-Syncмає найбільший вплив. Велика ймовірність, що ви вже зараз використовуєте монітор із частотою оновлення 60 Гц. Серед геймерів більш популярні моделі з частотою 120 і 144 Гц, але Nvidia справедливо припускає, що більшість ентузіастів на ринку все ж таки буде дотримуватися рівня 60 Гц.

При активній вертикальній синхронізації на моніторі з частотою оновлення 60 Гц найбільш помітні артефакти з'являються в тих випадках, коли карта не може забезпечити частоту 60 кадрів в секунду, що призводить до дратівливих стрибків між 30 і 60 FPS. Тут спостерігаються помітні пригальмовування. При відключеній вертикальній синхронізації ефект розривів буде найбільш помітним у сценах, де потрібно часто обертати камерою або в яких відбувається багато рухів. Деяких гравців це настільки відволікає, що вони просто включають V-sync і зазнають пригальмовування та затримки введення.

При частоті оновлення 120 і 144 Гц і вищій частоті кадрів дисплей оновлюється частіше, скорочуючи час, коли один кадр зберігається протягом кількох сканувань екрана за умови недостатньої продуктивності. Проте проблеми з активною та неактивною вертикальною синхронізацією зберігаються. З цієї причини ми будемо тестувати монітор Asus в режимі 60 і 144 Гц із включеною та вимкненою технологією G-Sync .

Огляд технології G-Sync Тестування G-Sync із включеною V-Sync

Настав час розпочати тестування G-Sync. Залишається тільки встановити карту відеозахоплення, масив із кількох SSD і перейти до тестів, правильно?

Ні не правильно.

Сьогодні ми вимірюємо не продуктивність, а якість. У разі тести можуть показати лише одне: частоту кадрів у конкретний час. Про якість та досвід використання при включеній та вимкненій технології G-Syncвони не говорять зовсім нічого. Тому доведеться покладатися на наш ретельно вивірений і промовистий опис, який ми намагатимемося максимально наблизити до реальності.

Чому б просто не записати відеоролик та не віддати його на суд читачам? Справа в тому, що камера записує відео на фіксованій швидкості 60 Гц. Монітор також відтворює відео на постійній частоті оновлення 60 Гц. Оскільки G-Syncвпроваджує змінну частоту оновлення, технологію у дії ви не побачите.

Враховуючи кількість доступних ігор, кількість можливих тестових комбінацій є незліченною. V-sync вкл., V-sync вимк., G-Syncвкл. G-Syncвикл., 60 Гц, 120 Гц, 144 Гц, ... Список можна продовжувати ще довго. Але ми почнемо з частоти оновлення 60 Гц та активної вертикальної синхронізації.

Напевно, найпростіше почати з власної демонстраційної утиліти Nvidia, у якій маятник хитається з боку на бік. Утиліта може імітувати частоту кадрів 60, 50 або 40 FPS. Або частота може коливатися між 40 та 60 FPS. Потім можна відключити або увімкнути V-sync і G-Sync. Хоча тест і вигаданий, він добре демонструє можливості технології. Можна спостерігати сцену при 50 FPS з увімкненою вертикальною синхронізацією і думати: "Все цілком непогано, і видимі пригальмовування можна терпіти". Але після активації G-Syncвідразу хочеться сказати: "Про що я думав? Різниця очевидна, як день і ніч. Як я міг жити з цим раніше?"

Але не забуватимемо, що це технічна демонстрація. Хотілося б доказів на основі реальних ігор. Для цього потрібно запустити гру з високими системними вимогами, як Arma III.

В Arma III можна встановити тестову машину GeForce GTX 770та виставити ультраналаштування. З відключеною вертикальною синхронізацією частота кадрів коливається не більше 40 – 50 FPS. Але якщо увімкнути V-sync, вона знизиться до 30 FPS. Продуктивність недостатньо висока, щоб спостерігалися постійні коливання між 30 та 60 FPS. Натомість частота кадрів відеокарти просто зменшується.

Оскільки гальмування зображення не було, істотна різниця при активації G-Syncнепомітна, крім того, що реальна частота кадрів підскакує на 10 - 20 FPS вище. Затримка введення також повинна знизитися, оскільки той самий кадр не зберігається протягом декількох сканувань монітора. Нам здається, що Arma взагалі менш "смикана", ніж багато інших ігор, так що затримка не відчувається.

З іншого боку, у Metro: Last Light вплив G-Syncбільш виражено. З відеокартою GeForce GTX 770гру можна запустити при роздільній здатності 1920x1080 точок з дуже високими налаштуваннями деталізації, включаючи 16x AF, нормальну тесселяцію та розмиття рухів. У цьому випадку можна вибирати параметри SSAA з 1x до 2x до 3x, щоб поступово знижувати частоту кадрів.

Крім того, оточення гри включає передпокій, в якому легко "стрейфіти" вперед і назад. Запустивши рівень з активною вертикальною синхронізацією на 60 Гц ми вийшли в місто. Fraps показав, що з трикратним згладжуванням SSAA частота кадрів склала 30 FPS, а при відключеному згладжуванні – 60 FPS. У першому випадку відчутні пригальмовування та затримки. З відключеним SSAA ви отримаєте абсолютно плавну картинку на 60 FPS. Однак активація 2x SSAA призводить до коливань від 60 до 30 FPS, з чого кожен продубльований кадр створює незручності. Це одна з ігор, в якій ми обов'язково відключили б вертикальну синхронізацію і просто ігнорували розриви. У багатьох все одно вже виробилася звичка.

Проте G-Syncпозбавляє всіх негативних ефектів. Вам більше не доведеться дивитися в лічильник Fraps, чекаючи просідань нижче 60 FPS, щоб знизити ще один графічний параметр. Ви, навпаки, можете підвищити деякі з них, оскільки навіть у разі уповільнення до 50 – 40 FPS очевидних пригальмовувань не буде. А якщо відключити вертикальну синхронізацію? Про це ви дізнаєтесь пізніше.

Огляд технології G-Sync Тестування G-Sync з вимкненою V-Sync

Висновки в цьому матеріалі створені на основі опитування авторів і друзів Tom's Hardware по Skype (іншими словами, вибірка опитуваних невелика), але майже всі вони розуміють, що таке вертикальна синхронізація і з якими недоліками доводиться у зв'язку миритися користувачам. , вони вдаються за допомогою вертикальної синхронізації лише тому випадку, коли розриви через дуже великого розкиду в частоті кадрів і частоті оновлення монітора стають нестерпними.

Як ви можете уявити, вплив вимкненої вертикальної синхронізації на візуальну складову складно переплутати, хоча на це сильно впливають конкретна гра і її налаштування деталізації.

Візьмемо, наприклад, Crysis 3. Гра з легкістю може поставити на коліна вашу графічну підсистему на найвищих параметрах графіки. І, оскільки Crysis 3є шутером від першої особи з динамічним геймплеєм, розриви можуть бути досить відчутними. На прикладі вище висновок FCAT було захоплено між двома кадрами. Як бачите, дерево повністю розрізане.

З іншого боку, коли ми примусово відключаємо вертикальну синхронізацію в Skyrim, розриви не такі вже й сильні. Зверніть увагу, що в цьому випадку частота кадрів дуже висока, і кілька кадрів з'являються на екрані з кожним скануванням. Таким оглядам кількість рухів на кадр відносно низька. При грі в Skyrim у такій конфігурації існують проблеми, і, можливо, вона не найоптимальніша. Але вона показує, що навіть за відключеної вертикальної синхронізації відчуття від гри може змінюватися.

Як третій приклад ми вибрали кадр із зображенням плеча Лари Крофт з гри Tomb Raider, на якому видно досить чіткий розрив зображення (також подивіться на волосся і лямку майки). Tomb Raider – єдина гра з нашої вибірки, яка дозволяє вибирати між подвійною та потрійною буферизацією при активації вертикальної синхронізації.

Останній графік показує, що Metro: Last Light з G-Syncпри 144 Гц, в цілому, забезпечує таку ж продуктивність, як при відключеній вертикальній синхронізації. Проте на графіку не можна побачити відсутність розривів. Якщо використовувати технологію з екраном 60 Гц, частота кадрів впорається в 60 FPS, але при цьому не буде гальмування або затримки.

У всякому разі, ті з вас (і нас), хто провів незліченну кількість часу за графічними тестами, спостерігаючи один і той же бенчмарк знову і знову, могли звикнути до них і візуально визначити, наскільки добрий той чи інший результат. Так ми вимірюємо абсолютну продуктивність відеокарт. Зміни у картинці з активною G-Syncвідразу впадають у вічі, оскільки утворюється плавність, як із включеної V-sync, але не розривів, властивих для відключеної V-sync. Жаль, що зараз ми не можемо показати різницю у відеоролику.

Огляд технології G-Sync Сумісність із іграми: майже чудово

Перевіряємо інші ігри

Ми протестували ще кілька ігор. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4побували на тестовому стенді. Усі вони, окрім Skyrim, виграли від технології G-Sync. Ефект залежав від конкурентної гри. Але якби ви бачили його, одразу визнали б, що ігнорували недоліки, які були присутні раніше.

Артефакти все ж таки можуть з'являтися. Наприклад, ефект сповзання, пов'язаний зі згладжуванням, при плавному русі помітний сильніше. Швидше за все, вам захочеться виставити згладжування якомога вище, щоб усунути неприємні нерівності, які раніше були не такі помітні.

Skyrim: особливий випадок

Графічний двигун Creation, на якому розроблена Skyrim, активує вертикальну синхронізацію за умовчанням. Щоб тестувати гру на частоті кадрів вище 60 FPS, до одного з.ini-файлів гри потрібно додати рядок iPresentInterval=0.

Таким чином, Skyrim можна тестувати трьома способами: у вихідному стані, дозволяючи драйверу Nvidia "використовувати налаштування програми", увімкнути G-Syncв драйвері і залишити налаштування Skyrim незайманими, а потім увімкнути G-Syncта відключити V-sync у файлі гри з розширенням.ini.

Перша конфігурація, в якій досвідчений монітор виставлений на 60 Гц, показала стабільні 60 FPS на ультранастройках з відеокартою GeForce GTX 770. Отже, ми отримали плавну та приємну картинку. Тим не менш, введення від користувача, як і раніше, страждає від затримки. Крім того, стрейф з боку на бік виявив помітне розмиття рухів. Проте саме в такий спосіб на ПК грає більшість людей. Звичайно, ви можете купити екран із частотою оновлення 144 Гц, і він реально усуне розмиття. Але оскільки GeForce GTX 770забезпечує частоту оновлення на рівні приблизно 90 - 100 кадрів в секунду, з'являться відчутні пригальмовування, коли двигун коливатиметься між 144 і 72 FPS.

При 60 Гц G-Syncмає негативний вплив на картинку, ймовірно, це пов'язано з активною вертикальною синхронізацією, при тому що технологія повинна працювати з відключеною V-sync. Тепер бічний стрейф (особливо ближче до стін) призводить до виражених гальмування. Це потенційна проблема для 60-герцевих панелей з G-Syncпринаймні в таких іграх як Skyrim. На щастя, у разі монітора Asus VG248Q можна переключитися в режим 144 Гц, і, незважаючи на активну V-sync, G-Syncпрацюватиме на такій частоті кадрів без нарікань.

Повне відключення вертикальної синхронізації в Skyrim призводить до більш "точного" керування мишею. Однак при цьому з'являються розриви зображення (не кажучи про інші артефакти, такі як мерехтлива вода). Увімкнення G-Syncзалишає пригальмовування на рівні 60 Гц, але на 144 Гц ситуація значно покращується. Хоча в оглядах відеокарт ми тестуємо гру з відключеною вертикальною синхронізацією, ми б не рекомендували грати без неї.

Для Skyrim, можливо, найкращим рішенням буде відключити G-Syncі грати на 60 Гц, що дасть постійні 60 кадрів в секунду на вибраних налаштуваннях графіки.

Огляд технології G-Sync G-Sync – те, що ви чекали?

Навіть перед тим, як ми отримали тестовий зразок монітора Asus з технологій G-Sync, нас вже порадував той факт, що Nvidia працює над цілком реальною проблемою, що впливає на ігри, рішення якої ще не було запропоновано. До цього часу ви на свій смак могли включати або не включати вертикальну синхронізацію. При цьому будь-яке рішення супроводжувалося компромісами, які негативно впливають на ігровий досвід. Якщо ви волієте не включати вертикальну синхронізацію доти, поки розриви зображення стануть нестерпними, можна сказати, що ви вибираєте менше з двох зол.

G-Syncвирішує проблему, надаючи дисплею можливість сканувати екран на змінній частоті. Такі інновації – єдиний спосіб і надалі просувати нашу індустрію, зберігаючи технічну перевагу персональних комп'ютерів над ігровими консолями та платформами. Nvidia, без сумніву, витримає критику за те, що не розробила стандарту, який могли б застосувати конкуренти. Тим не менш, для свого рішення компанія використовує DisplayPort 1.2. В результаті лише через два місяці після анонсу технології G-Syncвона опинилася у нас у руках.

Питання, чи реалізує Nvidia все, що обіцяла в G-Sync?

Три талановитих розробника, які розхвалюють якості технології, яку ви ще не бачили у дії, можуть надихнути будь-кого. Але якщо ваш перший досвід з G-Syncзаснований на демонстраційному тесті з маятником від Nvidia, ви точно поставите питання, чи можлива взагалі така величезна різниця, або ж тест представляє особливий сценарій, який дуже хороший, щоб бути правдою.

Звичайно, при перевірці технології в реальних іграх ефект виявляється не таким однозначним. З одного боку, були вигуки "Ого!" і "З глузду з'їхати!", з іншого - "Здається, я бачу різницю". Найкраще вплив активації G-Syncпомітно при зміні частоти поновлення дисплея з 60 Гц на 144 Гц. Але ми також намагалися провести тест на 60 Гц з G-Sync, щоб дізнатися, що ви отримаєте (сподіваємось) з більш дешевими дисплеями у майбутньому. У деяких випадках простий перехід з 60 на 144 Гц вас сильно вразить, якщо ваша відеокарта може забезпечити високу частоту кадрів.

Сьогодні нам відомо, що Asus планує запровадити підтримку G-Syncу моделі Asus VG248QE, Яка, за словами компанії, наступного року буде продаватися за ціною $400. Монітор має рідну роздільну здатність 1920x1080 пікселів та частоту оновлення 144 Гц. Версія без G-Syncвже отримала нашу нагороду Smart Buy за визначну продуктивність. Але особисто для нас 6-бітна TN-панель є недоліком. Дуже хочеться бачити 2560×1440 пікселів на IPS-матриці. Ми навіть погоджуємося на частоту оновлення 60 Гц, якщо це допоможе знизити ціну.

Хоча на виставці CES ми чекаємо цілу купу анонсів, офіційних коментарів Nvidia щодо інших дисплеїв з модулями G-Syncта їх цін ми не чули. Крім того, ми не впевнені, які плани компанії щодо модуля для апгрейду, який має дозволити вам запровадити модуль. G-Syncу вже куплений монітор Asus VG248QEза 20 хв.

Зараз ми можемо сказати, що варто зачекати. Ви побачите, що в одних іграх вплив нової технології не можна переплутати, а в інших він менш виражений. Але в будь-якому випадку G-Syncвідповідає на "бородатий" питання, включати або не включати вертикальну синхронізацію.

Є ще одна цікава думка. Після того, як ми протестували G-Sync, ще скільки AMD зможе ухилятися від коментарів? Компанія подразнила наших читачів у своєму інтерв'ю(англ.), наголосивши, що вона скоро визначитися з цією можливістю. Якщо у неї щось у планах? Кінець 2013 року та початок 2014 року готують нам безліч цікавих новин для обговорення, включаючи Battlefield 4 Mantle-версії, майбутню архітектуру Nvidia Maxwell, G-Sync, двигун AMD xDMA з підтримкою CrossFire і чутки про нові двочіпові відеокарти. Зараз нам не вистачає відеокарт, об'єм пам'яті GDDR5 яких більше ніж 3 Гбайт (Nvidia) і 4 Гбайт (AMD), але коштують вони менше $1000.

У ті старі добрі часи, коли власники персональних комп'ютерів активно використовували величезні ЕПТ-монітори, заробляючи собі астигматизм, про плавність зображення не могло йтися. Тодішні технології не дуже підтримували і 3D. Тому бідним користувачам доводилося задовольнятися тим, що було. Але час йде, технології розвиваються, і багато хто вже не влаштовує розрив кадру (тиринг) при динамічній грі. Особливо це стосується про кібер-спортсменів. У разі частки секунди вирішують все. Як бути?

Прогрес на місці не вартий. Тому те, що раніше здавалося неможливим, зараз може сприйматися як належне. Така сама ситуація і з якістю зображення на комп'ютері. Виробники відеокарт та інших комплектуючих до ПК зараз працюють над проблемою неякісного виведення зображення на монітори. І треба сказати, що вони вже досить далеко просунулися. Залишається зовсім небагато, і зображення на моніторі стане ідеальним. Але це все – ліричний відступ. Повернемося до нашої теми.

Трішки історії

Багато і моніторів активно намагалися подолати тиринг та покращити зображення. Що тільки вони не винаходили: підвищували герцовість монітора, включали V-Sync. Нічого не помагало. І одного дня відомий виробник відеокарт NVIDIA презентує технологію G-Sync, за допомогою якої можна досягти «нереальної» плавності зображення без будь-яких артефактів. Начебто й добре, але є одне маленьке, але дуже серйозне але. Для використання цієї опції потрібні монітори з підтримкою G-Sync. Довелося піднапружитися виробникам моніторів і викинути на ринок пару десятків моделей. А що далі? Давайте розглянемо технологію і спробуємо розібратися, чи вона хороша.

Що являє собою G-Sync?

G-Sync – технологія виведення на екран від компанії NVIDIA. Характеризується плавністю зміни кадрів без усіляких артефактів. Немає ні розривів зображення, ні підгальмовування. Для адекватної роботи цієї технології потрібно досить сильний комп'ютер, оскільки для обробки цифрового сигналу потрібні великі потужності процесора. Саме тому технологією постачаються лише нові моделі відеокарт від NVIDIA. Крім того, G-Sync – фірмова фішка NVIDIA, тому власникам відеокарт від інших виробників нічого не світить.

Крім потрібен G-Sync-монітор. Справа в тому, що оснащені платою з перетворювачем цифрового сигналу. Власники звичайних моніторів не зможуть скористатися цією чудовою опцією. Несправедливо, звичайно, але така політика сучасних виробників – викачати якнайбільше грошей із бідного користувача. Якщо конфігурація вашого ПК дозволяє використовувати G-Sync, і монітор дивом підтримує цю опцію, то ви цілком можете оцінити всі принади даної технології.

Принцип роботи G-Sync

Спробуємо спрощено пояснити принцип G-Sync. Справа в тому, що звичайний GPU (відеокарта) просто посилає цифровий сигнална монітор, але не зважає на його частоту. Ось тому сигнал при виведенні на екран виходить «рваним». Сигнал, що йде від GPU, переривається частотою монітора і виглядає непоказно в кінцевому варіанті. Навіть із включеною опцією V-Sync.

При використанні G-Sync GPU регулює частоту монітора. Саме тому сигнали доходять до матриці тоді, коли це справді потрібно. Завдяки цьому з'являється можливість уникнути розривів зображення та підвищити плавність картинки загалом. Оскільки звичайні монітори не дозволяють GPU керувати собою, було придумано G-Sync-монітор, в який впроваджено плату від NVIDIA, що регулює частоту. Тому використання звичайних моніторів неможливе.

Монітори з підтримкою цієї технології

Пішли в минуле ті часи, коли користувачі вбивали свій зір, годинами дивлячись у давні ЕПТ-монітори. Теперішні моделі відрізняються елегантністю та нешкідливістю. То чому б не додати їм трохи нових технологій? Перший монітор з підтримкою NVIDIA G-Sync та роздільною здатністю 4К був випущений компанією Acer. Новинка справила неабиякий фурор.

Поки що якісні монітори з G-Sync досить рідкісні. Але в планах у виробників є задум зробити ці пристрої стандартними. Швидше за все, через п'ять років монітори за допомогою даної технології стануть стандартним рішенням навіть для офісного ПК. Ну а поки що залишається тільки поглядати на ці новинки і чекати на їхнє повсюдне поширення. Саме тоді вони подешевшають.

Після цього монітори з підтримкою G-Sync почали клепати всі, кому не ліньки. З'явилися навіть бюджетні моделі із цією технологією. Хоча що користь від цієї технології на бюджетному екрані з поганою матрицею? Але, як би там не було, такі моделі мають місце. Оптимальним варіантом для даної опції є (G-Sync на ньому працюватиме на повну силу).

Найкращі монітори з G-Sync

Монітори з технологією G-Sync виділяються в спеціальну лінійку пристроїв. Вони повинні мати характеристики, необхідні для повноцінної роботицієї опції. Зрозуміло, що далеко не всі екрани впораються з таким завданням. Вже зараз визначились кілька лідерів із виробництва таких моніторів. Їхні моделі вийшли дуже вдалими.

Наприклад, монітор G-Sync належить до яскравих представників цієї лінійки. Цей пристрій відноситься до преміум-класу. Чому? Судіть самі. Діагональ екрану становить 34 дюйми, роздільна здатність - 4К, контрастність - 1:1000, 100 Гц, час відгуку матриці - 5 мс. До того ж багато хто хотів би отримати собі цього «монстра». Зрозуміло, що він справді справлятиметься з технологією G-Sync. Йому поки що немає аналогів. Можна спокійно назвати його найкращим у своєму класі та не помилитися.

Взагалі, G-Sync монітори ASUS зараз знаходяться на вершині "Олімпу". Ще жоден виробник не зміг переплюнути цю компанію. І навряд чи колись це вийде. ASUS можна назвати першопрохідцем у цьому плані. Їхні монітори, що підтримують G-Sync, розлітаються, як гарячі пиріжки.

Майбутнє G-Sync

Наразі технологію G-Sync активно намагаються впровадити у ноутбуки. Деякі виробники навіть випустили кілька таких моделей. Причому можуть працювати без плати G-Sync в моніторі. Що й зрозуміло. Все-таки у ноутбука дещо інші конструктивні особливості. Там цілком достатньо відеокарти з підтримкою цієї технології.

Ймовірно, незабаром неабияке місце у комп'ютерній промисловості займе саме NVIDIA G-Sync. Монітори із цією технологією мають подешевшати. Зрештою, ця опція повинна стати повсюдно доступною. Інакше який сенс у її розробці? У будь-якому випадку поки що все не так райдужно. Є деякі проблеми щодо впровадження G-Sync.

У майбутньому технологія G-Sync стане такою ж повсякденною річчю, якою був для нас колись VGA-порт для підключення монітора. А ось усілякі «вертикальні синхронізації» на тлі цієї технології виглядають кричущим анахронізмом. Мало того, що ці застарілі технології не можуть забезпечити задовільну якість картинки, так вони ще й «їдять» чималу кількість системних ресурсів. Визначено, з появою G-Sync їхнє місце на смітнику історії.



Сподобалась стаття? Поділіться їй