Контакти

Технологія NVIDIA G-Sync. Монітори, що підтримують G-Sync: опис та відгуки. Як увімкнути підтримку NVIDIA G-SYNC та повністю розкрити її потенціал У драйвері nvidia немає налаштувань g sync

Огляд технології G-Sync Тестування G-Sync з вимкненою V-Sync

Висновки в цьому матеріалі створені на основі опитування авторів і друзів Tom's Hardware по Skype (іншими словами, вибірка опитуваних невелика), але майже всі вони розуміють, що таке вертикальна синхронізація і з якими недоліками доводиться у зв'язку миритися користувачам. , вони вдаються за допомогою вертикальної синхронізації лише тому випадку, коли розриви через дуже великого розкиду в частоті кадрів і частоті оновлення монітора стають нестерпними.

Як ви можете уявити, вплив вимкненої вертикальної синхронізації на візуальну складову складно переплутати, хоча на це сильно впливають конкретна гра і її налаштування деталізації.

Візьмемо, наприклад, Crysis 3. Гра з легкістю може поставити на коліна вашу графічну підсистему на найвищих параметрах графіки. І, оскільки Crysis 3є шутером від першої особи з динамічним геймплеєм, розриви можуть бути досить відчутними. На прикладі вище висновок FCAT було захоплено між двома кадрами. Як бачите, дерево повністю розрізане.

З іншого боку, коли ми примусово відключаємо вертикальну синхронізацію в Skyrim, розриви не такі вже й сильні. Зверніть увагу, що в цьому випадку частота кадрів дуже висока, і кілька кадрів з'являються на екрані з кожним скануванням. Таким оглядам кількість рухів на кадр відносно низька. При грі в Skyrim у такій конфігурації існують проблеми, і, можливо, вона не найоптимальніша. Але вона показує, що навіть за відключеної вертикальної синхронізації відчуття від гри може змінюватися.

Як третій приклад ми вибрали кадр із зображенням плеча Лари Крофт з гри Tomb Raider, на якому видно досить чіткий розрив зображення (також подивіться на волосся і лямку майки). Tomb Raider – єдина гра з нашої вибірки, яка дозволяє вибирати між подвійною та потрійною буферизацією при активації вертикальної синхронізації.

Останній графік показує, що Metro: Last Light з G-Syncпри 144 Гц, в цілому, забезпечує таку ж продуктивність, як при відключеній вертикальній синхронізації. Проте на графіку не можна побачити відсутність розривів. Якщо використовувати технологію з екраном 60 Гц, частота кадрів впорається в 60 FPS, але при цьому не буде гальмування або затримки.

У всякому разі, ті з вас (і нас), хто провів незліченну кількість часу за графічними тестами, спостерігаючи один і той же бенчмарк знову і знову, могли звикнути до них і візуально визначити, наскільки добрий той чи інший результат. Так ми вимірюємо абсолютну продуктивність відеокарт. Зміни у картинці з активною G-Syncвідразу впадають у вічі, оскільки з'являється плавність, як із включеної V-sync, але не розривів, властивих для відключеної V-sync. Жаль, що зараз ми не можемо показати різницю у відеоролику.

Огляд технології G-Sync Сумісність із іграми: майже чудово

Перевіряємо інші ігри

Ми протестували ще кілька ігор. Crysis 3, Tomb Raider, Skyrim, BioShock: Infinite, Battlefield 4побували на тестовому стенді. Усі вони, окрім Skyrim, виграли від технології G-Sync. Ефект залежав від конкурентної гри. Але якби ви бачили його, одразу визнали б, що ігнорували недоліки, які були присутні раніше.

Артефакти все ж таки можуть з'являтися. Наприклад, ефект сповзання, пов'язаний зі згладжуванням, при плавному русі помітний сильніше. Швидше за все, вам захочеться виставити згладжування якомога вище, щоб усунути неприємні нерівності, які раніше були не такі помітні.

Skyrim: особливий випадок

Графічний двигун Creation, на якому розроблена Skyrim, активує вертикальну синхронізацію за умовчанням. Щоб тестувати гру на частоті кадрів вище 60 FPS, до одного з.ini-файлів гри потрібно додати рядок iPresentInterval=0.

Таким чином, Skyrim можна тестувати трьома способами: у вихідному стані, дозволяючи драйверу Nvidia "використовувати налаштування програми", увімкнути G-Syncв драйвері і залишити налаштування Skyrim незайманими, а потім увімкнути G-Syncта відключити V-sync у файлі гри з розширенням.ini.

Перша конфігурація, в якій досвідчений монітор виставлений на 60 Гц, показала стабільні 60 FPS на ультранастройках з відеокартою GeForce GTX 770. Отже, ми отримали плавну та приємну картинку. Тим не менш, введення від користувача, як і раніше, страждає від затримки. Крім того, стрейф з боку на бік виявив помітне розмиття рухів. Проте саме в такий спосіб на ПК грає більшість людей. Звичайно, ви можете купити екран із частотою оновлення 144 Гц, і він реально усуне розмиття. Але оскільки GeForce GTX 770забезпечує частоту оновлення на рівні приблизно 90 - 100 кадрів в секунду, з'являться відчутні пригальмовування, коли двигун коливатиметься між 144 і 72 FPS.

При 60 Гц G-Syncмає негативний вплив на картинку, ймовірно, це пов'язано з активною вертикальною синхронізацією, при тому що технологія повинна працювати з відключеною V-sync. Тепер бічний стрейф (особливо ближче до стін) призводить до виражених гальмування. Це потенційна проблема для 60-герцевих панелей з G-Syncпринаймні в таких іграх як Skyrim. На щастя, у разі монітора Asus VG248Q можна переключитися в режим 144 Гц, і, незважаючи на активну V-sync, G-Syncпрацюватиме на такій частоті кадрів без нарікань.

Повне відключення вертикальної синхронізації в Skyrim призводить до більш "точного" керування мишею. Однак при цьому з'являються розриви зображення (не кажучи про інші артефакти, такі як мерехтлива вода). Увімкнення G-Syncзалишає пригальмовування на рівні 60 Гц, але на 144 Гц ситуація значно покращується. Хоча в оглядах відеокарт ми тестуємо гру з відключеною вертикальною синхронізацією, ми б не рекомендували грати без неї.

Для Skyrim, можливо, найбільш найкращим рішеннямбуде відключити G-Syncі грати на 60 Гц, що дасть постійні 60 кадрів в секунду на вибраних налаштуваннях графіки.

Огляд технології G-Sync G-Sync – те, що ви чекали?

Навіть перед тим, як ми отримали тестовий зразок монітора Asus з технологій G-Sync, нас вже порадував той факт, що Nvidia працює над цілком реальною проблемою, що впливає на ігри, рішення якої ще не було запропоновано. До цього часу ви на свій смак могли включати або не включати вертикальну синхронізацію. При цьому будь-яке рішення супроводжувалося компромісами, які негативно впливають на ігровий досвід. Якщо ви волієте не включати вертикальну синхронізацію доти, поки розриви зображення стануть нестерпними, можна сказати, що ви вибираєте менше з двох зол.

G-Syncвирішує проблему, надаючи дисплею можливість сканувати екран на змінній частоті. Такі інновації – єдиний спосіб і надалі просувати нашу індустрію, зберігаючи технічну перевагу персональних комп'ютерівнад ігровими консолями та платформами. Nvidia, без сумніву, витримає критику за те, що не розробила стандарту, який могли б застосувати конкуренти. Тим не менш, для свого рішення компанія використовує DisplayPort 1.2. В результаті лише через два місяці після анонсу технології G-Syncвона опинилася у нас у руках.

Питання, чи реалізує Nvidia все, що обіцяла в G-Sync?

Три талановитих розробника, які розхвалюють якості технології, яку ви ще не бачили у дії, можуть надихнути будь-кого. Але якщо ваш перший досвід з G-Syncзаснований на демонстраційному тесті з маятником від Nvidia, ви точно поставите питання, чи можлива взагалі така величезна різниця, або ж тест представляє особливий сценарій, який дуже хороший, щоб бути правдою.

Звичайно, при перевірці технології в реальних іграх ефект виявляється не таким однозначним. З одного боку, були вигуки "Ого!" і "З глузду з'їхати!", з іншого - "Здається, я бачу різницю". Найкраще вплив активації G-Syncпомітно при зміні частоти поновлення дисплея з 60 Гц на 144 Гц. Але ми також намагалися провести тест на 60 Гц з G-Sync, щоб дізнатися, що ви отримаєте (сподіваємось) з більш дешевими дисплеями у майбутньому. У деяких випадках простий перехід з 60 на 144 Гц вас сильно вразить, якщо ваша відеокарта може забезпечити високу частоту кадрів.

Сьогодні нам відомо, що Asus планує запровадити підтримку G-Syncу моделі Asus VG248QE, Яка, за словами компанії, наступного року буде продаватися за ціною $400. Монітор має рідну роздільну здатність 1920x1080 пікселів та частоту оновлення 144 Гц. Версія без G-Syncвже отримала нашу нагороду Smart Buy за визначну продуктивність. Але особисто для нас 6-бітна TN-панель є недоліком. Дуже хочеться бачити 2560×1440 пікселів на IPS-матриці. Ми навіть погоджуємося на частоту оновлення 60 Гц, якщо це допоможе знизити ціну.

Хоча на виставці CES ми чекаємо цілу купу анонсів, офіційних коментарів Nvidia щодо інших дисплеїв з модулями G-Syncта їх цін ми не чули. Крім того, ми не впевнені, які плани компанії щодо модуля для апгрейду, який має дозволити вам запровадити модуль. G-Syncу вже куплений монітор Asus VG248QEза 20 хв.

Зараз ми можемо сказати, що варто зачекати. Ви побачите, що в одних іграх вплив нової технології не можна переплутати, а в інших він менш виражений. Але в будь-якому випадку G-Syncвідповідає на "бородатий" питання, включати або не включати вертикальну синхронізацію.

Є ще одна цікава думка. Після того, як ми протестували G-Sync, ще скільки AMD зможе ухилятися від коментарів? Компанія подразнила наших читачів у своєму інтерв'ю(англ.), наголосивши, що вона скоро визначитися з цією можливістю. Якщо у неї щось у планах? Кінець 2013 року та початок 2014 року готують нам безліч цікавих новин для обговорення, включаючи Battlefield 4 Mantle-версії, майбутню архітектуру Nvidia Maxwell, G-Sync, двигун AMD xDMA з підтримкою CrossFire і чутки про нові двочіпові відеокарти. Зараз нам не вистачає відеокарт, об'єм пам'яті GDDR5 яких більше ніж 3 Гбайт (Nvidia) і 4 Гбайт (AMD), але коштують вони менше $1000.

Є речі, писати про які не просто важко, а дуже важко. Які просто потрібно один раз побачити, ніж сто разів почути про них чи прочитати в Інтернеті. Наприклад, неможливо описати якісь природні чудеса, на зразок величного Гранд-Каньйону або засніжених Алтайських гір. Можна сто разів дивитися на красиві картинки з їхнім зображенням та милуватися відеороликами, але живих вражень це не замінить.

Тема плавності виведення кадрів на монітор із застосуванням технології Nvidia G-Sync теж відноситься до таких тем - за текстовими описами зміни не здаються такими істотними, але в перші ж хвилини за 3D-грою на системі з відеокартою Nvidia Geforce, підключеної до G-Sync -Монітору, стає зрозуміло, наскільки великим є якісний стрибок. І хоча з моменту анонсу технології минуло вже більше року, технологія не втрачає актуальності, конкурентів у неї досі немає (серед рішень, що вийшли на ринок), а відповідні монітори продовжують випускатися.

Компанія Nvidia вже давно займається питанням поліпшення сприйняття користувачами графічних процесорів Geforce відеоряду в сучасних іграх шляхом підвищення плавності рендерингу. Можна згадати технологію адаптивної синхронізації Adaptive V-Sync, яка є гібридом, що поєднує режими з увімкненою та вимкненою вертикальною синхронізацією (V-Sync On та V-Sync Off, відповідно). У випадку, коли GPU забезпечує рендеринг з частотою кадрів менше частоти оновлення монітора, синхронізація відключається, а для FPS, що перевищує частоту оновлення, - включається.

Проблеми плавності за допомогою адаптивної синхронізації вирішилися не всі, але все ж таки це був важливий крок у правильному напрямку. Але чому взагалі знадобилося робити якісь спеціальні режимисинхронізації та навіть випускати програмно-апаратні рішення? Що не так у технологіях, які існують уже десятки років? Сьогодні ми розповімо вам про те, як технологія Nvidia G-Sync допомагає усунути всі відомі артефакти виведення зображення на екран, на кшталт розривів зображення, неплавності відеоряду та збільшення затримок.

Забігаючи далеко вперед, можна сказати, що технологія синхронізації G-Sync дозволяє отримати плавну зміну кадрів з максимально можливою продуктивністю і комфортом, що дуже відчутно при грі за таким монітором - це помітно навіть звичайному домашньому користувачеві, а для затятих гравців може означати поліпшення часу реакції, а заразом і ігрових досягнень.

На сьогоднішній день більшість ПК-гравців використовують монітори з частотою оновлення 60 Гц - типові РК-екрани, найпопулярніші зараз. Відповідно, і при включеній синхронізації (V-Sync On), і при вимкненій - завжди спостерігаються будь-які недоліки, пов'язані з базовими проблемами давніх технологій, про які ми поговоримо далі: високі затримки та ривки FPS при включеному V-Sync та неприємні розриви зображення при вимкненому.

Оскільки затримки і неплавність частоти кадрів сильніше заважають грі і дратують, рідко хто з гравців включає зовсім синхронізацію. І навіть деякі моделі моніторів з частотою оновлення 120 і 144 Гц, що з'явилися на ринку, не можуть допомогти усунути проблеми повністю, вони їх просто роблять трохи менш помітними, оновлюючи вміст екрана вдвічі частіше, але ті ж артефакти присутні: лаги і відсутність тієї самої комфортної плавності.

І тому що монітори з G-Sync у парі з відповідною відеокартою Nvidia Geforce здатні забезпечити не тільки високу частоту оновлення, але й усунути всі ці недоліки, то придбання подібних рішень можна вважати навіть важливішим, ніж навіть апгрейд на потужніший GPU. Але давайте розберемося спочатку про те, чому взагалі знадобилося робити щось від давно відомих рішень - у чому тут проблема?

Проблеми існуючих методів відеовиводу

Технології виведення зображення на екран із фіксованою частотою оновлення з'явилися ще з тих часів, коли використовувалися монітори на електронно-променевих трубках (ЕЛТ). Більшість читачів мають їх пам'ятати - пузатенькі такі, як і давні телевізори. Ці технології спочатку розроблялися для показу телевізійного зображення з фіксованою частотою кадрів, але у випадку пристроїв для виведення 3D-картинки, що динамічно розраховується на ПК, це рішення викликає великі проблеми, не вирішені досі.

Навіть найсучасніші РК-монітори мають фіксовану частоту оновлення зображення на екрані, хоча технологічно ніщо не заважає змінювати картинку на них у будь-який час, з будь-якою частотою (у розумних межах, зрозуміло). Але ПК-гравці з давніх-давен ЕПТ-моніторів змушені миритися з явно неідеальним рішенням проблеми синхронізації частоти кадрів 3D-рендерингу та частоти оновлення монітора. Варіантів виведення зображення досі було зовсім небагато - два, і вони мають недоліки.

Корінь всіх проблем полягає в тому, що при фіксованій частоті оновлення картинки на моніторі, відеокарта малює кожен кадр за різний час - так виходить через складність сцени, що постійно змінюється, і навантаження на графічний процесор. І час рендерингу кожного кадру є непостійним, він змінюється кожен кадр. Не дивно, що при спробі вивести ряд кадрів на монітор виникають проблеми синхронізації, адже деякі з них вимагають значно більше часу на малювання, ніж інші. У результаті виходить різний час підготовки кожного кадру: то 10 мс, то 25 мс, наприклад. А монітори, що існують до появи G-Sync, могли виводити кадри тільки через певний проміжок часу - не раніше, не пізніше.

Справа ускладнюється ще й багатством програмно-апаратних конфігурацій ігрових ПК, у поєднанні з дуже сильно різним навантаженням в залежності від гри, налаштувань якості, налаштувань відеодрайвера і т. д. В результаті, неможливо налаштувати кожну ігрову систему так, щоб підготовка кадрів велася з постійним або хоча б не надто різним часом у всіх 3D-додатках та умовах - як це можливо на ігрових консоляхз їхньою єдиною апаратною конфігурацією.

Природно, що на відміну від консолей з їх передбачуваним часом рендерингу кадрів, ПК-гравці досі серйозно обмежені можливості досягнення плавного ігрового ряду без відчутних просадок і лагів. В ідеальному (читай - неможливому насправді) випадку, оновлення зображення на моніторі має здійснюватися строго після того, як графічним процесором розрахований і підготовлений черговий кадр:

Як бачите, у цьому гіпотетичному прикладі GPU завжди встигає відмалювати кадр до того часу, як його потрібно передати на монітор – час кадру завжди трохи менше часу між оновленнями інформації на дисплеї, а у перервах графічний процесор трохи відпочиває. Але насправді ж все зовсім по-іншому - час малювання кадрів сильно відрізняється. Уявіть, якщо GPU не встигає відрендерити кадр за відведений час - тоді кадр необхідно або виводити пізніше, пропустивши одне оновлення зображення на моніторі (вертикальна синхронізація включена - V-Sync On), або виводити кадри частинами при відключеній синхронізації, і тоді на моніторі одночасно будуть присутні шматки з кількох сусідніх кадрів.

Більшість користувачів вимикають V-Sync, щоб отримати менші затримки та більш плавне виведення кадрів на екран, але це рішення сприяє появі видимих ​​артефактів у вигляді розривів зображення. А з увімкненою синхронізацією розривів картинки не буде, тому що кадри виводяться виключно повністю, але затримка між дією гравця та оновленням зображення на екрані зростає, а частота виведення кадрів виходить дуже нерівномірною, оскільки GPU ніколи не малює кадри у суворій відповідності з часом оновлення картинки. на моніторі.

Ця проблема існує вже багато років і явно заважає комфорту при перегляді результату 3D-рендерінгу, але до деяких пір ніхто так і не спромігся її вирішити. А рішення те в теорії досить просте - потрібно просто виводити інформацію на екран суворо тоді, коли GPU закінчує роботу над наступним кадром. Але давайте спочатку ще докладніше розберемо на прикладах, як працюють існуючі технології виведення зображення, і яке рішення пропонує нам компанія Nvidia у своїй технології G-Sync.

Недоліки виведення при відключеній синхронізації

Як ми вже згадували, абсолютна більшість гравців вважає за краще тримати синхронізацію вимкненої (V-Sync Off), щоб отримати відображення відмальованих графічним процесором кадрів на моніторі максимально оперативно та з мінімальною затримкою між дією гравця (натискання клавіш, команди від миші) та їх відображенням. Для серйозних гравців це необхідно для перемог, та й для звичайних у такому разі відчуття будуть приємнішими. Ось так робота з відключеним V-Sync виглядає схематично:

Проблем та затримок із виведенням кадрів немає. Але хоча відключена вертикальна синхронізація вирішує проблему лага наскільки це можливо, забезпечуючи мінімальну затримку, разом з цим з'являються артефакти на зображенні - розрив картинки, коли зображення на екрані складається з декількох шматків сусідніх кадрів, відмальованих графічним процесором. Також помітна і відсутність плавності відеоряду через нерівномірність кадрів, що надходять від GPU на екран - розривів зображення в різних місцях.

Ці розриви зображення виникають в результаті виведення картинки, що складається з двох з кадрів, відрендерованих на GPU за час одного циклу оновлення інформації на моніторі. З кількох – коли частота кадрів перевищує частоту оновлення монітора, і з двох – коли приблизно відповідає їй. Подивіться на діаграму, зображену вище - якщо вміст кадрового буфера оновлюється всередині між часом виведення інформації на монітор, то підсумкова картинка на ньому буде спотворена - частина інформації в такому випадку належить до попереднього кадру, а решта - до поточного малюється.

З відключеною синхронізацією кадри передаються на монітор абсолютно без огляду на частоту та час його оновлення, тому ніколи не співпадають із частотою оновлення монітора. Іншими словами, з відключеним V-Sync на моніторах без підтримки G-Sync завжди будуть спостерігатися такі розриви зображення.

Йдеться не тільки про те, що гравцеві неприємно спостерігати смуги, що смикаються по всьому екрану, але й про те, що одночасне відмальовування частин різних кадрів може дезінформувати мозок, що особливо помітно при динамічних об'єктах у кадрі - гравець бачить зрушені відносно один одного частини об'єктів. Миритися з цим доводиться лише тому, що відключення V-Sync забезпечує мінімальні затримки виведення Наразі, але далеко не ідеальна якість динамічного зображення, як ви можете переконатися на наступних прикладах (на кліку доступні кадри в повній роздільній здатності):

На прикладах вище, знятих за допомогою програмно-апаратного комплексу FCAT, ви можете переконатися, що реальне зображення на екрані може бути складено зі шматків декількох сусідніх кадрів - причому іноді і нерівномірно, коли від одного з кадрів береться вузька смужка, а сусідні займають решту ( помітно більшу) частину екрана.

Ще наочніше проблеми з розривом зображення помітні в динаміці (якщо ваша система і/або браузер не підтримує програвання роликів MP4/H.264 у роздільній здатності 1920×1080 пікселів з частотою оновлення 60 FPS, то вам доведеться завантажити їх і переглянути локально відповідними можливостями):

Як бачите, навіть у динаміці легко помітні неприємні артефакти як розривів картинки. Давайте подивимося, як це виглядає схематично - на діаграмі, де показаний метод виведення при відключеної синхронізації. При цьому кадри надходять на монітор відразу після того, як роботу над їх рендерингом закінчує GPU, і зображення виводиться на дисплей навіть якщо виведення інформації з поточного кадру ще не закінчено повністю - частина буфера, що залишилася, припадає на наступне оновлення екрана. Саме тому кожен виведений на монітор кадр нашого прикладу складається з двох відмальованих на GPU кадрів – з розривом зображення у позначеному червоним кольором місці.

У цьому прикладі перший кадр (Draw 1) малюється графічним процесором в екранний буфер швидше, ніж його час оновлення 16,7 мс - і раніше, ніж зображення буде передано монітору (Scan 0/1). GPU відразу починає роботу над наступним кадром (Draw 2), який і розриває картинку на моніторі, що містить ще половину попереднього кадру.

В результаті у багатьох випадках на зображенні з'являється явно помітна смуга - межа між частковим відображенням сусідніх кадрів. Надалі цей процес повторюється, тому що GPU працює над кожним кадром різну кількість часу, і без синхронізації процесу кадри від GPU та виведені на монітор ніколи не співпадають.

Плюси та мінуси вертикальної синхронізації

При включенні традиційної вертикальної синхронізації (V-Sync On) інформація на моніторі оновлюється тільки тоді, коли робота над кадром повністю закінчена графічним процесором, що виключає розриви в зображенні, адже кадри виводяться на екран виключно повністю. Але, оскільки монітор оновлює вміст лише у певні проміжки часу (залежно від характеристик пристрою виведення), ця прив'язка приносить інші проблеми.

Більшість сучасних РК-моніторів оновлюють інформацію із частотою 60 Гц, тобто 60 разів на секунду – приблизно кожні 16 мілісекунд. І з увімкненою синхронізацією час виведення зображення жорстко прив'язаний до частоти оновлення монітора. Але, як ми знаємо, частота рендерингу кадрів на GPU завжди змінна, і час малювання кожного кадру відрізняється в залежності від складності 3D-сцени, що постійно змінюється, і налаштувань якості.

Воно не може бути завжди рівним 16,7 мс, а буде або менше цього значення або більше. При включеній синхронізації робота графічного процесора над кадрами знову завершується то раніше, то пізніше часу оновлення екрана. У випадку, якщо кадр був відмальований швидше за цей момент, то особливих проблем немає - візуальна інформація просто чекає часу оновлення монітора для виведення кадру на екран повністю, а GPU простоює. А ось якщо кадр не встигає відрендеритися за відведений час, то йому доводиться чекати наступного циклу оновлення зображення на моніторі, що викликає збільшення затримки між діями гравця та візуальним відображенням на екрані. При цьому на екран знову виводиться зображення попереднього "старого" кадру.

Хоча все це відбувається досить швидко, але збільшення затримки візуально легко помітне, і не тільки професійними гравцями. Оскільки час рендеринга кадрів завжди змінний, то включення прив'язки до частоти оновлення монітора викликає ривки при виведенні динамічного зображення, адже кадри виводяться то швидко (рівно частоті оновлення монітора), то вдвічі-втричі-вчетверо повільніше. Розглянемо схематичний приклад такої роботи:

На ілюстрації показано, як кадри виводяться на монітор при увімкненій вертикальній синхронізації (V-Sync On). Перший кадр (Draw 1) малюється графічним процесором швидше, ніж 16,7 мс, тому GPU не переходить до роботи над відображенням наступного кадру, і не розриває зображення, як у випадку V-Sync Off, а очікує на повне виведення першого кадру на монітор. І вже після цього починає малювати наступний кадр (Draw 2).

А ось робота над другим кадром (Draw 2) займає більше часу ніж 16,7 мс, тому після їх закінчення на екран виводиться візуальна інформація з попереднього кадру, і він показується на екрані ще 16,7 мс. І навіть після того, як GPU закінчує роботу над наступним кадром, він не виводиться на екран, оскільки монітор має фіксовану частоту оновлення. Загалом доводиться чекати 33,3 мс для виведення другого кадру, і весь цей час додається до затримки між дією гравця та закінченням виведення кадру на монітор.

До проблеми тимчасового лага додається ще й розрив у плавності відеоряду, помітний за смиканням 3D-анімації. Дуже наочно проблема показана у короткому відеоролику:

Адже навіть найпотужніші графічні процесори у вимогливих сучасних іграх не завжди можуть забезпечити досить високу частоту кадрів, що перевищує типову частоту оновлення моніторів 60 Гц. І, відповідно, не дадуть можливості комфортної гри із включеною синхронізацією та відсутністю проблем на кшталт розриву картинки. Особливо якщо мова про такі ігри, як мережева гра Battlefield 4, дуже вимогливі Far Cry 4 і Assassin Creed Unity у високих дозволах і максимальних ігрових налаштуваннях.

Тобто, вибір у сучасного гравця невеликий - або отримуй відсутність плавності та збільшені затримки, або задовольняйся неідеальною якістю картинки з розірваними шматками кадрів. Звичайно, насправді все виглядає далеко не так вже й погано, адже якось ми грали весь цей час, правда? Але в часи, коли намагаються досягти ідеалу як і в комфорті, хочеться більшого. Тим більше, що РК-дисплеї мають принципову технологічну можливість виводити кадри тоді, коли на це вкаже графічний процесор. Справа за малим – зв'язати GPU та монітор, і таке рішення вже є – технологія Nvidia G-Sync.

Технологія G-Sync - вирішення проблем у виконанні Nvidia

Отже, більшість сучасних ігор у варіанті з вимкненою синхронізацією викликають розриви картинки, а з включеною – неплавну зміну кадрів та збільшені затримки. Навіть за високої частоти оновлення традиційні монітори не дозволяють позбутися цих проблем. Ймовірно, вибір між двома далеко не ідеальними варіантами виведення кадрів у 3D-додатках за багато років настільки набрид працівникам компанії Nvidia, що вони вирішили позбутися проблем, давши гравцям принципово новий підхід до оновлення інформації на дисплеї.

Різниця між технологією G-Sync і існуючими методами виведення зображення на дисплеї полягає в тому, що час і частота виведення кадрів у випадку варіанта Nvidia визначається графічним процесором Geforce, і вона динамічно змінюється, а не фіксованою, як це було раніше. Іншими словами, у цьому випадку повне управлінняВиведенням кадрів бере на себе GPU - як тільки він закінчує роботу над черговим кадром, він виводиться на монітор, без затримок та розривів зображення.

Використання подібного зв'язку між графічним процесором і спеціальним чином адаптованою апаратною частиною монітора, дає гравцям найкращий метод виведення - просто ідеальний, з точки зору якості, що позбавляє всіх зазначених вище проблем. G-Sync забезпечує ідеально плавну зміну кадрів на моніторі, без затримок, ривків і артефактів, викликаних саме виведенням візуальної інформації на екран.

Природно, G-Sync працює не чарівним чином, і для роботи технології з боку монітора потрібно додати спеціальну апаратну логіку у вигляді невеликої плати, яку поставляє Nvidia.

Компанія працює з виробниками моніторів, щоб ті включили плати G-Sync до їх моделей ігрових дисплеїв. Для деяких моделей є навіть варіант апгрейду руками самого користувача, але такий варіант дорожчий та й не має сенсу, адже простіше відразу купити G-Sync-монітор. Від ПК досить присутності в його конфігурації будь-якої з сучасних відеокарт Nvidia Geforce, та й встановленого G-Sync-оптимізованого відеодрайвера - підійде кожна з нових версій.

При задіянні технології Nvidia G-Sync, після закінчення обробки чергового кадру 3D-сцени, графічний процесор Geforce посилає спеціальний сигнал у платі контролера G-Sync, вбудовану в монітор, а та вказує монітору, коли потрібно оновити зображення на екрані. Це дозволяє досягти просто ідеальної плавності та чуйності при грі на ПК - ви можете переконатися в цьому, переглянувши коротенький відеоролик (обов'язково при 60 кадрах на секунду!):

Давайте подивимося, як виглядає робота конфігурації з увімкненою технологією G-Sync, за нашою схемою:

Як бачите, все дуже просто. Увімкнення G-Sync прив'язує частоту оновлення монітора до закінчення візуалізації кожного кадру на графічному процесорі. GPU повністю контролює роботу: як тільки він закінчує прорахунок кадру, зображення відразу виводиться на G-Sync-сумісний монітор, і в результаті виходить не фіксована частота оновлення дисплея, а змінна - як частота кадрів GPU. Це усуває проблеми з розривом зображення (адже воно завжди містить інформацію з одного кадру), мінімізує ривки у частоті кадрів (монітор не чекає більше часу, ніж кадр фізично обробляється на GPU) та знижує затримки виводу щодо методу із включеною вертикальною синхронізацією.

Треба сказати, що подібного рішеннягравцям явно не вистачало, новий метод синхронізації GPU і монітора Nvidia G-Sync реально дуже сильно позначається на комфорті гри на ПК - з'являється та сама майже ідеальна плавність, якої не було досі - в наш час надпотужних відеокарт! З моменту анонсу технології G-Sync, старі методи миттєво стали анахронізмом і апгрейд до G-Sync-монітора, здатного на змінну частоту оновлення до 144 Гц, здається дуже привабливим варіантом, що дозволяє нарешті позбавитися проблем, лагів і артефактів.

Чи є у G-Sync недоліки? Звичайно, як і будь-яка технологія. Наприклад, у G-Sync є неприємне обмеження, яке полягає в тому, що вона забезпечує плавне виведення кадрів на екран при частоті від 30 FPS. А вибрана частота оновлення монітора в режимі G-Sync встановлює верхню планку швидкості оновлення вмісту екрана. Тобто, при виставленій частоті оновлення 60 Гц максимальна плавність забезпечуватиметься на частоті 30-60 FPS, а за 144 Гц - від 30 до 144 FPS, але не менше нижньої межі. І при змінній частоті (наприклад, від 20 до 40 FPS), результат вже не буде ідеальним, хоча й помітно краще за традиційний V-Sync.

Але найголовнішим недоліком G-Sync є те, що це – власна технологія компанії Nvidia, до якої немає доступу у конкурентів. Тому, на початку року, що минає, компанія AMD анонсувала аналогічну технологію FreeSync - також полягає в динамічній зміні кадрової частоти монітора відповідно до підготовки кадрів від GPU. Важлива відмінність у тому, що розробка AMD відкрита і не вимагає додаткових апаратних рішень у вигляді спеціалізованих моніторів, оскільки FreeSync перетворилася на Adaptive-Sync, що стала опціональною частиною стандарту DisplayPort 1.2a від відомої організації VESA (Video Electronics Standards Association). Виходить, що компанія AMD вміло скористається розробленою конкурентом темою собі на благо, тому що без появи та популяризації G-Sync ніякого FreeSync би у них не було, як нам здається.

Цікаво, що технологія Adaptive-Sync також є частиною стандарту VESA embedded DisplayPort (eDP), і вже застосовується в багатьох компонентах для дисплеїв, в яких використовується eDP для передачі сигналу. Ще одна відмінність від G-Sync - учасники VESA можуть використовувати Adaptive-Sync без необхідності оплати. Втім, ймовірно, що Nvidia в майбутньому також буде підтримувати і Adaptive-Sync, як частина стандарту DisplayPort 1.2a, адже така підтримка не вимагатиме від них особливих зусиль. Але й від G-Sync компанія не відмовиться, оскільки вважає за пріоритетні власні рішення.

Перші монітори з підтримкою Adaptive-Sync повинні з'явитися в першому кварталі 2015 року, вони матимуть не лише порти DisplayPort 1.2a, а й спеціальну підтримку Adaptive-Sync (не всі монітори з підтримкою DisplayPort 1.2a зможуть цим похвалитися). Так, компанія Samsungу березні 2015 року планує вивести на ринок лінійки моніторів Samsung UD590 (23,6 та 28 дюймів) та UE850 (23,6, 27 та 31,5 дюймів) з підтримкою дозволу UltraHD та технології Adaptive-Sync. Компанія AMD запевняє, що монітори з підтримкою цієї технології будуть до $100 дешевшими за аналогічні пристрої з підтримкою G-Sync, але їх складно порівнювати, тому що всі монітори різні і виходять у різний час. До того ж, на ринку вже є і не такі вже й дорогі G-Sync-моделі.

Наочна різниця та суб'єктивні враження

Вище ми описали теорію, а тепер настав час показати все наочно та описати свої відчуття. Ми протестували технологію Nvidia G-Sync на практиці в декількох 3D-додатках, використовуючи відеокарту Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra та монітор Asus PG278Q, що підтримує технологію G-Sync. На ринку продається кілька моделей моніторів з підтримкою G-Sync від різних виробників: Asus, Acer, BenQ, AOC та інших, а для монітора моделі Asus VG248QE можна навіть купити набір для модернізації його підтримки G-Sync власними силами.

Наймолодшою ​​моделлю відеокарти для використання технології G-Sync є Geforce GTX 650 Ti, з винятково важливою вимогою роз'єму DisplayPort на борту. З інших системних вимог відзначимо операційну систему як мінімум Microsoft Windows 7, застосування хорошого кабелю DisplayPort 1.2, а також рекомендується використання якісної миші з високою чутливістю та частотою опитування. Технологія G-Sync працює з усіма повноекранними 3D-програмами, що використовують графічні API OpenGL і Direct3D при запуску в операційних системах Windows 7 і 8.1.

Для роботи підійде будь-який сучасний драйвер, який G-Sync вже більше року підтримується всіма драйверами компанії. За наявності всіх необхідних компонентів, потрібно лише включити G-Sync у драйверах, якщо це ще не зроблено, і технологія буде працювати у всіх повноекранних програмах - і тільки в них, виходячи із самого принципу роботи технології.

Щоб увімкнути технологію G-Sync для повноекранних програм і отримати максимально комфортний результат, потрібно включити частоту оновлення 144 Гц на панелі управління Nvidiaабо налаштування робочого столу операційної системи. Потім, переконайтеся, що використання технології дозволено на відповідній сторінці «Налаштування G-Sync».

А також - вибрати відповідний пункт на сторінці "Керування параметрами 3D" у параметрі "Вертикальний синхроімпульс" глобальних параметрів 3D. Там же можна і відключити використання технології G-Sync у тестових цілях або при появі будь-яких проблем (забігаючи вперед - за час нашого тестування нами не було виявлено).

Технологія G-Sync працює на всіх дозволах, що підтримуються моніторами, аж до UltraHD, але в нашому випадку ми використовували рідну роздільну здатність 2560×1440 пікселів при 144 Гц. У своїх порівняннях з поточним станом справ використовувався режим із частотою оновлення 60 Гц і відключеною технологією G-Sync, щоб емулювати поведінку типових моніторів без підтримки цієї технології, присутніх у більшості гравців. Більшість з яких використовує Full HD-монітори, що здатні максимум режим на 60 Гц.

Обов'язково треба згадати, що хоча при включеному G-Sync оновлення екрану буде на ідеальній частоті - коли цього «хоче» графічний процесор, оптимальним режимом все ж таки буде рендеринг з частотою кадрів близько 40-60 FPS - це найбільш підходяща частота кадрів для сучасних ігор, не надто маленька, щоб упертись у нижню межу 30 FPS, але й не потребує зниження налаштувань. До речі, саме такої частоти прагнуть у програмі Geforce Experience компанії Nvidia, надаючи відповідні налаштування для популярних ігор в однойменному ПЗ, що додається в комплекті з драйверами.

Крім ігор, ми також випробували і спеціалізований тестовий додаток від Nvidia. Ця програма показує зручну для оцінки плавності та якості 3D-сцену з маятником, дозволяє імітувати різну частоту кадрів та вибирати режим відображення: V-Sync Off/On та G-Sync. За допомогою даного тестового програмного забезпечення дуже легко показати різницю між різними режимами синхронізації - наприклад, між V-Sync On і G-Sync:

Додаток Pendulum Demo дозволяє протестувати різні способисинхронізації в різних умовах, воно імітує точну частоту кадрів 60 FPS для порівняння V-Sync та G-Sync в ідеальних для застарілого способу синхронізації умовах – у цьому режимі різниці між методами просто не повинно бути. А ось режим 40-50 FPS ставить V-Sync On у незручне положення, коли затримки та неплавна зміна кадрів видно неозброєним поглядом, оскільки час рендерингу кадру перевищує період оновлення при 60 Гц. При включенні G-Sync все стає ідеально.

Що стосується порівняння режимів з відключеною V-Sync і включеним G-Sync, то і тут додаток Nvidia також допомагає побачити різницю - при частотах кадрів між 40 і 60 FPS розриви зображення видно чітко, хоча лагів менше, ніж при V-Sync On. І навіть неплавний відеоряд щодо G-Sync режиму помітний, хоча теоретично цього не повинно бути - можливо, так позначається сприйняття мозком «розірваних» кадрів.

Ну а з увімкненим G-Sync будь-який з режимів тестової програми (постійна частота кадрів або змінна - не важливо) завжди забезпечується максимально плавний відеоряд. Та й в іграх всі проблеми традиційного підходу до оновлення інформації на моніторі з фіксованою частотою оновлення часом помітні мало не ще сильніше - в даному випадку ви можете наочно оцінити різницю між усіма трьома режимами на прикладі гри StarCraft II (перегляд раніше збереженого запису):

Якщо ваша система та браузер підтримує програвання формату відео даних MP4/H.264 з частотою 60 FPS, то ви наочно побачите, що в режимі відключеної синхронізації помітні явні розриви картинки, при включенні V-Sync спостерігаються ривки та неплавність відеоряду. Все це пропадає при включенні Nvidia G-Sync, при якій немає ні артефактів на зображенні, ні збільшення затримок, ні рваного темпу зміни кадрів.

Звичайно ж, G-Sync - це не чарівна паличка, і від затримок та пригальмовувань, викликаних не самим процесом виведення кадрів на монітор з фіксованою частотою оновлення, ця технологія не позбавить. Якщо у самій грі є проблеми з плавністю виведення кадрів та великі ривки у FPS, викликані завантаженням текстур, обробкою даних на CPU, неоптимальною роботоюз відеопам'яттю, відсутністю оптимізації коду і т. д., то вони залишаться на місці. Більше того, вони стануть помітні навіть ще сильніше, тому що виведення інших кадрів буде ідеально плавним. Втім, на практиці на потужних системах проблеми зустрічається не надто часто, і G-Sync реально покращує сприйняття динамічного відеоряду.

Так як нова технологія виведення Nvidia впливає на весь конвеєр виводу, то вона теоретично може викликати артефакти та нерівномірність у частоті кадрів, особливо якщо гра штучно обмежує FPS на будь-якій позначці. Мабуть, такі випадки якщо й є, то настільки рідкісні, що ми їх навіть не помітили. Зате відзначили явне покращення комфорту при грі - при грі за монітором із задіяною технологією G-Sync складається таке враження, що ПК став настільки потужнішим, що здатний до постійної частоти кадрів не менше 60 FPS без будь-яких просадок.

Отримані під час гри G-Sync монітором відчуття дуже складно описати словами. Особливо помітна різниця при 40-60 FPS - частоті кадрів, що дуже часто зустрічається у вимогливих сучасних іграх. Різниця в порівнянні зі звичайними моніторами просто приголомшлива, і ми постараємося не тільки розповісти це словами та показати у відеоприкладах, але й показати графіки частоти кадрів, отримані за різних режимів виведення зображення на дисплей.

В іграх таких жанрів, як стратегії реального часу і подібних, на зразок StarCraft II, League of Legends, DotA 2 і т.д., переваги технології G-Sync відмінно видно, як можна переконатися за прикладом з відеоролика вище. Крім цього, такі ігри завжди вимагають стрімких дій, що не терплять затримок та неплавності в частоті кадрів, а плавний скролінг відіграє досить важливу роль у комфорті, якому сильно заважають розриви картинки при V-Sync Off, затримки та лаги при V-Sync On. Так що технологія G-Sync ідеально підійде для ігор такого типу.

Ще більше поширені шутери від першої особи, на зразок Crysis 3 і Far Cry 4, вони заодно є і дуже вимогливими до обчислювальних ресурсів, і при високих налаштуваннях якості гравці в них часто отримують частоту кадрів близько 30-60 FPS - ідеальний варіант для застосування G-Sync, що реально значно покращує комфорт при грі в таких умовах. Традиційний метод вертикальної синхронізації дуже часто змусить виводити кадри з частотою всього лише 30 FPS, збільшуючи лаги і ривки.

Приблизно те саме стосується ігор з видом від третьої особи, на зразок серіалів Batman, Assassin Creed і Tomb Raider. Ці ігри також використовують новітні графічні технології та вимагають досить потужних GPU для досягнення високої частоти кадрів. При максимальних налаштуваннях у цих іграх та відключенні V-Sync часто виходить FPS близько 30-90, що викликає неприємні розриви зображення. Увімкнення V-Sync допомагає лише в деяких сценах з меншими вимогами до ресурсів, а частота кадрів скаче від 30 до 60 східчасто, що спричиняє уповільнення та ривки. А включення G-Sync вирішує всі ці проблеми, і це добре помітно на практиці.

Результати практичних тестів

У цьому розділі ми розглянемо вплив G-Sync та V-Sync на частоту кадрів – за графіками продуктивності можна наочно зрозуміти, як працюють різні технології. За час тестування ми перевірили кілька ігор, але далеко не всіма зручно показати різницю між V-Sync та G-Sync – деякі ігрові бенчмарки не дозволяють форсувати V-Sync, інші ігри не мають зручного засобу з програвання точної ігрової послідовності (більшість сучасних ігор, на жаль), треті виконуються на нашій тестовій системі або надто швидко або у вузьких межах частоти кадрів.

Так що ми зупинилися на грі Just Cause 2 з максимальними налаштуваннями, а також парою бенчмарків: Unigine Heaven та Unigine Valley - також при максимальних налаштуваннях якості. Частота кадрів у цих додатках змінюється у досить широких межах, що зручно для нашої мети – показати, що відбувається з виведенням кадрів у різних умовах.

На жаль, на даний момент у нас немає програмно-апаратної системи FCAT, і ми не зможемо показати графіки реального FPS і записані відеоролики в різних режимах. Натомість ми провели тестування щосекундної усередненої та миттєвої частоти кадрів за допомогою відомої утиліти при частоті оновлення монітора 60 і 120 Гц з використанням методів оновлення екрана V-Sync On, V-Sync Off, з використанням адаптивної синхронізації Adaptive V-Sync, а також з технологією G-Sync при 144 Гц, щоб показати наочну різницю між новою технологієюта нинішніми 60 Гц моніторами з традиційною вертикальною синхронізацією.

G-Sync проти V-Sync On

Почнемо ми наше дослідження з порівняння режимів із включеною вертикальною синхронізацією (V-Sync On) та технологією G-Sync - це найбільш показове порівняння, в якому буде видно різницю між методами, які не мають недоліків у вигляді розриву зображення. Першим ми розглянемо тестовий додаток Heaven при максимальних налаштуваннях якості в роздільній здатності 2560×1440 пікселів (на кліку на зменшених картинках відкриваються графіки в повній роздільній здатності):

Як видно з графіки, частота кадрів при включеному G-Sync і за відсутності синхронізації практично збігається, крім частоти вище 60 FPS. А ось FPS в режимі з увімкненим методом вертикальної синхронізації помітно відрізняється, адже в ньому частота кадрів може бути нижчою або рівною 60 FPS і кратною цілим числам: 1, 2, 3, 4, 5, 6..., тому що монітору іноді доводиться показувати той самий попередній кадр по кілька періодів оновлення (два, три, чотири і так далі). Тобто, можливі «ступені» значення частоти кадрів за V-Sync On і 60 Гц: 60, 30, 20, 15, 12, 10, ... FPS.

Ця ступінчастість відмінно видно по червоній лінії графіка - під час прогону даного тесту, частота кадрів часто дорівнювала 20 або 30 FPS, і значно рідше - 60 FPS. Хоча за G-Sync та V-Sync Off (No Sync) вона часто знаходилася в ширших межах: 35–50 FPS. При увімкненому режимі V-Sync така частота виведення неможлива, тому монітор показує у таких випадках завжди 30 FPS - обмежуючи продуктивність та додаючи затримки до загального часу виведення.

Треба відзначити, що на графіці вище показана не миттєва частота кадрів, а усереднені значення в межах секунди, а насправді FPS може «стрибати» куди сильніше – чи не кожен кадр, що викликає неприємну неплавність і лаги. Для того, щоб побачити це наочно, наведемо пару графіків з миттєвим FPS – точніше, з графіками часу рендерингу кожного кадру у мілісекундах. Перший приклад (лінії дещо зсунуті щодо один одного, показано лише зразкову поведінку в кожному режимі):

Як бачите, у цьому прикладі частота кадрів у разі G-Sync змінюється більш-менш плавно, а з V-Sync On - східчасто (поодинокі стрибки часу рендерингу є в обох випадках - це нормально). Для включеної вертикальної синхронізації час рендерингу та виведення кадру може бути 16,7 мс; 33,3 мс; 50 мс, що видно на графіку. У цифрах FPS це відповідає 60, 30 та 20 кадрам за секунду. Крім цього, особливої ​​різниці між поведінкою двох ліній немає, піки є в обох випадках. Розглянемо ще один показовий відрізок часу:

У цьому випадку очевидні «метанія» часу рендерингу кадрів, а разом з ними і FPS у випадку з включеною вертикальною синхронізацією. Подивіться, при V-Sync On спостерігається стрибкоподібна зміна часу рендерингу кадру від 16,7 мс (60 FPS) до 33,3 мс (30 FPS) і назад - насправді це викликає ту саму некомфортну неплавність і видимі ривки відеоряду. Плавність зміни кадрів у випадку G-Sync куди вища і грати в такому режимі буде помітно комфортніше.

Розглянемо графік FPS у другому тестовому додатку - Unigine Valley:

У цьому бенчмарку ми відзначаємо приблизно те саме, що і в Heaven. Частота кадрів у режимах G-Sync і V-Sync Off майже збігається (крім піку вище 60 Гц), а включений V-Sync викликає явно ступінчасту зміну FPS, найчастіше показуючи 30 FPS, іноді скочуючи до 20 FPS і підвищуючись до 60 FPS. Типова поведінка цього методу, що викликає лаги, ривки та неплавність відеоряду.

У цьому підрозділі нам залишилося розглянути відрізок із вбудованого тесту гри Just Cause 2:

Ця гра добре показує всю неповноцінність застарілого способу синхронізації V-Sync On! При частоті кадрів, що змінюється, від 40 до 60-70 FPS, лінії G-Sync і V-Sync Off майже збігаються, а ось частота кадрів при V-Sync On доходить до 60 FPS лише на відрізках малої тривалості. Тобто за реальних можливостей GPU для гри на 40-55 FPS гравець буде задовольнятися лише 30 FPS.

Більш того, на ділянці графіка, де червона лінія стрибає від 30 до 40 FPS, насправді при перегляді зображення спостерігається явна неплавність частоти кадрів - вона стрибає від 60 до 30 чи не кожен кадр, що явно не додає плавності та комфорту під час гри. Але чи може бути з частотою оновлення кадрів 120 Гц вертикальна синхронізація впорається краще?

G-Sync проти V-Sync 60/120 Гц

Розглянемо два режими включеної вертикальної синхронізації V-Sync On при 60 і 120 Гц частоті оновлення зображення, порівнявши їх із режимом V-Sync Off (як ми визначили раніше, ця лінія практично ідентична з G-Sync). При частоті оновлення 120 Гц до вже відомих нам «ступеням» FPS додається більше значень: 120, 40, 24, 17 FPS тощо, що може зробити графік менш ступінчастим. Подивимося на частоту кадрів у бенчмарку Heaven:

Помітно, що частота оновлення 120 Гц допомагає режиму V-Sync On досягти кращої продуктивності та більш плавної зміни частоти кадрів. У випадках, коли за 60 Гц на графіку спостерігається 20 FPS, 120 Гц режим дає проміжне значення хоча б 24 FPS. І 40 FPS замість 30 FPS на графіку явно помітні. Але сходинок стало не менше, а навіть більше, так що частота кадрів при 120 Гц оновлення хоч і змінюється на меншу величину, зате робить це частіше, що також несприятливо позначається на загальній плавності.

У бенчмарку Valley змін менше, тому що середня частота кадрів найближча до рівня 30 FPS, доступної для обох режимів: з частотою оновлення 60 і 120 Гц. Вимкнена синхронізація забезпечує більш плавну зміну кадрів, але з візуальними артефактами, а режими V-Sync On знову показують ступінчасті лінії. У цьому підрозділі нам залишилося переглянути гру Just Cause 2.

І знову ми наочно бачимо, як ущербна вертикальна синхронізація, що не забезпечує плавної зміни кадрів. Навіть перехід на 120 Гц частоту оновлення дає режиму V-Sync On просто лише кілька додаткових «сходинок» FPS - стрибки частоти кадрів туди-сюди від одного ступеня до іншого нікуди не поділися - все це дуже неприємно відчувається при перегляді анімованих 3D-сцен, можете повірити нам на слово або знову переглянути приклади відеороликів вище.

Вплив методу виведення на середню частоту кадрів

А що виходить із середньою частотою кадрів при включенні всіх цих режимів синхронізації, як впливає на середню продуктивність включення V-Sync та G-Sync? Приблизно прикинути втрати швидкості можна навіть за графіками FPS, наведеними вище, але ми наведемо і середні значення частоти кадрів, отримані нами під час тестування. Першою знову буде Unigine Heaven:

Показники в режимах Adaptive V-Sync та V-Sync Off практично збігаються – адже вище 60 FPS швидкість майже не підвищується. Логічно, що включення V-Sync призводить до зниження середньої частоти кадрів, так як в цьому режимі використовуються ступінчасті показники FPS. При 60 Гц падіння середньої частоти кадрів становило понад чверть, а включення 120 Гц повернуло лише половину втрат у середньому FPS.

Найцікавіше для нас – наскільки знижується середня частота кадрів у режимі G-Sync. З якоїсь причини швидкість вище 60 FPS ріжеться, хоча на моніторі був виставлений режим 144 Гц, тому і швидкість при включенні G-Sync виявилася трохи нижче режиму з відключеною синхронізацією. В цілому можна вважати, що втрат немає зовсім, і їх точно не можна порівняти з недоліком швидкості при V-Sync On. Розглянемо другий бенчмарк – Valley.

В цьому випадку падіння середньої швидкості рендерингу в режимах з включеним V-Sync знизилося, так як частота кадрів весь час тесту була близька до значення 30 FPS - одного з "ступенів" частоти для V-Sync в обох режимах: 60 і 120 Гц. Ну і зі зрозумілих причин втрати у другому випадку виявилися трохи нижчими.

При включенні G-Sync середня частота кадрів знову вийшла меншою за ту, що зазначена в режимі відключеної синхронізації, все з тієї ж причини - включення G-Sync «зарізало» значення FPS вище 60. Але різниця невелика, і новий режим Nvidia забезпечує помітно більшу швидкість , ніж при увімкненій вертикальній синхронізації. Подивимося останню діаграму – середньої частоти кадрів у грі Just Cause 2:

У разі цієї гри режим V-Sync On постраждав значно сильніше, ніж у тестових додатках на двигуні Unigine. Середня частота кадрів у цьому режимі при 60 Гц більш ніж у півтора рази нижче, ніж за відключеної синхронізації зовсім! Включення частоти оновлення 120 Гц сильно покращує положення, але все ж таки G-Sync дозволяє досягти помітно більшої продуктивності навіть у середніх цифрах FPS, не кажучи вже про комфортність гри, яку тепер не оцінити одними лише цифрами - треба дивитися на власні очі.

Отже, у цьому розділі ми з'ясували, що технологія G-Sync забезпечує частоту кадрів, наближену до режиму з відключеною синхронізацією, і її включення майже не впливає на продуктивність. На відміну від вертикальної синхронізації V-Sync, при включенні якої частота кадрів змінюється ступінчасто, а найчастіше спостерігаються стрибки від одного ступеня до іншого, що викликає неплавні рухи при виведенні анімованого ряду кадрів і згубно впливає на комфорт у 3D-іграх.

Іншими словами, і наші суб'єктивні враження та тестові результати говорять про те, що технологія G-Sync від компанії Nvidia дійсно змінює візуальний комфорт від 3D-ігор на краще. Новий метод позбавлений як графічних артефактів у вигляді розривів картинки, що складається з кількох сусідніх кадрів, як ми бачимо в режимі з відключеним V-Sync, так не спостерігається і проблем із плавністю виведення кадрів на монітор та збільшенням затримок виведення, як у режимі V-Sync On.

Висновок

При всіх складностях об'єктивного виміру плавності відеовиводу спочатку хочеться висловити суб'єктивну оцінку. Ми були дуже вражені комфортністю гри на Nvidia Geforce та моніторі з підтримкою G-Sync від компанії Asus. Навіть разова «жива» демонстрація G-Sync справді справляє сильне враження плавністю зміни кадрів, а після тривалої спроби цієї технології, продовжувати грати на моніторі зі старими методами виведення зображення на екран стає дуже сумно.

Мабуть, G-Sync можна вважати найбільшою зміною в процесі виведення візуальної інформації на екран за тривалий час - нарешті ми побачили щось дійсно нове у зв'язку дисплеїв та графічних процесорів, що безпосередньо впливає на комфортність сприйняття 3D-графіки та ще й і так помітно. А до анонсу технології G-Sync компанією Nvidia ми протягом довгих років були прив'язані до застарілих стандартів виведення зображення, що ведуть своє коріння від вимог ТВ- та кіноіндустрії.

Звичайно, хотілося б отримати подібні можливості ще раніше, але і зараз час для її впровадження непоганий, так як у багатьох вимогливих 3D-іграх при максимальних налаштуваннях сучасні топові відеокарти забезпечують таку частоту кадрів, при якій переваги від включення G-Sync стають максимальними. І до появи технології від Nvidia досягнутий в іграх реалізм просто "вбивався" далеко не самими. найкращими способамионовлення картинки на моніторі, що викликають розриви зображення, збільшені затримки та ривки у частоті кадрів. Технологія G-Sync дозволяє позбутися зазначених проблем, прирівнявши частоту виведення кадрів на екран до швидкості рендерингу графічного процесора (хоч і з деякими обмеженнями) - цим процесом тепер управляє сам GPU.

Ми не зустрічали жодної людини, яка спробувала G-Sync у роботі і залишилася незадоволеною цією технологією. Відгуки перших щасливців, які протестували роботу технології на заході Nvidia восени минулого року, були захоплені. Підтримали журналістів зі спеціалізованої преси та ігрові розробники (John Carmack, Tim Sweeney та Johan Andersson) – вони також дали виключно позитивні відгуки новому методу виведення. До яких тепер приєднуємося і ми – після кількох днів використання монітора з G-Sync, на старі пристрої з давно застарілими методами синхронізації повертатися не хочеться. Ах, якби вибір моніторів з G-Sync був більшим, і не були б вони оснащені виключно TN-матрицями.

Ну а з мінусів технології від Nvidia ми можемо відзначити те, що вона працює при частоті кадрів не менше 30 FPS, що можна вважати прикрим недоліком - було б краще, якби і за 20-25 FPS зображення виводилося б чітко після його підготовки на GPU . Але головний мінус технології в тому, що G-Sync – власне рішення компанії, яке не застосовується іншими виробниками графічних процесорів: AMD та Intel. Зрозуміти Nvidia теж можна, адже вони витратили ресурси на розробку та впровадження технології та домовлялися з виробниками моніторів про її підтримку саме з бажанням заробити. Власне, вони в черговий раз виступили двигуном технічного прогресу, незважаючи на жадібність компанії, що здається багатьом, до прибутку. Відкриємо великий «секрет»: прибуток є головною метою будь-якої комерційної компанії, і Nvidia – не виняток.

І все ж таки, майбутнє швидше за більш універсальними відкритими стандартами, аналогічними G-Sync по суті, на зразок Adaptive-Sync - опціональної можливості в рамках DisplayPort 1.2a. Але появи та розповсюдження моніторів з такою підтримкою доведеться почекати ще якийсь час – десь до середини наступного року, а G-Sync-монітори від різних компаній (Asus, Acer, BenQ, AOC та інші) вже продаються протягом кількох місяців , хоч і не дуже дешево. Ніщо не заважає Nvidia в майбутньому підтримати навіть Adaptive-Sync, хоча офіційно вони з цієї теми коментарів не давали. Сподіватимемося, що у шанувальників Geforce не тільки зараз є робоче рішення у вигляді G-Sync, а й у майбутньому з'явиться можливість використовувати динамічну частоту оновлення ще й у рамках загальноприйнятого стандарту.

Серед інших недоліків технології Nvidia G-Sync для користувачів відзначимо те, що її підтримка з боку монітора коштує виробнику суму, яка виливається і у збільшення роздрібної ціни щодо стандартних моніторів. Втім, серед G-Sync-моніторів є моделі різної вартості, у тому числі й не надто дорогі. Головне, що вони вже продаються, і кожен гравець може отримати максимум комфорту при грі прямо зараз, і поки що лише при використанні відеокарт Nvidia Geforce – за цю технологію компанія ручається.

У ті старі добрі часи, коли власники персональних комп'ютерів активно використовували величезні ЕПТ-монітори, заробляючи собі астигматизм, про плавність зображення не могло йтися. Тодішні технології не дуже підтримували і 3D. Тому бідним користувачам доводилося задовольнятися тим, що було. Але час йде, технології розвиваються, і багато хто вже не влаштовує розрив кадру (тиринг) при динамічній грі. Особливо це стосується про кібер-спортсменів. У разі частки секунди вирішують все. Як бути?

Прогрес на місці не вартий. Тому те, що раніше здавалося неможливим, зараз може сприйматися як належне. Така сама ситуація і з якістю зображення на комп'ютері. Виробники відеокарт та інших комплектуючих до ПК зараз працюють над проблемою неякісного виведення зображення на монітори. І треба сказати, що вони вже досить далеко просунулися. Залишається зовсім небагато, і зображення на моніторі стане ідеальним. Але це все – ліричний відступ. Повернемося до нашої теми.

Трохи історії

Багато і моніторів активно намагалися подолати тиринг та покращити зображення. Що тільки вони не винаходили: підвищували герцовість монітора, включали V-Sync. Нічого не помагало. І одного дня відомий виробник відеокарт NVIDIA презентує технологію G-Sync, за допомогою якої можна досягти «нереальної» плавності зображення без будь-яких артефактів. Начебто й добре, але є одне маленьке, але дуже серйозне але. Для використання цієї опції потрібні монітори з підтримкою G-Sync. Довелося піднапружитися виробникам моніторів і викинути на ринок пару десятків моделей. А що далі? Давайте розглянемо технологію і спробуємо розібратися, чи вона хороша.

Що являє собою G-Sync?

G-Sync – технологія виведення на екран від компанії NVIDIA. Характеризується плавністю зміни кадрів без усіляких артефактів. Немає ні розривів зображення, ні підгальмовування. Для адекватної роботи цієї технології потрібно досить сильний комп'ютер, оскільки для обробки цифрового сигналу потрібні великі потужності процесора. Саме тому технологією постачаються лише нові моделі відеокарт від NVIDIA. Крім того, G-Sync – фірмова фішка NVIDIA, тому власникам відеокарт від інших виробників нічого не світить.

Крім потрібен G-Sync-монітор. Справа в тому, що оснащені платою з перетворювачем цифрового сигналу. Власники звичайних моніторів не зможуть скористатися цією чудовою опцією. Несправедливо, звичайно, але така політика сучасних виробників – викачати якнайбільше грошей із бідного користувача. Якщо конфігурація вашого ПК дозволяє використовувати G-Sync, і монітор дивом підтримує цю опцію, то ви цілком можете оцінити всі принади даної технології.

Принцип роботи G-Sync

Спробуємо спрощено пояснити принцип G-Sync. Справа в тому, що звичайний GPU (відеокарта) просто посилає цифровий сигнал на монітор, але не зважає на його частоту. Ось тому сигнал при виведенні на екран виходить «рваним». Сигнал, що йде від GPU, переривається частотою монітора і виглядає непоказно в кінцевому варіанті. Навіть із включеною опцією V-Sync.

При використанні G-Sync GPU регулює частоту монітора. Саме тому сигнали доходять до матриці тоді, коли це справді потрібно. Завдяки цьому з'являється можливість уникнути розривів зображення та підвищити плавність картинки загалом. Оскільки звичайні монітори не дозволяють GPU керувати собою, був винайдений G-Sync-монітор, в який впроваджена плата від NVIDIA, що регулює частоту. Тому використання звичайних моніторів неможливе.

Монітори з підтримкою цієї технології

Пішли в минуле ті часи, коли користувачі вбивали свій зір, годинами дивлячись у давні ЕПТ-монітори. Теперішні моделі відрізняються елегантністю та нешкідливістю. То чому б не додати їм трохи нових технологій? Перший монітор з підтримкою NVIDIA G-Sync та роздільною здатністю 4К був випущений компанією Acer. Новинка справила неабиякий фурор.

Поки що якісні монітори з G-Sync досить рідкісні. Але в планах у виробників є задум зробити ці пристрої стандартними. Швидше за все, через п'ять років монітори за допомогою даної технології стануть стандартним рішенням навіть для офісного ПК. Ну а поки що залишається тільки поглядати на ці новинки і чекати на їхнє повсюдне поширення. Саме тоді вони подешевшають.

Після цього монітори з підтримкою G-Sync почали клепати всі, кому не ліньки. З'явилися навіть бюджетні моделі із цією технологією. Хоча що користь від цієї технології на бюджетному екрані з поганою матрицею? Але, як би там не було, такі моделі мають місце. Оптимальним варіантом для даної опції є (G-Sync на ньому працюватиме на повну силу).

Найкращі монітори з G-Sync

Монітори з технологією G-Sync виділяються в спеціальну лінійку пристроїв. Вони повинні мати характеристики, необхідні для повноцінної роботицієї опції. Зрозуміло, що далеко не всі екрани впораються з таким завданням. Вже зараз визначились кілька лідерів із виробництва таких моніторів. Їхні моделі вийшли дуже вдалими.

Наприклад, монітор G-Sync належить до яскравих представників цієї лінійки. Цей пристрій відноситься до преміум-класу. Чому? Судіть самі. Діагональ екрану становить 34 дюйми, роздільна здатність - 4К, контрастність - 1:1000, 100 Гц, час відгуку матриці - 5 мс. До того ж багато хто хотів би отримати собі цього «монстра». Зрозуміло, що він справді справлятиметься з технологією G-Sync. Йому поки що немає аналогів. Можна спокійно назвати його найкращим у своєму класі та не помилитися.

Взагалі, G-Sync монітори ASUS зараз знаходяться на вершині "Олімпу". Ще жоден виробник не зміг переплюнути цю компанію. І навряд чи колись це вийде. ASUS можна назвати першопрохідцем у цьому плані. Їхні монітори, що підтримують G-Sync, розлітаються, як гарячі пиріжки.

Майбутнє G-Sync

Наразі технологію G-Sync активно намагаються впровадити у ноутбуки. Деякі виробники навіть випустили кілька таких моделей. Причому можуть працювати без плати G-Sync в моніторі. Що й зрозуміло. Все-таки ноутбук має дещо інші конструктивні особливості. Там цілком достатньо відеокарти з підтримкою цієї технології.

Ймовірно, незабаром неабияке місце у комп'ютерній промисловості займе саме NVIDIA G-Sync. Монітори із цією технологією мають подешевшати. Зрештою, ця опція повинна стати повсюдно доступною. Інакше який сенс у її розробці? У будь-якому випадку поки що все не так райдужно. Є деякі проблеми щодо впровадження G-Sync.

У майбутньому технологія G-Sync стане такою ж повсякденною річчю, якою був для нас колись VGA-порт для підключення монітора. А ось усілякі «вертикальні синхронізації» на тлі цієї технології виглядають кричущим анахронізмом. Мало того, що ці застарілі технології не можуть забезпечити задовільну якість картинки, так вони ще й «їдять» чималу кількість. системних ресурсів. Визначено, з появою G-Sync їхнє місце на смітнику історії.

Що таке вертикальна синхронізація в іграх? Ця функція відповідає за правильне відображенняігор на стандартних LCD моніториіз частотою 60 Гц. Коли вона увімкнена, частота кадрів обмежена до 60 Гц, а на екрані не відображаються жодні переривання. Її відключення призведе до збільшення частоти кадрів, але водночас виникне ефект розриву екрана (screen tearing).

Навіщо потрібна синхронізація по вертикалі в іграх

Вертикальна синхронізація є досить спірною темою у іграх. З одного боку, для візуально комфортного ігрового процесу, здається, дуже необхідною, за умови, що у вас стандартний LCD монітор.

Завдяки їй під час гри не виникають жодних похибок на екрані, картинка стабільна і не має розривів. Недоліком є ​​те, що частота кадрів обмежена на межі 60 Гц.

Відключення вертикальної синхронізації також має свої плюси та мінуси. Насамперед надається необмежена частота кадрів FPS і цим повністю прибираємо згаданий input lag. Це зручно в іграх типу Counter-Strike, де важлива реакція та точність. Пересування та прицілювання дуже чіткі, динамічні, кожен рух миші відбувається з високою точністю. У деяких випадках зможемо отримати більшу частоту FPS, тому що V-Sync залежно від відеокарти може трохи зменшити продуктивність обладнання (різниця близько 3-5 FPS). На жаль, недоліком є ​​те, що без вертикальної синхронізації отримуємо ефект розриву екрана. При поворотах або зміні руху в грі ми помічаємо, що зображення розривається на дві або три горизонтальні частини.

Увімкнути або вимкнути V-Sync?

Чи потрібна вертикальна синхронізація? Все залежить від наших індивідуальних уподобань та того, що ми хочемо отримати. У розрахованих на багато користувачів іграх у жанрі Шутер від першої особи рекомендується відключати вертикальну синхронізацію для збільшення точності прицілу. Ефект розриву екрану, як правило, не такий відчутний, і коли звикнемо, то навіть його не помічатимемо.

У свою чергу, у сюжетних іграх можна спокійно включити V-Sync. Тут висока точність не така важлива, першу скрипку грає обстановка, візуальний комфорт, так що слід зробити ставку на хорошу якість.

Вертикальну синхронізацію зазвичай можна увімкнути або вимкнути у налаштуваннях графіки гри. Але якщо там не знайдемо такої функції, то можна її примусово вручну вимкнути в налаштуваннях відеокарти - як для всіх, так і для вибраних додатків.

Синхронізація по вертикалі на відеокартах NVIDIA

У відеокартах GeForce функція знаходиться на панелі керування Nvidia. Натисніть правою кнопкою миші на робочому столі Windows 10, а потім оберіть «Панель управління Nvidia».

На бічній панелі виберіть вкладку «Керування параметрами 3D» у розділі «Параметри 3D». Праворуч відображаються доступні налаштування.

Установки розділені на дві вкладки – глобальні та програмні. На першій вкладці можна встановити параметри для всіх ігор і, наприклад, увімкнути чи вимкнути вертикальну синхронізацію в кожній. Тоді як на другій вкладці можна задати ті ж самі параметри, але індивідуально для кожної гри окремо.

Вибираємо вкладку глобальну або програмну, а потім у списку шукаємо параметр «Вертикальна синхронізація». Поруч розташоване поле, що випадає – вибираємо примусове вимкнення або включення вертикальної синхронізації.

V-Sync на графіку AMD

У випадку з відеокартами AMD виглядає так само, як і в Nvidia. Клацніть правою кнопкою миші на робочому столі, а потім перейдіть до Панель Panel Catalyst Control Center.

Потім розкриваємо зліва вкладку «Ігри» та вибираємо «Налаштування 3D-програм». Справа відобразиться список доступних варіантів, які можна примусово увімкнути з позиції налаштувань відеокарти AMDРадеон. Коли перебуваємо на вкладці «Системні параметри», вибираємо для всіх.

Якщо потрібно встановити параметри індивідуально для кожної гри окремо, слід натиснути на кнопку «Додати» і вказати EXE файл. Вона буде додана до списку у вигляді нової закладки і при переході на неї можна встановити параметри тільки для цієї гри.

Коли вибрали вкладку з доданою програмою або системними параметрами (загальними), то знайдіть у списку опцію «Жди на вертикальне оновлення». З'явиться поле для вибору, де зможемо примусово увімкнути або вимкнути цю опцію.

V-Sync на інтегрованій відеокарті Intel HD Graphics

Якщо використовується інтегрований чіп Intel HD Graphics, також доступна панель керування. Вона має бути доступна при натисканні правою кнопкою миші на робочому столі або комбінацією клавіш Ctrl + Alt + F12.

На панелі Intel переходимо на вкладку Режим налаштування – Панель керування – Тривимірна графіка, а потім у налаштування користувача.

Тут знаходимо поле із синхронізацією по вертикалі Vertical Sync. Можна ввімкнути її примусово, встановивши значення на "Увімкнено" або встановити на "Параметри програми". На жаль, в опціях карти Intel HD немає функції примусового відключення – лише можна увімкнути V-Sync. Так як відключити вертикальну синхронізацію в відеокарті неможливо, то зробити це можна тільки в налаштуваннях самої гри.

instcomputer.ru

Windows 10, маленький FPS, та плаваюча миша:: Counter-Strike: Global Offensive General Discussions

Counter-Strike: Global Offensive > General Discussions > Topic Details

Windows 10, маленький FPS, та плаваюча миша

Всім доброго часу доби, недавно я оновив свою систему до Win10 (попередня Win7). Після оновлення я зіткнувся з кількома проблемами. Першою проблемою є відносно низький FPS порівняно з тим, що був. Власне після установки Win10, у мене начебто залочився FPS. Пояснюю суть проблеми, у мене середня система і на "сімці" у мене був добрий FPS 200-300. На "десятці" ж, у мене FPS не піднімається вище за 60, що в меню, що в самій грі. Друга проблема, це невелике плавання миші яке ледь відчувається, але при цьому дуже сильно заважає точному прицілюванню. PS до установки "десятки" цієї проблеми не було. Моя система: ГП: GeForce GTX 660TiЦП: ItelCore i3-3220 3.3GHz SpeedКлавіатура: Razer BlackWidow Ultimate 2013

Прошу поділиться своїми міркуваннями на цю тему. Буду дуже радий)

Note: Це тільки для використання повідомлень spam, advertising, і problematic (harassment, fighting, or rude) posts.

steamcommunity.com

Оновлення Windows 10 дозволяє вимкнути вертикальну синхронізацію та розблокувати максимальний кадр/с

11.05.2016 02:22

Ігрові проекти, що оптимізовані для універсальної платформи Windows (UWP) з підтримкою DirectX 12, можуть бути запущені без активації опції V-Sync. Також в апдейт додано підтримку технологій NVIDIA G-SYNC та AMD FreeSync.

Оновлення допоможе уникнути посмикувань та затримок картинки на екрані, а також покращити візуальну якість зображення.

У Microsoft заявили, що Gears of War: Ultimate Edition і Forza Motorsport 6: Apex отримають патчі з цією опцією найближчим часом.

Автоматичне оновлення поступово прийде на всі комп'ютери з десятою версією Windows.

Настільний ПК, підключений до монітора з технологією G-SYNC:

Підтримувані відеокарти:Технологія G-SYNC підтримується на GPU NVIDIA GeForce® GTX 650Ti BOOST та вище.
Драйвер:
Операційна система:

  • Windows 10
  • Windows 8.1
  • Windows 7

Системні вимоги:

Ноутбук, підключений до монітора з технологією G-SYNC:

Підтримувані відеокарти: GPU NVIDIA GeForce ® GTX 980M, GTX 970M, GTX 965M або вище.
Драйвер: R340.52 або пізніша версія
Операційна система:

  • Windows 10
  • Windows 8.1
  • Windows 7

Системні вимоги:Необхідна підтримка DisplayPort 1.2 безпосередньо на GPU.

Ноутбук з дисплеєм із підтримкою G-SYNC:

Ноутбук має підтримувати технологію G-SYNC. Дізнайтесь у виробника, чи підтримує ваш ноутбук технологію G-SYNC. Нижче наведено мінімальні системні вимоги для ноутбуків з підтримкою технології G-SYNC.
Підтримувані відеокарти: GPU NVIDIA GeForce ® GTX 980M, GTX 970M, GTX 965M або вище. Конфігурація SLI також підтримується.
Драйвер: R352.06 або пізніша версія
Операційна система:

  • Windows 10
  • Windows 8.1
  • Windows 7

Системні вимоги:Необхідна підтримка DisplayPort 1.2 безпосередньо на GPU.

СИСТЕМНІ ВИМОГИ ДЛЯ G-SYNC HDR

Настільний ПК, підключений до монітора з технологією G-SYNC HDR:

Підтримувані відеокарти:Технологія G-SYNC HDR підтримується на GPU NVIDIA GeForce ® GTX 1050 та вище. 1
Драйвер:
Операційна система:

  • Windows 10

Системні вимоги:
Примітка 1: переконайтеся, що ви встановлені останні версіїдрайверів та програмного забезпеченнядля GPU. Для цього зайдіть на: http://www.nvidia.ru/object/nv-uefi-update-x64.html

Ноутбук, підключений до монітора з технологією G-SYNC HDR:

Підтримувані відеокарти:Технологія G-SYNC HDR підтримується на GPU NVIDIA GeForce ® GTX 1050 та вище.
Драйвер: R396 GA2 або пізніша версія
Операційна система:

  • Windows 10

Системні вимоги:Необхідна підтримка DisplayPort 1.4 безпосередньо на GPU.



Сподобалась стаття? Поділіться їй