Контакти

Три веселих букви: що потрібно знати про HDR. Все, що вам потрібно знати про HDR в комп'ютерних моніторах Які ігри підтримують hdr на пк

Після CES і Computex 2017 року стало ясно: до кінця цього року на ринку з'являться перші монітори для ПК, що підтримують стандарт. Всі великі виробники, такі як ASUS, LG, Acer, Samsung і Dell оголосили про це. Отже, давайте вивчимо трохи теорії про моніторах з HDR.

HDR в ПК форматі

HDR або High Dynamic Range - це стандарт, призначений для розширення кольору і контрастності відеозображень за межами стандартних апаратних можливостей. Пояснюється просто, дозвіл 4K важливо для якості зображення, контрасту, яскравості і насиченості кольору і HDR покращує ці три параметри, тим самим досягаючи поліпшення деталізації зображення.

HDR вимагає, щоб монітор мав 10 або 12-бітний колір. Проте, стандартні ПК-монітори в даний час здатні передавати тільки 6 або 8-бітний колір, використовуючи колірну гамму sRGB, яка покриває лише третину візуального спектру HDR.
Звичайно, є монітори, що відповідають вимогам кольору. Це моделі з підтримкою так званого Wide Gamut Color. Однак їх можливості сумісні тільки з професійними програмами. Ігри та інше програмне забезпечення просто ігнорують додаткові кольори і часто виглядають «розмитими».

Стандарт HDR дозволяє уникнути цієї плутанини, включаючи метадані в відеовещанія, які правильно розподіляють колірний простір. Це допомагає правильно візуалізувати зображення і змушує все програмне забезпечення використовувати кращі можливості відображення.


стандарти

В даний час існує чотири стандарти, але два найбільш часто застосовуються в споживчій електроніці: запатентований з 12-бітними кольоровими і динамічними метаданими і відкритий стандарт, що підтримує 10-розрядний колір і забезпечує тільки статичні метадані для запуску відеовещанія. Іншими двома стандартами є HLG або, розроблена BBC і використовувана на YouTube і Advanced HDR, Створений Technicolor і використовуваний в Європі.
Але повернемося до питання використання HDR в ПК моніторах. Через усі ліцензійних зборів і додаткового обладнання Dolby Vision є більш дорогим з обох стандартів. Надаючи кращу глибину кольору і динамічні покрокові налаштування розробники ігор орієнтовані на більш дешевий, але досить прийнятний HDR 10. Це справедливо не тільки для виробників на базі ПК, але і для консолей: Microsoft с, Sony з PS4,.

Недавнє оновлення Dolby Vision спростило інтеграцію програмного забезпечення в ігрові відеокарти за допомогою оновлень драйверів. З березня Nvidia є одним з основних прихильників Dolby Vision в іграх, таких як Mass Effect: Andromeda.


Фото з стійки Nvidia на Computex 2017, яка б показала стандартний SDR-монітор (ліворуч) і HDR (праворуч) з Mass Effect: Andromeda. Фотографія: TechPowerUp

Проблема з HDR для ПК-геймерів

Якщо у вас є достатньо коштів, то немає проблем з покупкою HDR монітора. Але залишається питання про те, який контент ви можете використовувати в HDR. І ось погана новина для геймерів. Так, деякі нові ігри виходять на ринок з підтримкою HDR, але старіші не мають можливості для більш високого контрасту.

Тільки кілька ігор підтримують HDR: Shadow Warrior 2, Deus Ex: Mankind Devided, Hitman, Resident Evil 7, Obduction, Paragon і вищезгаданий Mass Effect: Andromeda. скоро з'являться Need For Speed: Payback і Star Wars: Battlefront 2.

Щоб побачити всю красу картинки стандарту HDR10, яку можуть видавати Xbox One S, PlayStation 4 і PlayStation 4 Pro, вам знадобиться телевізор з підтримкою цього формату. Зате потім все стає простіше - можна сфотографувати екран і відчути різницю.

На спеціальній презентації Sony в рамках виставки Tokyo Game Show були продемонстровані Uncharted 4 і Horizon: Zero Dawn як з включеним, так і з вимкненим HDR. Залишалося лише зробити фото - що і зробили кореспонденти японського видання Game Watch.

У випадку з Horizon: Zero Dawn різниця очевидна: перше фото показує включений HDR, друге - вимкнений. У Uncharted 4 все трохи складніше: на обох фотографіях можна помітити косу лінію, що проходить через зображення. Частина картинки зліва від лінії показує вимкнений HDR, праворуч - включений.

На тій же презентації показали версії Final Fantasy XV, inFAMOUS First Light і Resident Evil 7: Biohazard для PlayStatio 4 Pro. Про Biohazard і First Light складно сказати щось певне, а ось FFXV явно виглядала пристойніше, ніж на звичайній PlayStation 4. Схоже, фанатам доведеться розщедритися не тільки на гру, але і на нову консоль.

Динамічний діапазон важливіше, ніж 4К.

В закладки

На SDR-дисплеї побачити HDR неможливо, тому зазвичай в таких порівняннях картинку зліва погіршують навмисно, щоб була зрозуміла суть

4К, як стандарт, нарешті пішов у маси. Можна сміливо назвати 2017 рік тим переломним моментом в історії, коли цей дозвіл стало по-справжньому споживчим. Ціна панелей опустилася нижче 500 доларів навіть за великі діагоналі, та й сам контент, нехай і з натягом, але почав відповідати необхідним вимогам.

Неоціненну підтримку тут надали консолі. Поява PS4 Pro і Xbox One X істотно прискорило впровадження 4К-екранів. Поступово (але не без купи застережень) в 4К перекладається і велика голлівудська фільмотека. Вже зараз майже всі оригінальні шоу Netflix можна подивитися в пристойному Ultra HD.

Різниця між 4K і Full HD

Але так чи потрібно 4К-дозвіл саме на телевізорі? На моніторі, який найчастіше знаходиться в парі десятків сантиметрів від очей, картинка в Full HD починає «сипатися» на пікселі вже на 27 дюймах. З цієї причини Retina / 5K і навіть 1440p стають все популярнішими.

Серед телеглядачів адаптація йде повільніше, так як з трьох метрів хоч якусь різницю стає видно лише з 43 дюймів, а в ідеалі для виправдання покупки 4К-телевізора доведеться брати діагональ більше 49 дюймів. Очевидно, що така розкіш слабо доступна для більшості російських квартир навіть при наявності грошей - іноді величезний телевізор просто нікуди подіти.

Перебільшене уявлення про HDR

Приблизно тими ж думками терзав себе автор статті перед покупкою нового телевізора. Взяти хороший FHD, та й бог з ним, з цим 4К? Думка розумна тільки на перший погляд, так як в навантаження до дозволу на пристойних панелях додається ще й HDR. І ось ця, на вигляд, не сильно розкручена технологія реально відчувається справжнім стрибком в якості зображення, нехай і контенту під ці стандарти не так багато, як хотілося б.

Мета матеріалу - просто і доступно розповісти, що таке HDR і як його використовувати. Про те, як може виглядати процес покупки і установки телевізора з 4K і HDR на DTF матеріал, давайте розберемося в термінах докладніше.

Що таке HDR і навіщо він потрібен

наочна різниця

Почнемо з того, що сам термін HDR схожий на жарт незграбного маркетолога. Він прямо з порога створює непотрібну плутанину. Той HDR, що є в телевізорах, ніяк не відноситься до технології зі схожою назвою в смартфонах або фотокамерах. Якщо говорити про фото, то HDR - це об'єднання декількох зображень з різною експозицією, де мета - домогтися найбільш рівного по тіням і світла варіанту.

З відео все не так - тут мова йде про сумарну кількість інформації. До появи HDR стандартом картинки, в тому числі на Blu-ray, були 8 біт. Це хороший колірний обхват, проте сучасні панелі, особливо OLED, здатні відображати куди більше відтінків, градієнтів і квітів, ніж дозволяють 8-бітові джерела.

Вирішити цю проблему покликаний новий 10-бітний стандарт, який дозволяє передавати істотно більше інформації про яскравість, насиченість, глибину та кольорі показується сцени. Для нього був розроблений новий протокол HDMI 2.0.

Але не поспішайте з телевізором міняти всі дроти! Старі кабелі сумісні з HDMI 2.0a, яку б локшину на вуха вам не вішали маркетологи. Головне, щоб на них була позначка «High Speed \u200b\u200bwith Ethernet». Нас хвилює тільки пропускна здатність - самі роз'єми залишилися незмінними.

На момент написання цієї статті HDR на телевізорі заточується саме під 10 біт, хоча стандартом цифрової кінозйомки є 14 bit RAW (ще вище - у плівки), так що навіть сучасні панелі ще далекі від повного відображення тієї інформації, з якою працюють режисери та монтажери багатьох картин.

Окей, але що це дає на практиці?

Приклад HDR vs SDR на базі Uncharted 4

Сонце починає світити в сценах відчутно яскравіше, з'являється розуміння того, що в одному кадрі може бути кілька різних за яскравістю і насиченістю джерел освітлення. Зникає проблема з пікселізацією півтонів в темних сценах, а градієнти і складні змішування фарб набувають обсяг. Небо більше не пересвічений і не зливається з землею на лінії горизонту. Коротше, ви бачите картинку більше власним оком, ніж обмеженим окуляром камери.

В даний момент найбільше від технології отримують користь відеоігри, де різноманітне освітлення в реальному часі нарешті відображається більш-менш коректно. У кіно ж багато що залежить від якості обробки исходника для HDR і попадається багато відвертої халтури, проте вже зараз з'являються еталонні для формату картини типу «Вартових Галактики 2» або «Джона УІКа 2».

Виробники телевізорів - ваші вороги

Поки що HDR, як і будь-яка передова технологія, являє собою «Дикий Захід». Ярлик «Готовий до HDR» вішається на все нові телевізори - незалежно від того, здатні вони адекватно відображати 10 біт чи ні. Є велика різниця між справжнім HDR-телевізором і панеллю, яка просто відображає HDR-контент, знижуючи його до 8 біт і просто задираючи кольору і контраст.

Розкусити виробників іноді важко. Слід дивитися, заявлена \u200b\u200bчи панель як 10-бітна і чи відповідає вона відкритого стандарту HDR10. Вірна ознака справжньої HDR-панелі - підтримка Wide Color Gamut (Широкій Гамми Квітів). Без неї HDR втрачає всякий практичний сенс.

Помітна частина LCD-телевізорів використовує активні 8-бітові панелі, які «додумують» кольору за допомогою спеціальних алгоритмів. HDR-картинка на таких панелях трохи гірше OLED, але і коштують вони помітно дешевше.

Повернення «бітних» воєн

На будь-якому витку еволюції картинки обов'язково виникає війна стандартів. Але якщо у випадку з битвою Blu-Ray і HD-DVD все скінчилося плачевно для другого, в тому числі для купили «залізо» споживачів, то битва HDR10 проти Dolby Vision HDR швидше за все закінчиться безкровної нічиєю.

Стандарт HDR10 передає поменше квітів і підтримує тільки 10 біт, але повністю відкритий. Стандарт Dolby краще зберігає відтінки і розширюється аж до 12 біт, але його складніше дотримуватися і впроваджувати. У будь-якому випадку, питання підтримки тієї чи іншої технології вирішується простою програмної латкою, а ті ж ігри вже де-факто працюють з HDR10, так як саме його обрали для своїх консолей як в Sony, так і в Microsoft.

Самі телевізори часто дозволяють використовувати відразу кілька стандартів, так що голову собі цим зараз забивати вже не варто.

А на чому дивитися?

Якщо ми говоримо про екран, то краще, звичайно, брати OLED і його аналоги. Ви отримаєте глибокі чорні кольори і повну підтримку всіх HDR-принад. Якщо ж гаманець не дозволяє спустити порядку 80 тисяч на топовий телевізор, то не варто впадати у відчай. LCD-моделі 2017 року нарешті побороли дитячі болячки і ви відразу помітите різницю між HDR і SDR, нехай і програєте в градаціях чорного і яскравості. У автора цієї статті як раз LCD-панель з підтримкою HDR і, можу вас запевнити, різницю з контентом в стандартних кольорах видно з перших секунд.

Якщо мова йде про джерело, то всі сучасні ігрові консолі виводять HDR так чи інакше (крім Switch і «товстої» Xbox One). PS4 видає просто HDR (без 4К), а Xbox One S / X дозволяють як програвати UHD-диски, так і стрім нативное 4К HDR прямо на телевізор. З онлайн-сервісів стандарт вже підтримують Netflix і Amazon, і Netflix містить в собі як бібліотеку для HDR10, так і контент в Dolby Vision.

А що дивитися?

Весь оригінальний контент Netflix починаючи з 2016 року, плюс все 4К фільми, які випускають кіностудії на дисках і в «цифрі». Зовсім скоро у продажу з'явиться колекція фільмів Крістофера Нолана, процес оцифровки якої контролював сам режисер. Як було з «Темним лицарем» на Blu-Ray, вона напевно на довгі роки задасть стандарти як для UHD-майстрів, так і для HDR.

А у що грати?

Помітне кількість ігор підтримує HDR навіть на «базових» консолях. Особливо яскраво (вибачте за каламбур) можливості технології показують такі ігри, як Horizon Zero Dawn, Uncharted 4 і Gran Turismo Sport.

Остання створювалася під HDR з нуля, а тому вона підкреслює всі переваги розширеного діапазону яскравості та кольору. Спеціально для GT Sport в Polyphony Digital розробили HDR-камери для захоплення реальної картинки і подальшої калібрування під неї ігровий. І кількість відображуваних грою кольорів поки перевищує можливості навіть найдорожчих панелей. Що називається, бенчмарк «на виріст».

Однак далеко не всі ігри адаптовані під HDR однаково добре, так що читайте відгуки в інтернеті і дивіться огляди Digital Foundry. Хвилюватися, правда, не варто, так як розробники все краще і краще розуміють можливості розширеного діапазону, а, отже, і якість консольного контенту буде тільки рости.

На ПК на даний момент все не так гладко. Ігор з HDR трохи, а сам висновок зображення пов'язаний з проблемами передачі кольору на системному рівні (криві драйвери, примхи Windows, і так далі). Досвід автора статті зі зв'язкою HDR / Windows 10 був суперечливим. До того ж з HDR поки погано працюють популярні плеєри, так що треба чекати. Як показує швидкість адаптації 3D на ПК, осудною реалізації HDR на комп'ютерах варто чекати приблизно через півроку. Та й бібліотека підтягнеться.

Так вже чи все добре, а які мінуси?

Зазвичай калібрувальні таблиці в іграх виглядають простіше

Мінусів у HDR на поточному витку теж вистачає, але я виділю кілька критичних.

  • Ваша апаратура швидше за все не готова до HDMI 2.0a і HDCP 2.2, так що разом з телевізором вам майже напевно доведеться змінити ресивер. З цим зіткнувся я (PS VR першої ревізії), з цим зіткнувся і Вадим (ресивер з HDMI 1.4).
  • Якщо вам здається, що HDR псує картинку або провалює кольору, то екран треба калібрувати. Якісь гри пропонують зручні інструменти калібрування (CoD WWII, GT Sport), але в більшості своїй поки що доводиться покладатися в цьому питанні на власне чуття. Моя порада: запустіть гру в який-небудь складноїза кольорами і яскравою сцені, або навпаки виберіть нічний рівень в сутінках. Це дозволить досить швидко налаштувати ваш новий класний телевізор і врятує вас від первинного розлади і фрустрації.

Час прийшов

10 біт - не межа, але після двох тижнів з HDR-телевізором до звичайних ігор або фільмів ти повертаєшся вже без колишнього ентузіазму. Тим приємніше, що в цьому році HDR перестав бути долею гиків і товстосумів і нарешті пішов в народ. Технологія буде ставати краще і зрозуміліше, однак якщо ви чекали «того самого моменту», щоб змінити свій телевізор - то ось він, відмінний час нарешті побачити віртуальні світи у всіх фарбах.

написати

Коли на початку 2017 року проходила виставка CES, стало ясно, що незабаром прилавки комп'ютерних магазинів почнуть заповнювати комп'ютерні монітори, що підтримують стандарт HDR. Всі великі виробники вже продають такі моделі - кожна з вражаючими параметрами. Скоро ми детально розповімо про один з них, а зараз давайте зосередимося на теорії, яка допоможе вирішити, наскільки зараз виправдана покупка монітора з підтримкою HDR.

HDR в PC-форматі

Стандартне пояснення описує HDR (або High Dynamic Range) як набір стандартів, призначених для розширення кольору і контрастності відео і зображень за межі стандартних, «жорстких» апаратних можливостей. Говорячи простіше, HDR покращує контраст, яскравість і насиченість кольорів, забезпечуючи в кілька разів більш деталізоване зображення. HDR проти SDR

З практичної точки зору для більшості користувачів це означає повну заміну наявних пристроїв для того щоб отримати очевидну різницю в якості зображення. Чому повна заміна? Тому що стандартні пристрої, зокрема монітори, не відповідають вимогам сертифікації HDR.

Почнемо з вимоги до яскравості. Щоб вважатися «HDR ready» дисплей повинен мати мінімум 1000 кд / м2 (ніт яскравості). Висококласні монітори забезпечують яскравість між 300-400 ніт, тобто вони навіть близько не відповідають тому, що необхідно. Хороші ноутбуки мають близько 100 ніт. Навіть у дисплеїв для смартфонів, розроблених для забезпечення гарної видимості при яскравому сонячному світлі, цей показник рідко перевищує 800 ніт (Galaxy Note8 є одним із винятків з яскравістю 1200 ніт). Інакше кажучи - в даний час 99% дисплеїв не підтримують HDR.

Тепер перейдемо до відтворення кольору. Технологія HDR вимагає, щоб монітор підтримував глибину кольору 10 або 12 біт. Однак стандартні монітори здатні передавати тільки 6 або 8-бітний колір, використовуючи колірну гамму sRGB, яка покриває лише третину візуального спектру HDR.

Моделі моніторів з підтримкою технології Wide Gamut Color (WGC) відповідають вимогам кольору, але їх розширені можливості сумісні тільки з програмами для професійного використання (графічні редактори, наприклад). Ігри та інше програмне забезпечення просто ігнорують додаткові кольори і часто виглядають «розмитими», якщо обладнання не може емулювати зменшене колірний простір.

HDR дозволяє уникнути цієї плутанини за рахунок метаданих, які коректно розподіляють колірний простір. Саме це допомагає правильно візуалізувати зображення і змушує все програмне забезпечення оптимально використовувати можливості дисплея.

Тут, однак, слід вставити одне велике «АЛЕ» для тих з вас, хто працює в області фотографії, графічного дизайну та обробки відео. Більш яскраві і насичені кольори, що забезпечуються HDR-моніторами, навряд чи припадуть вам до душі. Чи не тому що не сподобаються вам, просто вони не задовольнять ваші професійні потреби, тому що їх «жвавість» досягається за рахунок реалістичності кольору. Моделі з WGC продовжують залишатися ідеальним вибором для вас. Так що якщо ви читаєте цей текст, щоб дізнатися, які переваги ця технологія дає вашій сфері зайнятості, ви їх просто не знайдете.
Два дизайнерських монітора Dell. Зліва - екран WGC з реалістичною передачею кольору. Справа - дисплей HDR. Легко помітити високу насиченість кольору.

Каша з стандартів

Далі ми поговоримо про досвід з точки зору звичайного користувача і PC-геймера, але спочатку дозвольте мені розплутати для вас величезний заплутаний клубок стандартів HDR. В даний час існує чотири стандарти, але тільки два з них широко поширені в споживчій електроніці: запатентований Dolby Vision з його 12-бітовий колір і динамічними метаданими; і відкритий стандарт HDR10, який підтримує 10-розрядний колір і надає тільки статичну передачу метаданих. Два інших стандарти - HLG, розроблений BBC і використовуваний на YouTube; і Advanced HDR, створений Technicolor і використовуваний головним чином в Європі.
Різниця між SDR, HDR зі статичними метаданими (HDR10) і HDR з динамічними метаданими (Dolby Vision).

Але повернемося до питання використання HDR в комп'ютерних моніторах, додавши тяжкість ігор. Вимагаючи плати за ліцензію і наявності додаткового обладнання, Dolby Vision є більш дорогим з обох стандартів, і його дорожнеча - основний фактор повільного прийому. Незважаючи на те, що Dolby Vision забезпечує кращу глибину кольору і можливості динамічної перенастроювання кадру за кадром, розробники ігор вибирають більш дешевий, але оптимальний HDR10. При цьому мова йде не тільки про виробників ПК, але і консолей: Microsoft (Xbox One S і Xbox One X) і Sony (PS4 і PS4 Pro). Основні прихильники HDR10, такі як Samsung і Amazon, навіть активно борються проти аргументу, що Dolby Vision надає вищу якість зображення. Ця боротьба привела до появи своєрідного поновлення під назвою HDR10 +, яке покращує деякі слабкі сторони HDR10.

Все це говорить про те, що HDR10 стане широко поширеним стандартом HDR для комп'ютерних моніторів та ігор, вірно? Ні не зовсім. Нещодавно розробники Dolby Vision спростили інтеграцію своєї технології в ігри і графічні процесори за допомогою патчів, прошивок або оновлень драйверів. Навесні цього року до числа ключових прихильників Dolby Vision в іграх приєдналась компанія NVIDIA.
Стенд NVIDIA на виставці Computex 2017. Зліва - стандартний SDR-монітор, праворуч - HRD-монітор. Фото: TechPowerUp

(ПК) Геймінг в HDR

Консольщіков пощастило більше в питанні HDR. Вони виграли від включення стандарту в висококласні телевізори, а виробники консолей розробники ігор (спеціально для консолей) швидко розгледіли візуальне перевагу HDR-екранів перед стандартними телевізорами. З чисто практичної точки зору споживача легше виправдати великі інвестиції в екран, який служить розважальним центром його будинку, ніж в той, який стоїть на робочому столі.

Проте, PC-геймери можуть бути вдячні їх консольним товаришам. Популяризація HDR в телевізорах, таких як серії LG C6 і C7, які можуть використовуватися в якості гігантських моніторів для ПК, дозволили «ПКшнікам» насолодитися першою хвилею HDR-контенту, створеного спеціально для ПК.

Але все ж, на які моделі моніторів слід звернути увагу? Три з найбільш перспективних анонсованих HDR-моніторів швидко розчарували тим, що за фактом вони не відповідають усім вимогам HDR10. І, отже, не підтримують істинний HDR. Два з них, Dell S2718D і LG 32UD99, можуть приймати HDR-сигнал, але не мають необхідного колірного діапазону або яскравості для використання HDR-контенту. Останній, BenQ SW320, відповідає вимогам до кольору, але не яскравості. Таким чином, в списку залишилися такі моделі: Acer Predator X27, Acer Predator X35 ASUS ROG Swift PG27UQ, ASUS ROG Swift PG35VQ, Samsung CHG70 і Samsung CHG90.
ASUS ROG Swift PG35VQ - одна з найперспективніших HDR-моделей на даний момент

Наступний логічне запитання: яка ситуація з графічним процесором? В цьому плані комп'ютери вже давно підготовлені завдяки війні між NVIDIA і AMD, а також їх видеокартам середнього і високого класів.

NVIDIA почала з інтеграції HDR в свої графічні процесори покоління Maxwell (попередня серія 900) і продовжила сертифікацію з новою серією 1000, яка використовує архітектуру Pascal. Першими сертифікованими відеокартами від AMD стали моделі сімейств 390X і Polaris. Простіше кажучи, якщо ваша відеокарта була випущена протягом останніх 4 років, у вас не повинно бути ніяких проблем. Однак, якщо ви хочете скористатися всім, що може запропонувати новий HDR-дисплей, доведеться придбати одну з найновіших моделей відеокарт.

Реальна проблема з HDR для PC-геймерів

Якщо з грошима повний порядок, то покупка монітора з підтримкою HDR і відповідного комп'ютерного заліза не буде проблемою. Але перш ніж бігти в магазин, слід вивчити ситуацію з наявністю відповідного контенту. На жаль, в цьому плані так собі ситуація. Так, є нові ігри, в які закладена підтримка HDR, але старі ігри не вміють підлаштовуватися по особливості цієї технології. По крайней мере, не без спеціальних патчів.

Інтеграція HDR не вимагає масштабних змін в програмному забезпеченні, але це не скасовує того факту, що в даний час кількість HDR-контенту, доступного PC-геймерам не так вже й велика. Насправді тільки кілька ігор підтримують стандарт: Shadow Warrior 2, Deus Ex: Mankind Devided, Hitman, Resident Evil 7, Obduction, Paragon, пропатчені версія Mass Effect: Andromeda, Need For Speed: Payback і Star Wars: Battlefront 2. кроссплатформенную гри Gears of War, Battlefield і Forza Horizon 3 підтримують HDR в консольних версіях, але ця функція відсутня на ПК. Деякий час назад NVIDIA активно працювала над патчем HDR для Rise of Tomb Raider, але від компанії вже давно немає ніяких новин про те, як просувається ця робота.

Розробники ігор приймають ідею HDR, але консольні ігри будуть першими з такою підтримкою. PC-геймери залишаються (знову) на задньому плані. Пройде ще кілька років, перш ніж HDR стане дійсно важливою особливістю комп'ютерних моніторів. На даний момент цього стандарту немає в числі обов'язкових параметрів, яким повинен володіти ігровою монітор, щоб заслуговувати увагу. Як і у випадку з 4K, HDR - це інвестиція в майбутнє.

Одна порада, яку я можу дати вам на завершення: купуєте сьогодні монітор, який відповідає вашим поточним потребам. Якщо вам важлива наявність HDR, то цей приємний бонус обійдеться вам в кілька додаткових сотень доларів, але він буде гарантією (хоча і невеликий), що ваш новенький монітор ще довго буде залишатися актуальним.

Мітки:,
параметрзначення
Кодове ім'я чіпаGP104
Технологія виробництва16 нм FinFET
кількість транзисторів7,2 млрд.
Площа ядра314 мм²
архітектура
Апаратна підтримка DirectX
шина пам'яті
1607 (1733) МГц
обчислювальні блоки20 потокових мультипроцессоров, що включають 2560 скалярних ALU для розрахунків з плаваючою комою в рамках стандарту IEEE 754-2008;
блоки текстурування160 блоків текстурної адресації та фільтрації з підтримкою FP16- і FP32-компонент в структурах і підтримкою трилинейной і анізотропної фільтрації для всіх текстурних форматів
підтримка моніторів
Специфікації референсной відеокарти GeForce GTX 1080
параметрзначення
частота ядра1607 (1733) МГц
2560
Кількість текстурних блоків160
Кількість блоків блендінга64
Ефективна частота пам'яті10000 (4 × 2500) МГц
Тип пам'ятіGDDR5X
шина пам'яті256-біт
Обсяг пам'яті8 ГБ
320 ГБ / с
близько 9 терафлопс
103 гігапікселів / с
257 гігатекселей / с
шинаPCI Express 3.0
роз'єми
енергоспоживаннядо 180 Вт
додаткове харчуванняОдин 8-контактний роз'єм
2
Рекомендована ціна$ 599-699 (США), 54990 руб (Росія)

Нова модель відеокарти GeForce GTX 1080 отримала логічне для першого рішення нової серій GeForce найменування - вона відрізняється від свого прямого попередника тільки зміненою цифрою покоління. Новинка не просто замінює в поточній лінійці компанії топові рішення, але і на якийсь час стала флагманом нової серії, поки не випустили Titan X на GPU ще більшої потужності. Нижче її в ієрархії розташовується також вже анонсована модель GeForce GTX 1070, заснована на урізаною версією чіпа GP104, яку ми ще розглянемо нижче.

Рекомендовані ціни на нову відеокарту Nvidia становлять $ 599 і $ 699 для звичайних версій і спеціального видання Founders Edition (див. Далі), відповідно, і це досить непогана пропозиція з урахуванням того, що GTX 1080 випереджає не тільки GTX 980 Ti, а й Titan X. на сьогодні новинка є найкращим по продуктивності рішенням на ринку одночипових відеокарт без будь-яких питань, і при цьому вона коштує дешевше найпродуктивніших відеокарт попереднього покоління. Поки конкурента від AMD у GeForce GTX 1080 по суті немає, тому в Nvidia змогли встановити таку ціну, яка їх влаштовує.

Вже згадана відеокарта заснована на чіпі GP104, що має 256-бітну шину пам'яті, але новий тип пам'яті GDDR5X працює на досить високій ефективній частоті в 10 ГГц, що дає високу пікову пропускну здатність в 320 ГБ / с - що майже на рівні GTX 980 Ti з 384 -бітний шиною. Обсяг встановленої на відеокарту пам'яті з такою шиною міг бути дорівнює 4 або 8 ГБ, але ставити менший обсяг для такого потужного рішення в сучасних умовах було б нерозумно, тому GTX 1080 абсолютно логічно отримала 8 ГБ пам'яті, і цього обсягу вистачить для запуску будь-яких 3D- додатків з будь-якими налаштуваннями якості на кілька років вперед.

Друкована плата GeForce GTX 1080 по зрозумілих причинах пристойно відрізняється від попередніх PCB компанії. Значення типового енергоспоживання для новинки становить 180 Вт - це трохи вище, ніж у GTX 980, але помітно нижче, ніж у менш продуктивних Titan X і GTX 980 Ti. Референсна плата має звичний набір роз'ємів для приєднання пристроїв виведення зображення: один Dual-Link DVI, один HDMI і три DisplayPort.

Референсний дизайн Founders Edition

Ще при анонсі GeForce GTX 1080 в початку травня було оголошено спеціальне видання відеокарти під назвою Founders Edition, що має більш високу ціну в порівнянні зі звичайними відеокартами партнерів компанії. По суті, це видання є референсним дизайном карти і системи охолодження, і проводиться воно самою компанією Nvidia. Можна по-різному ставитися до таких варіантів відеокарт, але розроблений інженерами компанії референсний дизайн і вироблена із застосуванням якісних компонентів конструкція має своїх шанувальників.

А ось чи будуть вони віддавати на кілька тисяч рублів більше за відеокарту від самої Nvidia - це питання, відповідь на який може дати тільки практика. У будь-якому випадку, спочатку в продажу з'являться саме референсні відеокарти від Nvidia за підвищеною ціною, і вибирати особливо нема з чого - так буває при кожному анонсі, але референсна GeForce GTX 1080 відрізняється тим, що в такому вигляді її планується продавати на всьому протязі терміну її життя, аж до виходу рішень наступного покоління.

У Nvidia вважають, що це видання має свої переваги навіть перед кращими творами партнерів. Наприклад, двослотовий дизайн кулера дозволяє з легкістю збирати на основі цієї потужної відеокарти як ігрові ПК порівняно невеликого форм-фактора, так і багаточіпових відеосистеми (навіть незважаючи на Нерекомендовані компанією режим роботи в трьох- і четирехчіповом режимі). GeForce GTX 1080 Founders Edition має деякі переваги у вигляді ефективного кулера з використанням випарної камери і вентилятора, що викидає нагріте повітря з корпусу - це перше таке рішення Nvidia, яке споживає менше 250 Вт енергії.

У порівнянні з попередніми референсними дизайнами продуктів компанії, схема харчування була модернізована з чотирьохфазної до пятифазний. У Nvidia кажуть і про поліпшених компонентах, на яких заснована новинка, також були знижені електричні перешкоди, що дозволяють поліпшити стабільність напруги і розгінний потенціал. В результаті всіх поліпшень енергоефективність референсной плати збільшилася на 6% в порівнянні з GeForce GTX 980.

А для того, щоб відрізнятися від «звичайних» моделей GeForce GTX 1080 зовні, для Founders Edition розробили незвичайний «рубаний» дизайн корпусу. Який, правда, напевно привів також і до ускладнення форми випарної камери і радіатора (див. Фото), що можливо і стало однією з причин для доплати в $ 100 за таке спеціальне видання. Повторимося, що на початку продажів особливого вибору у покупців не буде, але в подальшому можна буде вибрати як рішення з власним дизайном від одного з партнерів компанії, так і у виконанні самої Nvidia.

Нове покоління графічної архітектури Pascal

Відеокарта GeForce GTX 1080 стала першим рішенням компанії на основі чіпа GP104, що відноситься до нового покоління графічної архітектури Nvidia - Pascal. Хоча нова архітектура взяла в основу рішення, відпрацьовані ще в Maxwell, в ній є і важливі функціональні відмінності, про які ми напишемо далі. Головним же зміною з глобальної точки зору став новий технологічний процес, по якому виконаний новий графічний процесор.

Застосування техпроцесу 16 нм FinFET при виробництві графічних процесорів GP104 на фабриках тайванської компанії TSMC дало можливість значно підвищити складність чіпа при збереженні порівняно невисокою площі і собівартості. Порівняйте кількість транзисторів і площа чіпів GP104 і GM204 - вони близькі по площі (кристал новинки навіть трохи менше фізично), але чіп архітектури Pascal має помітно більшу кількість транзисторів, а відповідно і виконавчих блоків, в тому числі забезпечують нову функціональність.

З архітектурної точки зору, перший ігровий Pascal дуже схожий на аналогічні рішення архітектури Maxwell, хоча є і деякі відмінності. Як і Maxwell, процесори архітектури Pascal матимуть різну конфігурацію обчислювальних кластерів Graphics Processing Cluster (GPC), потокових мультипроцессоров Streaming Multiprocessor (SM) і контролерів пам'яті. Мультипроцессор SM - це високопараллельних мультипроцессор, який планує і запускає варпа (warp, групи з 32 потоків команд) на CUDA-ядрах і інших виконавчих блоках в мультипроцесорі. Докладні дані про будову всіх цих блоків ви можете знайти в наших оглядах попередніх рішень компанії Nvidia.

Кожен з мультипроцессоров SM спарений з движком PolyMorph Engine, який обробляє текстурні вибірки, тесселяцию, трансформацію, установку вершинних атрибутів і корекцію перспективи. На відміну від попередніх рішень компанії, PolyMorph Engine в чіпі GP104 також містить новий блок мультіпроецірованія Simultaneous Multi-Projection, про який ми ще поговоримо нижче. Комбінація мультипроцессора SM з одним двигуном Polymorph Engine традиційно для Nvidia називається TPC - Texture Processor Cluster.

Всього чіп GP104 в складі GeForce GTX 1080 містить чотири кластери GPC і 20 мультипроцессоров SM, а також вісім контролерів пам'яті, об'єднаних з блоками ROP в кількості 64 штук. Кожен кластер GPC має виділений движок растеризації і включає в себе п'ять мультипроцессоров SM. Кожен мультипроцессор, в свою чергу, складається з 128 CUDA-ядер, 256 КБ реєстрового файлу, 96 КБ пам'яті, що, 48 КБ кеш-пам'яті першого рівня і восьми текстурних блоків TMU. Тобто, всього в GP104 міститься 2560 CUDA-ядер і 160 блоків TMU.

Також графічний процесор, на якому заснована відеокарта GeForce GTX 1080, містить вісім 32-бітових (на відміну від 64-бітових, що застосовуються раніше) контролерів пам'яті, що дає нам підсумкову 256-бітну шину пам'яті. До кожного з контролерів пам'яті прив'язаний по вісім блоків ROP і 256 КБ кеш-пам'яті другого рівня. Тобто, всього чіп GP104 містить 64 блоків ROP і 2048 КБ кеш-пам'яті другого рівня.

Завдяки архітектурним оптимізаціям і новому техпроцесу, перший ігровий Pascal став самим енергоефективним графічним процесором за весь час. Причому, внесок в це є як з боку одного з найбільш досконалих технологічних процесів 16 нм FinFET, так і від проведених оптимізацій архітектури в Pascal, в порівнянні з Maxwell. У Nvidia змогли підвищити тактову частоту навіть більше, ніж вони розраховували при переході на новий техпроцес. GP104 працює на більш високій частоті, ніж працював би гіпотетичний GM204, випущений за допомогою техпроцесу 16 нм. Для цього інженерам Nvidia довелося ретельно перевірити і оптимізувати всі вузькі місця попередніх рішень, що не дають розігнатися вище певного порогу. В результаті, нова модель GeForce GTX 1080 працює більш ніж на 40% підвищеній частоті, у порівнянні з GeForce GTX 980. Але це ще не всі зміни, пов'язані з частотою роботи GPU.

Технологія GPU Boost 3.0

Як ми добре знаємо з попередніх відеокарт компанії Nvidia, в своїх графічних процесорах вони застосовують апаратну технологію GPU Boost, призначену для збільшення робочої тактової частоти GPU в режимах, коли він ще не досяг меж по енергоспоживання і тепловиділення. За минулі роки цей алгоритм зазнав безліч змін, і в відеочіпі архітектури Pascal застосовується вже третє покоління цієї технології - GPU Boost 3.0, основним нововведенням якого стала тонша установка турбо-частот, в залежності від напруги.

Якщо ви згадаєте принцип роботи попередніх версій технології, то різниця між базовою частотою (гарантоване мінімальне значення частоти, нижче якого GPU не опускається, як мінімум в іграх) і турбо-частотою була фіксованою. Тобто, турбо-частота завжди була на певну кількість мегагерц вище базової. В GPU Boost 3.0 з'явилася можливість установки зсувів турбо-частот для кожного напруги окремо. Найпростіше це зрозуміти по ілюстрації:

Зліва вказано GPU Boost другою версією, справа - третьої, що з'явилася в Pascal. Фіксована різниця між базовою і турбо-частотами не давала розкрити можливості GPU повністю, в деяких випадках графічні процесори попередніх поколінь могли працювати швидше на встановленому напрузі, але фіксоване перевищення турбо-частоти не давало зробити цього. В GPU Boost 3.0 така можливість з'явилася, і турбо-частота може встановлюватися для кожного з індивідуальних значень напруги, повністю вичавлюючи все соки з GPU.

Для того, щоб управляти розгоном і встановити криву турбо-частоти, потрібні зручні утиліти. Сама Nvidia цим не займається, але допомагає своїм партнерам створити подібні утиліти для полегшень розгону (в розумних межах, звичайно). Наприклад, нові функціональні можливості GPU Boost 3.0 вже розкриті в EVGA Precision XOC, що включає спеціальні сканер розгону, автоматично знаходить і встановлює нелінійну різницю між базовою частотою і турбо-частотою для різних значень напруги за допомогою запуску вбудованого тесту продуктивності і стабільності. В результаті у користувача виходить крива турбо-частоти, ідеально відповідна можливостям конкретного чіпа. Яку, до того ж, можна як завгодно модифікувати в ручному режимі.

Як ви бачите на скріншоті утиліти, на додаток до інформації про GPU і системі, є також налаштування для розгону: Power Target (визначає типове енергоспоживання при розгоні, у відсотках від стандартного), GPU Temp Target (максимально допустима температура ядра), GPU Clock Offset (перевищення над базовою частотою для всіх значень напруги), Memory Offset (перевищення частоти відеопам'яті над значенням за замовчуванням), Overvoltage (додаткова можливість для підвищення напруги).

Утиліта Precision XOC включає три режими розгону: основний Basic, лінійний Linear і ручної Manual. В основному режимі можна встановити єдине значення перевищення частоти (фіксовану турбо-частоту) над базовою, як це було для попередніх GPU. Лінійний режим дозволяє встановити лінійну зміну частоти від мінімального до максимального значень напруги для GPU. Ну і в ручному режимі можна виставити унікальні значення частоти GPU для кожної точки напруги на графіку.

У складі утиліти є також спеціальний сканер для автоматичного розгону. Можна або встановити власні рівні частоти або дозволити утиліті Precision XOC просканувати GPU на всіх напружених і знайти максимально стабільні частоти для кожної точки на кривій напруги і частоти повністю автоматично. У процесі сканування Precision XOC поступово додає частоту GPU і перевіряє його роботу на стабільність або поява артефактів, будуючи ідеальну криву частот і напруг, яка буде унікальна для кожного конкретного чіпа.

Цей сканер можна налаштувати під свої власні вимоги, задавши часовий відрізок тестування кожного значення напруги, мінімум і максимум, що перевіряється частоти, і її крок. Зрозуміло, що для досягнення стабільних результатів краще буде виставити невеликий крок і пристойну тривалість тестування. В процесі тестування може спостерігатися нестабільна робота відеодрайвера і системи, але якщо Сканер не зависне, то відновить роботу і продовжить знаходження оптимальних частот.

Новий тип відеопам'яті GDDR5X і поліпшене стиснення

Отже, потужність графічного процесора помітно зросла, а шина пам'яті залишилася всього лише 256-бітної - чи не буде пропускна здатність пам'яті обмежувати загальну продуктивність і що з цим можна робити? Схоже, що перспективна HBM-пам'ять другого покоління все ще занадто дорога у виробництві, тому довелося шукати інші варіанти. Ще з моменту появи GDDR5-пам'яті в 2009 році, інженери компанії Nvidia досліджували можливості використання нових типів пам'яті. В результаті, розробки прийшли до впровадження нового стандарту пам'яті GDDR5X - найскладнішого і просунутого на сьогоднішній момент стандарту, що дає швидкість передачі 10 Gbps.

Nvidia наводить цікавий приклад того, наскільки це швидко. Між переданими бітами проходить всього 100 пикосекунд - за такий час промінь світла пройде відстань всього лише в один дюйм (близько 2,5 см). І при використанні GDDR5X-пам'яті ланцюга прийому-передачі даних повинні менше ніж за половину цього часу вибрати значення переданого біта, до того, як буде надіслано наступний - це просто щоб ви розуміли, до чого дійшли сучасні технології.

Щоб добитися такої швидкості роботи, потрібна була розробка нової архітектури системи введення-виведення даних, яка вимагала кількох років спільної розробки з виробниками чіпів пам'яті. Крім збільшеній швидкості передачі даних, зросла і енергоефективність - чіпи пам'яті стандарту GDDR5X використовують знижена напруга в 1,35 В і зроблені за новими технологіями, що дає той же споживання енергії при на 43% більшою частотою.

Інженерам компанії довелося переробляти лінії передачі даних між ядром GPU і чіпами пам'яті, більше уваги звертати на запобігання втрати і деградацію сигналу на всьому шляху від пам'яті до GPU і назад. Так, на наведеній вище ілюстрації показаний захоплений сигнал у вигляді великого симетричного «очі», що говорить про гарну оптимізацію всього ланцюга і відносній легкості захоплення даних з сигналу. Причому, описані вище зміни призвели не тільки до можливості застосування GDDR5X на 10 ГГц, але також і повинні допомогти отримати високу ПСП на майбутніх продуктах, що використовують більш звичну GDDR5-пам'ять.

Добре, більш ніж 40% приросту в ПСП від застосування нової пам'яті ми отримали. Але чи не замало цього? Для подальшого збільшення ефективності використання смуги пропускання пам'яті в Nvidia продовжили покращувати запроваджене ще в попередніх архітектур просунуте стиснення даних. Підсистема пам'яті в GeForce GTX 1080 використовує поліпшені і кілька нових технік зі стиснення даних без втрат, призначені для зниження вимог до ПСП - вже четверте покоління внутрічіпового стиснення.

Алгоритми стиснення даних в пам'яті приносять відразу кілька позитивних моментів. Стиснення знижує кількість записуваних даних в пам'ять, то ж саме стосується даних, що пересилаються з відеопам'яті в кеш-пам'яті другого рівня, що покращує ефективність використання L2-кеша, так як стиснений тайл (блок з декількох пікселів фреймбуфер) має менший розмір, ніж нестислий. Також зменшується кількість даних, що пересилаються між різними точками, на зразок текстури модуля TMU і фреймбуфер.

Конвеєр стиснення даних в GPU використовує кілька алгоритмів, які визначаються в залежності від «стисливості» даних - для них підбирається кращий з наявних алгоритмів. Одним з найважливіших є алгоритм дельта-кодування даних про колір пікселів (delta color compression). Цей спосіб стиснення кодує дані у вигляді різниці між послідовними значеннями замість самих даних. GPU обчислює різницю в колірних значеннях між пікселями в блоці (тайлі) і зберігає блок як якийсь усереднений колір для всього блоку плюс дані про різницю в значеннях для кожного пікселя. Для графічних даних такий метод зазвичай добре підходить, так як колір в межах невеликих тайлів для всіх пікселів часто відрізняється не занадто сильно.

Графічний процесор GP104 в складі GeForce GTX 1080 підтримує більшу кількість алгоритмів стиснення в порівнянні з попередніми чіпами архітектури Maxwell. Так, алгоритм стиснення 2: 1 став більш ефективним, а на додаток до нього з'явилися два нових алгоритму: режим стиснення 4: 1, відповідний для випадків, коли різниця в значенні кольору пікселів блоку дуже невелика, і режим 8: 1, що поєднує алгоритм постійного стиснення з співвідношенням 4: 1 блоків розміром 2 × 2 пікселя з дворазовим стисканням дельти між блоками. Коли стиснення зовсім неможливо, воно не використовується.

Втім, в реальності останнє буває дуже рідко. У цьому можна переконатися з прикладів скріншотів з гри Project CARS, які навела Nvidia щоб проілюструвати підвищений ступінь стиснення в Pascal. На ілюстраціях пурпуровим зафарбовані ті тайли кадрового буфера, які зміг стиснути графічний процесор, а не піддаються стисненню без втрат залишилися з оригінальним кольором (зверху - Maxwell, знизу - Pascal).

Як бачите, нові алгоритми стиснення в GP104 дійсно працюють набагато краще, ніж в Maxwell. Хоча стара архітектура також змогла стиснути більшість тайлів в сцені, велика кількість трави і дерев по краях, а також деталі машини не піддаються застарілим алгоритмам стиску. Але при включенні в роботу нових технік в Pascal, несжатим залишилося дуже невелика кількість ділянок зображення - поліпшена ефективність в наявності.

В результаті поліпшень в стисненні даних, GeForce GTX 1080 здатний значно знизити кількість даних, що пересилаються в кожному кадрі. Якщо говорити про цифри, то поліпшене стиснення економить додатково близько 20% ефективної смуги пропускання пам'яті. На додаток до більш ніж на 40% підвищеної ПСП у GeForce GTX 1080 щодо GTX 980 від використання GDDR5X-пам'яті, все разом це дає близько 70% приросту в ефективному ПСП, в порівнянні з моделлю минулого покоління.

Підтримка асинхронних обчислень Async Compute

Більшість сучасних ігор використовують складні обчислення на додаток до графічних. Наприклад, обчислення при розрахунку поведінки фізичних тіл цілком можна проводити не до або після графічних обчислень, а одночасно з ними, так як вони не пов'язані один з одним і не залежать один від одного в межах одного кадру. Також в приклад можна привести постобработку вже відрендерених кадрів і обробку звукової інформації, які теж можна виконувати паралельно з рендерингом.

Ще одним яскравим прикладом використання функціональності служить техніка асинхронного спотворення часу (Asynchronous Time Warp), яка використовується в системах віртуальної реальності для того, щоб змінити видається кадр відповідно до рухом голови гравця прямо перед самим його висновком, перериваючи рендеринг наступного. Подібна асинхронна завантаження потужностей GPU дозволяє підвищити ефективність використання її виконавчих блоків.

Подібні навантаження створюють два нових сценарію використання GPU. Перший з них включає накладаються завантаження, так як багато типів завдань не використовують можливості графічних процесорів повністю, і частина ресурсів простоює. У таких випадках можна просто запустити на одному GPU дві різні завдання, що розділяють його виконавчі блоки для отримання більш ефективного використання - наприклад, PhysX-ефекти, що виконуються спільно з 3D-рендерингом кадру.

Для поліпшення роботи цього сценарію, в архітектурі Pascal з'явилася динамічне балансування завантаження (dynamic load balancing). У попередній архітектурі Maxwell перекриваються навантаження були виконані у вигляді статичного розподілу ресурсів GPU на графічні та обчислювальні. Такий підхід ефективний за умови, що баланс між двома навантаженнями приблизно відповідає поділу ресурсів і завдання виконуються однаково по часу. Якщо ж неграфічні обчислення виконуються довше графічних, і обидві очікують завершення спільної роботи, то частина GPU залишився, буде простоювати, що викличе зниження загальної продуктивності і зведе всю вигоду нанівець. Апаратна динамічне балансування завантаження ж дозволяє використовувати вивільнені ресурси GPU відразу ж як вони стануть доступними - для розуміння наведемо ілюстрацію.

Існують і завдання, критичні до часу виконання, і це - другий сценарій асинхронних обчислень. Наприклад, виконання алгоритму асинхронного спотворення часу в VR має завершитися до розгортки (scan out) або кадр буде відкинутий. В такому випадку, GPU повинен підтримувати дуже швидке переривання завдання і переключення на іншу, щоб зняти менш критичну завдання з виконання на GPU, звільнивши його ресурси для критично важливих завдань - це називається preemption.

Одна команда рендеринга від ігрового движка може містити сотні викликів функцій відтворення, кожен виклик draw call, в свою чергу, містить сотні оброблюваних трикутників, кожен з яких містить сотні пікселів, які потрібно розрахувати і отрисовать. У традиційному підході на GPU використовується переривання завдань тільки на високому рівні, і графічний конвеєр змушений чекати завершення всієї цієї роботи перед перемиканням завдання, що в результаті призводить до дуже великих затримок.

Щоб виправити це, в архітектурі Pascal вперше була введена можливість переривання завдання на піксельному рівні - Pixel Level Preemption. Виконавчі блоки графічного процесора Pascal можуть постійно відстежувати прогрес виконання завдань рендеринга, і коли переривання буде запитано, вони можуть зупинити виконання, зберігши контекст для подальшого завершення, швидко переключившись на іншу задачу.

Переривання і перемикання на рівні потоку для обчислювальних операцій працює аналогічно переривання на піксельному рівні для графічних обчислень. Обчислювальні навантаження складаються з декількох сіток, кожна з яких містить безліч потоків. Коли отримано запит на переривання, що виконуються на мультипроцесорі потоки закінчують виконання. Інші блоки зберігають своє положення щоб продовжити з того ж моменту надалі, і GPU перемикається на іншу задачу. Весь процес перемикання завдань займає менше ніж 100 мікросекунд після того, як виконуються потоки завершують роботу.

Для ігрових навантажень, поєднання переривань на піксельному рівні для графічних, і переривання на рівні потоків для обчислювальних задач дає графічним процесорам архітектури Pascal можливість швидкого перемикання між завданнями з мінімальними втратами часу. А для обчислювальних задач на CUDA, також можливо переривання з мінімальною гранулярністю - на рівні інструкцій. У такому режимі всі потоки зупиняють виконання відразу, негайно перемикаючись на інше завдання. Цей підхід вимагає збереження більшої кількості інформації про стан всіх регістрів кожного потоку, але в деяких випадках неграфічних обчислень він цілком виправданий.

Використання швидкого переривання і перемикання завдань в графічних і обчислювальних задачах було додано в архітектуру Pascal для того, щоб графічні і неграфічні завдання могли перериватися на рівні окремих інструкцій, а не цілих потоків, як було в Maxwell і Kepler. Ці технології здатні поліпшити асинхронне виконання різних навантажень на графічний процесор і поліпшити чуйність при одночасному виконанні декількох завдань. На заході Nvidia показували демонстрацію роботи асинхронних обчислень на прикладі обчислення фізичних ефектів. Якщо без асинхронних обчислень продуктивність була на рівні 77-79 FPS, то з включенням цих можливостей частота кадрів зросла до 93-94 FPS.

Ми вже наводили як приклад одну з можливостей застосування цієї функціональності в іграх у вигляді асинхронного спотворення часу в VR. На ілюстрації показана робота цієї технології з традиційним перериванням (preemption) і з швидким. У першому випадку, процес асинхронного спотворення часу намагаються виконати якомога пізніше, але до початку оновлення зображення на дисплеї. Але робота алгоритму повинна бути віддана на виконання в GPU декількома мілісекундами раніше, так як без швидкого переривання немає можливості точно виконати роботу в потрібний момент, і GPU простоює деякий час.

У разі точного переривання на рівні пікселів і потоків (на ілюстрації справа), така можливість дає більшу точність у визначенні моменту переривання, і асинхронне спотворення часу може бути запущено значно пізніше з упевненістю в завершенні роботи до початку оновлення інформації на дисплеї. А простоює деякий час в першому випадку GPU можна завантажити якийсь додаткової графічної роботою.

Технологія мультіпроецірованія Simultaneous Multi-Projection

У новому графічному процесорі GP104 з'явилася підтримка нової технології мультіпроецірованія (Simultaneous Multi-Projection - SMP), що дозволяє GPU малювати дані на сучасних системах виведення зображення більш ефективно. SMP дозволяє відеочіпі одночасно виводити дані в кілька проекцій, для чого потрібно було ввести новий апаратний блок в GPU до складу движка PolyMorph в кінці геометричного конвеєра перед блоком растеризації. Цей блок відповідає за роботу з декількома проекціями для єдиного потоку геометрії.

Движок мультіпроецірованія обробляє геометричні дані одночасно для 16 заздалегідь сконфігурованих проекцій, які об'єднують точку проекції (камери), ці проекції можна незалежно обертати або нахиляти. Так як кожен геометричний примітив може з'явитися одночасно в кількох проекціях, движок SMP забезпечує таку функціональність, дозволяючи додатком дати інструкції відеочіпі для реплікації геометрії до 32 разів (16 проекцій при двох центрах проектування) без додаткової обробки.

Весь процес обробки апаратно прискорений, і так як мультіпроецірованіе працює після геометричного движка, йому не потрібно повторювати кілька разів все стадії обробки геометрії. Заощаджені ресурси важливі в умовах обмеження швидкості рендеринга продуктивністю обробки геометрії, на зразок тесселяції, коли одна і та ж геометрична робота виконується кілька разів для кожної проекції. Відповідно, в піковому випадку, мультіпроецірованіе може скоротити необхідність в обробці геометрії до 32 разів.

Але навіщо все це потрібно? Є кілька хороших прикладів, де технологія мультіпроецірованія може бути корисною. Наприклад, многомоніторний система з трьох дисплеїв, встановлених під кутом один до одного досить близько до користувача (surround-конфігурація). У типовій ситуації сцена отрісовивается в одній проекції, що призводить до геометричних спотворень і невірної відображенні геометрії. Знову ж правильним шляхом є три різних проекції для кожного з моніторів, відповідно до кута, під яким вони розташовані.

За допомогою відеокарти на чіпі з архітектурою Pascal це можна зробити за один прохід геометрії, вказавши три різні проекції, кожна для свого монітора. І користувач, таким чином, зможе змінювати кут, під яким розташовані монітори один до одного не тільки фізично, а й віртуально - повертаючи проекції для бічних моніторів, щоб отримати коректну перспективу в 3D-сцені при помітно більш широкому куті огляду (FOV). Правда, тут є обмеження - для такої підтримки додаток повинен вміти малювати сцену з широким FOV і використовувати спеціальні виклики SMP API для його установки. Тобто, в кожній грі так не зробиш, потрібна спеціальна підтримка.

У будь-якому випадку, часи одній проекції на єдиний плоский монітор пройшли, тепер багато багатомоніторних конфігурацій і вигнутих дисплеїв, на яких також можна застосовувати цю технологію. Не кажучи вже про системи віртуальної реальності, які використовують спеціальні лінзи між екранами і очима користувача, що вимагає нових технік проектування 3D-зображення в 2D-картинку. Багато з таких технологій і технік ще на початку розробки, головне, що старі GPU не можуть ефективно використовувати більш ніж одну плоску проекцію. Вони вимагають при цьому кілька проходів рендеринга, багаторазову обробку однієї і тієї ж геометрії і т. Д.

У чіпах архітектури Maxwell була обмежена підтримка Multi-Resolution, яка допомагає збільшити ефективність, але SMP в Pascal може набагато більше. Maxwell міг повертати проекцію на 90 градусів для кубічних карт (cube mapping) або різних дозволів для проекції, але це було корисно лише в обмеженому колі додатків, на кшталт VXGI.

З інших можливостей застосування SMP відзначимо отрисовку з різним дозволом і однопрохідний стереорендерінг. Наприклад, отрисовка з різним дозволом (Multi-Res Shading) може використовуватися в іграх для оптимізації продуктивності. При її застосуванні, використовується більш високу роздільну здатність в центрі кадру, а на периферії воно знижується для отримання більш високій швидкості рендеринга.

Однопрохідний стереорендерінг використовується в VR, він вже доданий в пакет VRWorks і використовує можливість мультіпроецірованія для зниження обсягу геометричній роботи, що вимагається при VR-рендеринге. У разі використання цієї можливості, графічний процесор GeForce GTX 1080 обробляє геометрію сцени лише один раз, генеруючи відразу дві проекції для кожного ока, що вдвічі знижує геометричну навантаження на GPU, а також знижує втрати від роботи драйвера і ОС.

Ще більш просунутим методом підвищення ефективності VR-рендеринга є Lens Matched Shading, коли за допомогою декількох проекцій імітуються геометричні спотворення, необхідні при VR-рендеринге. Цей метод використовує мультіпроецірованіе для рендеринга 3D-сцени на поверхню, яка наближено схожа на скориговану лінзою при відображенні для виведення на VR-шолом, що дозволяє не перетворювати багато зайвих пікселів на периферії, які будуть відкинуті. Найпростіше зрозуміти суть методу по ілюстрації - перед кожним оком використовується по чотири злегка розгорнутих проекції (на Pascal можна використовувати і по 16 проекцій на кожне око - для більш точної імітації зігнутої лінзи) замість однієї:

Такий підхід здатний пристойно економити в продуктивності. Так, типове зображення для Oculus Rift на кожне око становить 1,1 мегапікселів. Але через різницю в проекціях, щоб його отрендеріть, використовується вихідне зображення в 2,1 мегапікселя - на 86% більше ніж необхідно! Застосування мультіпроецірованія, впровадженого в архітектуру Pascal, дозволяє знизити дозвіл отрісовиваємих зображення до 1,4 мегапікселів, отримавши півторакратної економію в швидкості піксельної обробки, а також економить пропускну здатність пам'яті.

А разом з дворазовою економією по швидкості обробки геометрії через однопрохідного стереорендерінга, графічний процесор відеокарти GeForce GTX 1080 здатний забезпечити значне збільшення продуктивності VR-рендеринга, вельми вимогливого і до швидкості обробки геометрії, і тим більше - до піксельної обробці.

Покращення в блоках виведення і обробки відеоданих

Крім продуктивності і нової функціональності, пов'язаної з 3D-рендерингом, необхідно підтримувати на хорошому рівні і можливості виведення зображення, а також декодування і кодування відеоданих. І перший графічний процесор архітектури Pascal не розчарував - він підтримує всі сучасні стандарти в цьому сенсі, включаючи апаратне декодування формату HEVC, необхідне для перегляду 4K-відеороликів на ПК. Також майбутні володарі відеокарт GeForce GTX 1080 зможуть скоро насолодитися програванням потокового 4K-відео з Netflix і інших провайдерів на своїх системах.

З точки зору виведення зображення на дисплеї, GeForce GTX 1080 має підтримку HDMI 2.0b з HDCP 2.2, а також DisplayPort. Поки що сертифікована версія DP 1.2, але GPU є готовим до сертифікації для новіших версій стандарту: DP 1.3 Ready і DP 1.4 Ready. Останнє дозволяє виводити зображення на 4K-екрани при частоті оновлення 120 Гц, а на 5K- і 8K-дисплеї - при 60 Гц при використанні пари кабелів DisplayPort 1.3. Якщо для GTX 980 максимальне підтримуваний дозвіл було 5120 × 3200 при 60 Гц, то для нової моделі GTX 1080 вона зросла до 7680 × 4320 при тих же 60 Гц. Референсна GeForce GTX 1080 має три виходи DisplayPort, один HDMI 2.0b і один цифровий Dual-Link DVI.

Нова модель відеокарти Nvidia отримала і покращений блок декодування і кодування відеоданих. Так, чіп GP104 відповідає високим стандартам PlayReady 3.0 (SL3000) для відтворення потокового відео, що дозволяє бути впевненим в тому, що програвання високоякісного контенту від відомих постачальників, на зразок Netflix, буде максимально якісним і енергоефективним. Подробиці про підтримку різних форматів відео при кодуванні і декодуванні наведені в таблиці, новинка явно відрізняється від попередніх рішень в кращу сторону:

Але ще більш цікавою новинкою можна назвати підтримку так званих дисплеїв підвищеного динамічного діапазону (High Dynamic Range - HDR), які ось-ось повинні отримати широке поширення на ринку. Телевізори продаються вже в 2016 році (і всього за рік планується продати чотири мільйони HDR-телевізорів), а монітори - в наступному. HDR - це найбільший прорив в дисплейних технологіях за довгі роки, цей формат забезпечує вдвічі більше колірних відтінків (75% видимого спектру, на відміну від 33% для RGB), більш яскраві дисплеї (1000 ніт) з більшою контрастністю (10000: 1) і насиченими кольорами.

Поява можливості відтворення контенту з більшою різницею в яскравості і багатшими і насиченими кольорами наблизить зображення на екрані до реальності, чорний колір стане глибше, яскравий же світло буде зліпити, як в реальному світі. Відповідно, користувачі побачать більше деталей в яскравих і темних ділянках зображень, в порівнянні зі стандартними моніторами і телевізорами.

Для підтримки HDR-дисплеїв, GeForce GTX 1080 має все необхідне - можливість виведення 12-бітного кольору, підтримку стандартів BT.2020 і SMPTE 2084, а також виведення зображення відповідно до стандарту HDMI 2.0b 10/12-біт для HDR в 4K- дозволі, що було і у Maxwell. На додаток до цього, в Pascal з'явилася підтримка декодування HEVC-формату в 4K-дозволі при 60 Гц і 10 або 12-бітному кольорі, який використовується для HDR-відео, а також кодування цього ж формату з такими ж параметрами, але тільки в 10-біт для запису HDR-відео або потокової передачі. Також новинка готова до стандартизації DisplayPort 1.4 для передачі HDR-даних з цього роз'єму.

До слова, кодування HDR-відео може знадобитися в майбутньому для того, щоб передавати такі дані з домашнього ПК на ігрову консоль SHIELD, яка вміє відтворювати 10-бітний HEVC. Тобто, користувач зможе транслювати гру з ПК в HDR-форматі. Стоп, а де взяти гри з такою підтримкою? Компанія Nvidia постійно працює з ігровими розробниками для впровадження такої підтримки, передаючи їм все необхідне (підтримку в драйвері, приклади коду і т. П.) Для коректного рендеринга HDR-зображення, сумісного з існуючими дисплеями.

На момент випуску відеокарти, GeForce GTX 1080, підтримкою HDR-виведення мають такі ігри, як Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle і Shadow Warrior 2. Але вже в найближчому майбутньому очікується поповнення цього списку .

Зміни в багаточіпових рендеринге SLI

Відбулися і деякі зміни, пов'язані з фірмовою технологією багаточіпових рендеринга SLI, хоча цього ніхто не очікував. SLI використовується ентузіастами ПК-ігор для того, щоб підвищити продуктивність або до екстремальних значень, встановивши найпотужніші одночиповие відеокарти в тандем, або для того, щоб отримати дуже високу частоту кадрів, обмежившись парою рішень середнього рівня, які іноді обходяться дешевше, ніж одне топове ( рішення спірне, але так роблять). При наявності 4K-моніторів у гравців майже не залишається інших варіантів, крім установки пари відеокарт, так як навіть топові моделі часто не можуть забезпечити комфортну гру при максимальних налаштуваннях у таких умовах.

Одним з важливих компонентів Nvidia SLI є містки, що з'єднують відеокарти в загальну видеоподсистему і службовці для організації цифрового каналу по передачі даних між ними. На відкритих GeForce традиційно встановлювалися подвійні роз'єми SLI, які служили для з'єднання між двома або чотирма відеокартами в 3-Way і 4-Way SLI конфігураціях. Кожна з відеокарт повинна була з'єднуватися з кожної, так як все GPU відправляли відрендерені ними кадри в головний графічний процесор, тому і були необхідні по два інтерфейси на кожній з плат.

Починаючи з моделі GeForce GTX 1080, для всіх відеокарт Nvidia, заснованих на архітектурі Pascal, два інтерфейси SLI пов'язані разом для збільшення продуктивності передачі даних між відеокартами, і такий новий двоканальний режим SLI дозволяє підвищити продуктивність і комфорт при виведенні візуальної інформації на дисплеї дуже високою роздільною здатністю або многомоніторний системи.

Для такого режиму знадобилися і нові містки, що отримали назву SLI HB. Вони об'єднують пару відеокарт GeForce GTX 1 080 відразу по двох каналах SLI, хоча нові відеокарти також сумісні і зі старими містками. Для дозволів 1920 × 1080 2560 × 1440 пікселів при частоті оновлення 60 Гц можна використовувати стандартні містки, але в більш вимогливих режимах (4K, 5K і мультимоніторних системи) кращі результати по плавності зміни кадрів забезпечать тільки нові містки, хоча і старі будуть працювати, але дещо гірше.

Також, при використанні містків SLI HB, інтерфейс передачі даних GeForce GTX 1080 працює на швидкості 650 МГц, в порівнянні з 400 МГц у звичайних містків SLI на старих GPU. Причому, для деяких з жорстких старих містків також доступна більш висока частота передачі даних з відеочіпами архітектури Pascal. З ростом швидкості передачі даних між GPU по подвоєному інтерфейсу SLI з підвищеною частотою роботи, забезпечується і більш плавний висновок кадрів на екран, в порівнянні з попередніми рішеннями:

Потрібно також відзначити, що підтримка багаточіпових рендеринга в DirectX 12 дещо відрізняється від того, що було звично раніше. В останній версії графічного API, компанія Microsoft зробила багато змін, пов'язаних з роботою таких відеосистем. Для розробників ПЗ в DX12 доступні два варіанти використання декількох GPU: режими Multi Display Adapter (MDA) і Linked Display Adapter (LDA).

Причому, режим LDA має дві форми: Implicit LDA (який Nvidia використовує для SLI) і Explicit LDA (коли розробник гри бере на себе завдання управління багаточіпових рендерингом. Режими MDA і Explicit LDA якраз і були впроваджені в DirectX 12 для того, щоб дати ігровим розробникам більше свободи і можливостей при використанні багаточіпових відеосистем. Різниця між режимами добре видно по наступній таблиці:

У режимі LDA, пам'ять кожного GPU може бути пов'язана з пам'яттю іншого і відображатися у вигляді великого загального обсягу, природно, при всіх обмеженнях по продуктивності, коли дані дістаються з «чужої» пам'яті. У режимі MDA, пам'ять кожного GPU працює окремо, і різні GPU не можуть отримати прямий доступ до даних з пам'яті іншого графічного процесора. Режим LDA розроблений для багаточіпових систем аналогічної продуктивності, а режим MDA має менше обмежень, і в ньому можуть спільно працювати дискретні і інтегровані GPU або дискретні рішення з чіпами різних виробників. Але цей режим також вимагає від розробників більше уваги і роботи при програмуванні спільної роботи для того, щоб GPU змогли обмінюватися інформацією один з одним.

За замовчуванням, SLI-система на основі плат GeForce GTX 1080 підтримує лише два GPU, а трьох-і четирехчіповие конфігурації офіційно не рекомендуються до використання, так як в сучасних іграх стає все більш складно забезпечувати приріст продуктивності від додавання третього і четвертого графічного процесора. Наприклад, багато ігор впираються в можливості центрального процесора системи при роботі багаточіпових відеосистем, також в нових іграх все частіше використовуються темпоральні (часові) техніки, що використовують дані з попередніх кадрів, в яких ефективна робота відразу декількох GPU просто неможлива.

Втім, робота систем в інших (SLI) багаточіпових системах залишається можливою, як то режими MDA або LDA Explicit в DirectX 12 або двухчиповая SLI система з виділеним третім GPU для фізичних ефектів PhysX. А як же рекорди в бенчмарках, невже в Nvidia відмовляються від них зовсім? Ні, звичайно, але так як подібні системи затребувані в світі мало не одиницями користувачів, то для таких ультраентузіастов придумали спеціальний ключ Enthusiast Key, який можна завантажити на сайті Nvidia і розблокувати цю можливість. Для цього потрібно спочатку отримати унікальний ідентифікатор GPU, запустивши спеціальний додаток, потім запросити Enthusiast Key на веб-сайті і, скачавши його, встановити ключ в систему, розблокувавши тим самим 3-Way і 4-Way конфігурації SLI.

Технологія синхронізації Fast Sync

Деякі зміни відбулися в технологіях синхронізації при поданні інформації на дисплей. Забігаючи вперед, в G-Sync не з'явилося нічого нового, що не підтримується і технологія адаптивної синхронізації Adaptive Sync. Зате в Nvidia вирішили поліпшити плавність виведення і синхронізацію для ігор, які показують дуже високу продуктивність, коли частота кадрів помітно перевищує частоту оновлення монітора. Це особливо важливо для ігор, що вимагають мінімальних затримок і швидкого відгуку і за якими проходять мультиплеєрний битви і змагання.

Fast Sync - це нова альтернатива вертикальної синхронізації, яка не має візуальних артефактів у вигляді розривів картинки на зображенні і не прив'язана до фіксованій частоті оновлення, що підвищує затримки. У чому проблема вертикальної синхронізації в таких іграх, як Counter-Strike: Global Offensive? Ця гра на потужних сучасних GPU працює з декількома сотнями кадрів в секунду, і у гравця є вибір: включати вертикальну синхронізацію чи ні.

У багатокористувацьких іграх користувачі найчастіше женуться за мінімальними затримками і VSync відключають, отримуючи абсолютно очевидно розриви на зображенні, вкрай неприємні і при високій частоті кадрів. Якщо ж включити вертикальну синхронізацію, то гравець отримає значне зростання затримок між його діями і зображенням на екрані, коли графічний конвеєр сповільнюється до частоти оновлення монітора.

Так працює традиційний конвеєр. Але в Nvidia вирішили розділити процес рендеринга і виведення зображення на екран за допомогою технології Fast Sync. Це дозволяє продовжувати максимально ефективну роботу для тієї частини GPU, яка займається рендерингом кадрів на повній швидкості, зберігаючи ці кадри в спеціальному тимчасовому буфері Last Rendered Buffer.

Такий метод дозволяє змінювати спосіб виведення на екран і брати краще від режимів VSync On і VSync Off, отримавши низькі затримки, але без артефактів зображення. З Fast Sync немає управління потоком кадрів, ігровий движок працює в режимі відключеною синхронізації і йому не говорять почекати з отрисовкой чергового, тому і затримки майже такі ж низькі, як у режиму VSync Off. Але так як Fast Sync самостійно вибирає буфер для виведення на екран і виводить кадр цілком, то немає і розривів картинки.

При роботі Fast Sync використовується три різних буфера, перші два з яких працюють аналогічно подвійний буферизації в класичному конвеєрі. Первинний буфер (Front Buffer - FB) - це буфер, інформація з якого виводиться на дисплей, повністю намальовані кадр. Вторинний буфер (Back Buffer - BB) - це буфер, в який надходить інформація при рендеринге.

При використанні вертикальної синхронізації в умовах високої частоти кадрів гра чекає досягнення моменту оновлення інформації на дисплеї (refresh interval), щоб поміняти місцями первинний буфер з вторинним для виведення зображення цільного кадру на екран. Це уповільнює процес, а додавання додаткових буферів як при традиційній потрійний буферизації лише додасть затримку.

Із застосуванням Fast Sync додається третій буфер Last Rendered Buffer (LRB), який використовується для зберігання всіх кадрів, тільки що відрендерених у вторинному буфері. Назва буфера говорить сама за себе, в ньому міститься копія останнього повністю намальовані кадру. І коли настане момент поновлення первинного буфера, цей LRB буфер копіюється в первинний цілком, а не частинами, як з вторинного при відключеною вертикальної синхронізації. Так як копіювання інформації з буферів неефективно, то вони просто міняються місцями (або перейменовуються, як буде зручніше зрозуміти), а нова логіка зміни буферів місцями, що з'явилася в GP104, управляє цим процесом.

На практиці включення нового методу синхронізації Fast Sync забезпечує все ж трохи більшу затримку, в порівнянні з зовсім відключеною вертикальної синхронізацією - в середньому на 8 мс більше, зате виводить кадри на монітор цілком, без неприємних артефактів на екрані, що розривають зображення. Новий метод можна включити з графічних налаштувань панелі управління Nvidia в секції управління вертикальної синхронізацією. Втім, значенням за замовчуванням залишається управління додатком, та й включати Fast Sync у всіх 3D-додатках просто не потрібно, краще вибрати цей метод конкретно для ігор з високим FPS.

Технології віртуальної реальності Nvidia VRWorks

Ми вже не раз порушували гарячу тему віртуальної реальності в статті, але мова в основному йшла про підвищення частоти кадрів і забезпечення низьких затримок, дуже важливих для VR. Все це дуже важливо і прогрес дійсно є, але поки що VR-ігри виглядають далеко не так вражаюче, як кращі з «звичайних» сучасних 3D-ігор. Так виходить не тільки тому, що VR-додатками провідні ігрові розробники поки що не особливо займаються, а й з-за більшої вимогливості VR до частоти кадрів, що не дає використовувати багато хто зі звичних технік в таких іграх через високої вимогливості.

Для того, щоб зменшити різницю в якості між VR-іграми і звичайними, в Nvidia вирішили випустити цілий пакет відповідних технологій VRWorks, в який увійшла велика кількість API, бібліотек, двигунів і технологій, які дозволяють значно поліпшити як якість, так і продуктивність VR- додатків. Як це відноситься до анонсу першого ігрового рішення на Pascal? Дуже просто - в нього впровадили деякі технології, які допомагають збільшити продуктивність і поліпшити якість, і ми про них вже писали.

І хоча справа стосується далеко не тільки графіки, спочатку трохи розповімо саме про неї. У набір технологій VRWorks Graphics входять вже згадані раніше технології, на кшталт Lens Matched Shading, що використовують можливість мультіпроецірованія, що з'явилася саме в GeForce GTX 1080. Новинка дозволяє отримати приріст продуктивності в 1,5-2 рази по відношенню до рішеннями, які не мають такої підтримки. Також ми згадували і інші технології, на кшталт MultiRes Shading, призначеного для рендеринга з різним дозволом в центрі кадру і на його периферії.

Але куди більш несподіваним був анонс технології VRWorks Audio, призначеної для якісного обрахунку звукових даних в 3D-сценах, особливо важливого в системах віртуальної реальності. У звичайних двигунах позиціонування джерел звуку в віртуальному середовищі розраховується досить коректно, якщо ворог стріляє праворуч, то і звук голосніше лунає з цього боку аудіосистеми, і такий розрахунок не надто вимогливий до обчислювальної потужності.

Але в реальності звуки йдуть не тільки до гравця, але у всіх напрямках і відбиваються від різних матеріалів, аналогічно тому, як відображаються промені світла. І в реальності ми чуємо ці відображення, хоч і не так чітко, як прямі звукові хвилі. Ці непрямі відлуння зазвичай імітуються спеціальними ефектами реверберації, але це - дуже примітивний підхід до задачі.

У пакеті VRWorks Audio використовується прорахунок звукових хвиль аналогічно трасування променів при рендеринге, коли шлях променів світла відстежується до декількох відображень від об'єктів у віртуальній сцені. VRWorks Audio також імітує поширення звукових хвиль в навколишньому середовищі, коли відслідковуються прямі і відбиті хвилі, в залежності від кута їх падіння і властивостей відображають матеріалів. У своїй роботі VRWorks Audio використовує відомий по графічним завданням високопродуктивний движок Nvidia OptiX, призначений для трасування променів. OptiX може використовуватися для різноманітних завдань, таких як розрахунок непрямого освітлення і підготовка карт освітлення, а тепер і для трасування звукових хвиль в VRWorks Audio.

Nvidia вбудувала точний розрахунок звукових хвиль в свою демонстраційну програму VR Funhouse, в ній використовується кілька тисяч променів і прораховується до 12 відбитків від об'єктів. А для того, щоб на зрозумілому прикладі засвоїти переваги технології, пропонуємо вам подивитися відеоролик про роботу технології російською мовою:

Важливо, що підхід Nvidia відрізняється від традиційних звукових движків, в тому числі і апаратно прискореного за допомогою спеціального блоку в GPU методу від головного конкурента. Всі ці методи забезпечують лише точне позиціонування джерел звуку, але не розраховують відображення звукових хвиль від об'єктів в 3D-сцені, хоча і можуть імітувати це за допомогою ефекту реверберації. І все ж використання технології трасування променів може бути куди реалістичніше, так як тільки такий підхід забезпечить точну імітацію різних звуків, з урахуванням розмірів, форми і матеріалів об'єктів в сцені. Складно сказати, чи така точність обчислень для типового гравця, але можна сказати точно: в VR вона може додати користувачам тієї самої реалістичності, якої поки що не вистачає в звичайних іграх.

Ну а нам залишилося розповісти лише про технології VR SLI, що працює і в OpenGL і в DirectX. Її принцип гранично простий: двухпроцессорная відеосистема в VR-додатку буде працювати так, що кожному оці виділяється окремий GPU, на відміну від AFR-рендеринга, звичного для SLI-конфігурацій. Це значно підвищує загальну продуктивність, настільки важливу для систем віртуальної реальності. Теоретично можна використовувати і більшу кількість GPU, але їх кількість повинна бути парним.

Такий підхід потрібен тому, що AFR погано підходить для VR, так як з його допомогою перший GPU буде малювати парний кадр для обох очей, а другий - непарний, що нітрохи не знижує затримки, критично важливі для систем віртуальної реальності. Хоча частота кадрів при цьому буде досить високою. Так що за допомогою VR SLI робота над кожним кадром розділяється на два GPU - один працює над частиною кадру для лівого ока, другий - для правого, а потім ці половинки кадру об'єднуються в цілий.

Подібне розділення роботи між парою графічних процесорів приносить майже двократне зростання продуктивності, що дозволяє підняти частоту кадрів і знизити затримки в порівнянні з системами на основі однієї відеокарти. Правда, використання VR SLI вимагає спеціальної підтримки з боку програми, щоб використовувати цей метод масштабування. Але технологія VR SLI вже вбудована в такі демонстраційні VR-додатки як The Lab від Valve і Trials on Tatooine від ILMxLAB, і це тільки початок - о Nvidia обіцяють швидку появу інших додатків, а також впровадження технології в ігрові движки Unreal Engine 4, Unity і MaxPlay.

Платформа створення ігрових скріншотів Ansel

Одним з найцікавіших анонсів, пов'язаних з програмним забезпеченням, став випуск технології захоплення якісних скріншотів в ігрових додатках, названої на честь одного відомого фотографа - Ansel. Ігри вже давно стали не просто іграми, а й місцем застосування пустотливих рук для різних творчих особистостей. Хтось змінює скрипти до ігор, хтось випускає якісні набори текстур до ігор, а хтось - робить гарні скріншоти.

Компанія Nvidia вирішила допомогти останнім, представивши нову платформу для створення (саме створення, тому що це не такий вже простий процес) якісних знімків з ігор. Вони вважають, що Ansel може допомогти створити новий вид сучасного мистецтва. Адже вже є досить багато художників, які проводять більшу частину життя за ПК, створюючи красиві скріншоти з ігор, і у них до цих пір не було зручного інструменту для цього.

Ansel дозволяє не просто захоплювати зображення в грі, а міняти його так, як потрібно творцеві. За допомогою цієї технології можна рухати камеру по сцені, повертати і нахиляти її в будь-якому напрямку для того, щоб отримати необхідну композицію кадру. Наприклад, в таких іграх, як шутери від першої особи, можна тільки рухати гравця, більше нічого міняти особливо не вийде, тому все скріншоти виходять досить одноманітними. З вільною ж камерою в Ansel можна вийти далеко за межі ігрової камери, вибравши такий ракурс, який потрібен для вдалої картинки, або зовсім захопити повноцінну 360-градусну стереокартіну з необхідної точки, та з високою роздільною здатністю для подальшого перегляду в VR-шоломі.

Ansel працює досить просто - за допомогою спеціальної бібліотеки від Nvidia ця платформа впроваджується в код гри. Для цього її розробнику потрібно всього лише додати невеликий шматок коду в свій проект, щоб дозволити відеодрайверів Nvidia перехоплювати дані буферів і шейдеров. Роботи там зовсім небагато, впровадження Ansel в гру вимагає менше ніж одного дня для впровадження. Так, включення цієї можливості в гру The Witness зайняло близько 40 рядків коду, а в The Witcher 3 - близько 150 рядків коду.

Ansel з'явиться з відкритим пакетом для розробки - SDK. Головне, що користувач отримує разом з ним стандартний набір налаштувань, що дозволяють йому змінювати положення і кут камери, додавати ефекти і т. П. Платформа Ansel працює так: вона ставить гру на паузу, включає вільну камеру і дозволяє змінювати кадр до необхідного виду, записуючи результат у вигляді звичайного скриншота, 360-градусного знімка, стереопари або просто панорами величезного дозволу.

Єдине зауваження: не всі ігри отримають підтримку всіх можливостей платформи створення ігрових скріншотів Ansel. Деякі з ігрових розробників з тих чи інших причин не бажають включати повністю вільну камеру в своїх іграх - наприклад, через можливість використання цієї функціональності читерамі. Або вони хочуть обмежити зміна кута огляду по все тієї ж причини - щоб ніхто не отримав несправедливої \u200b\u200bпереваги. Ну, або щоб користувачі не побачили убогі спрайт на задньому плані. Все це - цілком нормальні бажання творців ігор.

Однією з найцікавіших можливостей Ansel є створення скріншотів просто величезного дозволу. Неважливо, що гра підтримує дозволу до 4K, наприклад, а монітор у користувача і зовсім Full HD. За допомогою платформи зняття скріншотів можна захопити куди більш якісне зображення, обмежене швидше обсягом і продуктивністю накопичувача. Платформа з легкістю захоплює скріншоти з дозволом до 4,5 гігапікселів, зі зшивкою їх з 3600 шматочків!

Зрозуміло, що на таких картинах можна розглянути всі деталі, аж до тексту на валяються далеко газетах, якщо такий рівень деталізації в принципі передбачений в грі - Ansel вміє керувати і рівнем деталізації, виставляючи максимальний рівень, щоб отримати кращу якість картинки. А ще ж можна включити суперсемплінг. Все це дозволяє створювати зображення з ігор, які можна сміливо друкувати на великих банерах і бути спокійним за їх якість.

Цікаво, що для зшивання великих зображень використовується спеціальний апаратно прискорений код на основі CUDA. Адже ніяка відеокарта не зможе отрендеріть многогігапіксельное зображення цілком, але вона може зробити це по шматочках, які потрібно просто об'єднати згодом, з огляду на можливу різницю в освітленні, кольорі та інше.

Після зшивання таких панорам для всього кадру використовується спеціальна постобработка, також прискорена на GPU. А для захоплення зображень в підвищеному динамічному діапазоні можна використовувати спеціальний формат зображень - EXR, відкритий стандарт від Industrial Light and Magic, значення кольоровості в кожному каналі якого записуються в 16-бітному форматі з плаваючою комою (FP16).

Цей формат дозволяє змінювати яскравість і динамічний діапазон зображення постобработкой, приводячи його до потрібного для кожного конкретного дисплея аналогічно тому, як це робиться з RAW-форматами з фотокамер. Та й для подальшого застосування фільтрів постобработки в програмах обробки зображень цей формат дуже корисний, тому що містить куди більше даних, ніж звичні формати для зображень.

Але платформа Ansel і сама містить безліч фільтрів для обробки поста, що особливо важливо тому, що вона має доступ не тільки до підсумкової зображенні, але і до всіх буферам, що використовується грою при рендеринге, що можна використовувати для дуже цікавих ефектів, на зразок глибини різкості. Для цього в Ansel є спеціальний API для обробки поста, і будь-який з ефектів можна включити в гру з підтримкою цієї платформи.

У число постфільтром Ansel входять такі фільтри як: color curves, color space, transformation, desaturation, brightness / contrast, film grain, bloom, lens flare, anamorphic glare, distortion, heathaze, fisheye, color aberration, tone mapping, lens dirt, lightshafts , vignette, gamma correction, convolution, sharpening, edge detection, blur, sepia, denoise, FXAA і інші.

Що стосується появи підтримки Ansel в іграх, то тут доведеться трохи почекати, поки розробники її впровадять і протестують. Але Nvidia обіцяє швидку появу такої підтримки в таких відомих іграх, як The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man "s Sky, Unreal Tournament і інших.

Новий технологічний процес 16 нм FinFET і оптимізації архітектури дозволили відеокарті GeForce GTX 1080, заснованої на графічному процесорі GP104, досягти високої тактової частоти в 1,6-1,7 ГГц навіть в референсном вигляді, а роботу на максимально можливих частотах в іграх гарантує нове покоління технології GPU Boost. Разом із збільшеною кількістю виконавчих блоків, ці поліпшення зробили новинку не просто самої високопродуктивної одночіповою відкритий за весь час, але і найбільш енергоефективним рішенням на ринку.

Модель GeForce GTX 1080 стала першою відеокартою, що несе на собі новий тип графічної пам'яті GDDR5X - нового покоління високошвидкісних чіпів, яке дозволило досягти дуже високої частоти передачі даних. У разі модифікації GeForce GTX 1080, цей тип пам'яті працює на ефективній частоті в 10 ГГц. У поєднанні з поліпшеними алгоритмами стиснення інформації у фреймбуфер, це призвело до зростання ефективної пропускної здатності пам'яті для цього графічного процесора в 1,7 рази, в порівнянні з прямим попередником в особі GeForce GTX 980.

Компанія Nvidia розсудливо вирішила не випускати радикально нову архітектуру на абсолютно новому для себе техпроцессе, щоб не зіткнутися з зайвими проблемами при розробці і виробництві. Замість цього вони серйозно поліпшили і так непогану і досить ефективну архітектуру Maxwell, додавши деякі можливості. У підсумку, з виробництвом нових GPU все добре, і в разі моделі GeForce GTX 1080 інженери домоглися дуже високого частотного потенціалу - в розігнаних варіантах від партнерів частота GPU очікується аж до 2 ГГц! Настільки вражаюча частота стала реальна завдяки досконалому техпроцесу і копіткій роботі інженерів Nvidia при розробці графічного процесора Pascal.

І хоча Pascal став прямим послідовником справи Maxwell, і ці графічні архітектури в основі своїй не дуже сильно відрізняються один від одного, компанія Nvidia впровадила безліч змін і поліпшень, у тому числі в можливості виведення зображення на дисплеї, движок кодування і розкодування відеозображення, поліпшили асинхронне виконання різних типів обчислень на GPU, внесли зміни в багаточіпових рендеринг і впровадили новий метод синхронізації Fast Sync.

Не можна не виділити технологію мультіпроецірованія Simultaneous Multi-Projection, яка допомагає підвищити продуктивність в системах віртуальної реальності, отримати більш коректне відображення сцен на багатомоніторних системах, і впровадити нові техніки оптимізації продуктивності. Але найбільший приріст в швидкості отримають VR-додатки, коли ними буде підтримуватися технологія мультіпроецірованія, яка допомагає вдвічі заощадити ресурси GPU при обробці геометричних даних і в півтора рази - при попіксельно обчисленнях.

Серед чисто програмних змін особливо виділяється платформа для створення скріншотів в іграх під назвою Ansel - спробувати її в справі буде цікаво не тільки багато граючим, а й просто цікавиться якісною 3D-графікою. Новинка дозволяє просунути мистецтво створення і ретуші скріншотів на новий рівень. Ну а такі свої пакети для розробників ігор, як GameWorks і VRWorks, Nvidia просто продовжує покращувати крок за кроком - так, в останньому з'явилася цікава можливість якісного обрахунку звуку, що враховує численні відображення звукових хвиль з використанням апаратної трасування променів.

Загалом, у вигляді відеокарти Nvidia GeForce GTX 1080 на ринок вийшов справжній лідер, який має для цього всі необхідні якості: високу продуктивність і широку функціональність, а також підтримку нових можливостей і алгоритмів. Перші покупці цієї відеокарти зможуть оцінити багато зі згаданих переваг відразу, а інші можливості вирішення розкриються трохи пізніше, коли з'явиться широка підтримка з боку програмного забезпечення. Головне, що GeForce GTX 1080 вийшла вельми швидкою і ефективною, а частина проблемних місць (ті ж асинхронні обчислення), як ми дуже сподіваємося, інженерам Nvidia вдалося виправити.

Графічний прискорювач GeForce GTX 1070

параметрзначення
Кодове ім'я чіпаGP104
Технологія виробництва16 нм FinFET
кількість транзисторів7,2 млрд.
Площа ядра314 мм²
архітектураУніфікована, з масивом загальних процесорів для потокової обробки численних видів даних: вершин, пікселів і ін.
Апаратна підтримка DirectXDirectX 12, з підтримкою рівня можливостей Feature Level 12_1
шина пам'яті256-бітна: вісім незалежних 32-бітних контролерів пам'яті з підтримкою GDDR5 і GDDR5X пам'яті
Частота графічного процесора1506 (1683) МГц
обчислювальні блоки15 активних (з 20 в чіпі) потокових мультипроцессоров, що включають 1920 (з 2560) скалярних ALU для розрахунків з плаваючою комою в рамках стандарту IEEE 754-2008;
блоки текстурування120 активних (з 160 в чіпі) блоків текстурної адресації та фільтрації з підтримкою FP16- і FP32-компонент в структурах і підтримкою трилинейной і анізотропної фільтрації для всіх текстурних форматів
Блоки растрових операцій (ROP)8 широких блоків ROP (64 пікселя) з підтримкою різних режимів згладжування, в тому числі програмованих і при FP16- або FP32-форматі буфера кадру. Блоки складаються з масиву конфігурованих ALU і відповідають за генерацію і порівняння глибини, мультісемплінг і Блендінг
підтримка моніторівІнтегрована підтримка до чотирьох моніторів, підключених по інтерфейсів Dual Link DVI, HDMI 2.0b і DisplayPort 1.2 (1.3 / 1.4 Ready)

Специфікації референсной відеокарти GeForce GTX 1070
параметрзначення
частота ядра1506 (1683) МГц
Кількість універсальних процесорів1920
Кількість текстурних блоків120
Кількість блоків блендінга64
Ефективна частота пам'яті8000 (4 × 2000) МГц
Тип пам'ятіGDDR5
шина пам'яті256-біт
Обсяг пам'яті8 ГБ
Пропускна здатність пам'яті256 ГБ / с
Обчислювальна продуктивність (FP32)близько 6,5 терафлопс
Теоретична максимальна швидкість зафарбування96 гігапікселів / с
Теоретична швидкість вибірки текстур181 гігатекселей / с
шинаPCI Express 3.0
роз'ємиОдин роз'єм Dual Link DVI, один HDMI і три DisplayPort
енергоспоживаннядо 150 Вт
додаткове харчуванняОдин 8-контактний роз'єм
Число слотів, займаних в системному корпусі2
Рекомендована ціна$ 379-449 (США), 34 990 (Росія)

Відеокарта GeForce GTX 1070 також отримала логічне найменування, аналогічне такого ж рішення з попередньої серій GeForce. Воно відрізняється від свого прямого попередника GeForce GTX 970 тільки зміненою цифрою покоління. Новинка стає в поточній лінійці компанії на крок нижче нинішнього топового рішення GeForce GTX 1080, який став тимчасовим флагманом нової серії до випуску рішень на GPU ще більшої потужності.

Рекомендовані ціни на нову топову відеокарту Nvidia становлять $ 379 і $ 449 для звичайних версій партнерів Nvidia і спеціального видання Founders Edition, відповідно. У порівнянні з топовою моделлю, це дуже хороша ціна з урахуванням того, що GTX 1070 поступається їй близько 25% в гіршому випадку. І на момент анонса і виходу GTX 1070 стає кращим за продуктивністю рішенням в своєму класі. Як і GeForce GTX 1080, модель GTX 1070 не має прямих конкурентів від AMD, і порівнювати її можна хіба що з Radeon R9 390X і Fury.

У графічного процесора GP104 в модифікації GeForce GTX 1070 вирішили залишити повну 256-бітну шину пам'яті, хоча застосували не нова тип пам'яті GDDR5X, а дуже швидку GDDR5, яка працює на високій ефективній частоті в 8 ГГц. Обсяг встановленої на відеокарту пам'яті з такою шиною може бути дорівнює 4 або 8 ГБ, і, щоб забезпечити максимальну продуктивність нового рішення в умовах високих налаштувань і дозволах рендеринга, модель відеокарти GeForce GTX 1070 була також оснащена 8 ГБ відеопам'яті, як і її старша сестра. Цього обсягу вистачить для запуску будь-яких 3D-додатків з максимальними настройками якості на кілька років.

Спеціальне видання GeForce GTX 1070 Founders Edition

При анонсі GeForce GTX 1080 на початку травня було оголошено спеціальне видання відеокарти під назвою Founders Edition, що має вищу ціну, в порівнянні зі звичайними відеокартами партнерів компанії. Те ж саме відноситься і до новинки. У цьому матеріалі ми знову розповімо про спеціальному виданні відеокарти GeForce GTX 1 070 під назвою Founders Edition. Як і в разі старшої моделі, Nvidia вирішила випустити такий варіант референсной відеокарти виробника за вищою ціною. Вони стверджують, що багато гравців і ентузіасти, які купують дорогі відеокарти топового рівня, хочуть продукт з відповідним «преміальним» видом і відчуттям від нього.

Відповідно, саме для таких користувачів на ринок буде випущена відеокарта GeForce GTX 1070 Founders Edition, яка спроектована і виконана інженерами Nvidia з преміальних матеріалів і компонентів, начебто алюмінієвої кришки GeForce GTX 1070 Founders Edition, а також низкопрофильной задньої пластини, що прикриває зворотний бік друкованої плати і досить популярною серед ентузіастів.

Як ви можете бачити по фотографіях плати, GeForce GTX 1070 Founders Edition успадкувала рівно той же індустріальний дизайн, властивий референсному варіанту GeForce GTX 1080 Founders Edition. В обох моделях застосовується радіальний вентилятор, що викидає нагріте повітря назовні, що дуже корисно як в маленьких корпусах, так і багаточіпових SLI-конфігураціях з обмеженим фізично простором. Видув нагрітого повітря назовні замість його циркуляції всередині корпусу дозволяє знизити температурне навантаження, підвищити результати розгону і продовжити час життя компонентів системи.

Під кришкою референсной системи охолодження GeForce GTX 1070 ховається алюмінієвий радіатор спеціальної форми з трьома вбудованими тепловими трубками з міді, що відводять тепло від самого графічного процесора. Тепло, відведений тепловими трубками, потім розсіюється за допомогою алюмінієвого радіатора. Ну і низькопрофільна металева пластина на зворотному боці плати також призначена для забезпечення кращих температурних характеристик. Вона також має прибирається секцію для кращого руху повітря між декількома відеокартами в SLI-конфігураціях.

Що стосується системи живлення плати, то GeForce GTX 1070 Founders Edition має чотирьохфазна систему харчування, оптимізовану для стабільного постачання енергією. Компанія Nvidia запевняє, що використання спеціальних компонентів в GTX 1070 Founders Edition дозволило підвищити ефективність електропостачання, стабільність і надійність в порівнянні з GeForce GTX 970, забезпечивши кращі показники при розгоні. У власних тестах компанії графічні процесори плат GeForce GTX 1070 легко перевершували значення в 1,9 ГГц, що близько до результатів старшої моделі GTX 1080.

Відеокарта Nvidia GeForce GTX 1070 буде доступна в роздрібних магазинах починаючи з 10 червня. Рекомендовані ціни на GeForce GTX 1070 Founders Edition і рішення партнерів відрізняються, і в цьому полягає найголовніше питання до цього спеціальному виданню. Якщо партнери Nvidia продаватимуть свої відеокарти GeForce GTX 1070 за ціною, починаючи від $ 379 (на ринку США), то Founders Edition референсного дизайну Nvidia буде коштувати вже $ 449. Чи багато знайдеться ентузіастів, готових переплачувати за, скажімо прямо, сумнівні переваги референсного варіанту? Час покаже, але ми вважаємо, що референсна плата цікава скоріше як варіант, доступний до покупки на самому початку продажів, а пізніше сенс його придбання (та ще за велику ціну!) Вже зводиться до нуля.

Залишається додати, що друкована плата референсной GeForce GTX 1070 схожа з такою у старшій відеокарти і обидві вони відрізняються від пристрою попередніх плат компанії. Значення типового енергоспоживання для новинки становить 150 Вт, що менше значення для GTX 1080 майже на 20% і близько до споживання енергії відкритий попереднього покоління GeForce GTX 970. Референсна плата Nvidia має вже звичний набір роз'ємів для приєднання пристроїв виведення зображення: один Dual-Link DVI , один HDMI і три DisplayPort. Причому, з'явилася підтримка нових версій HDMI і DisplayPort, про яку ми написали вище в огляді моделі GTX 1080.

архітектурні зміни

Відеокарта моделі GeForce GTX +1070 заснована на чіпі GP104, первістку нового покоління графічної архітектури Nvidia - Pascal. Ця архітектура взяла в основу рішення, відпрацьовані ще в Maxwell, але в ній є і деякі функціональні відмінності, про які ми докладно писали вище - в частині, присвяченій топової відеокарти GeForce GTX 1080.

Головною зміною нової архітектури став технологічний процес, за яким будуть виконані всі нові графічні процесори. Застосування техпроцесу 16 нм FinFET при виробництві GP104 дозволило значно підвищити складність чіпа при збереженні порівняно невисокою площі і собівартості, і перший же чіп архітектури Pascal має помітно більшу кількість виконавчих блоків, в тому числі забезпечують нову функціональність, в порівнянні з чіпами Maxwell схожого позиціонування.

Відеочіп GP104 за своїм устроєм схожий з аналогічними рішеннями архітектури Maxwell, і докладні дані про пристрій сучасних GPU ви можете знайти в наших оглядах попередніх рішень компанії Nvidia. Як і попередні графічні процесори, чіпи нової архітектури матимуть різну конфігурацію обчислювальних кластерів Graphics Processing Cluster (GPC), потокових мультипроцессоров Streaming Multiprocessor (SM) і контролерів пам'яті, і в GeForce GTX 1070 вже відбулися деякі зміни - частина чіпа була заблокована і неактивна ( виділено сірим):

Хоча до складу графічного процесора GP104 входить чотири кластери GPC і 20 мультипроцессоров SM, у версії для GeForce GTX 1070 він отримав урізану версію з апаратно відключеним одним кластером GPC. Так як кожен кластер GPC має виділений движок растеризації і включає в себе п'ять мультипроцессоров SM, а кожен мультипроцессор складається з 128 CUDA-ядер і восьми текстурних блоків TMU, то в цій версії GP104 активні 1920 CUDA-ядер і 120 блоків TMU з 2560 потокових процесорів і 160 текстурних блоків, наявних фізично.

Графічний процесор, на якому заснована відеокарта GeForce GTX 1070, містить вісім 32-бітових контролерів пам'яті, що дають підсумкову 256-бітну шину пам'яті - рівно як в разі старшої моделі GTX 1080. Підсистема пам'яті не була урізана для того, щоб забезпечити достатньо високу пропускну здатність пам'яті з умовою застосування GDDR5-пам'яті в GeForce GTX 1070. до кожного з контролерів пам'яті прив'язаний по вісім блоків ROP і 256 КБ кеш-пам'яті другого рівня, тому чіп GP104 і в цій модифікації також містить 64 блоків ROP і 2048 КБ кеш-пам'яті другого рівня.

Завдяки архітектурним оптимізаціям і новому техпроцесу, графічний процесор GP104 став самим енергоефективним графічним процесором на даний момент. Інженери компанії Nvidia змогли підвищити тактову частоту більше, ніж вони розраховували при переході на новий техпроцес, для чого їм довелося добре попрацювати, ретельно перевіривши і оптимізувавши всі вузькі місця попередніх рішень, що не дозволяють їм працювати на більш високій частоті. Відповідно, GeForce GTX 1070 також працює на дуже високій частоті, більш ніж на 40% вище референсного значення для GeForce GTX 970.

Так як модель GeForce GTX 1 070 є, по своїй суті, просто трохи менш продуктивною GTX 1080 GDDR5-пам'яттю, то вона підтримує абсолютно всі технології, описані нами в попередньому розділі. Щоб отримати більше деталей про архітектуру Pascal, так само як і підтримуваних їй технологіях, на зразок поліпшених блоків виведення і обробки відеоданих, підтримки асинхронних обчислень Async Compute, технології мультіпроецірованія Simultaneous Multi-Projection, зміни в багаточіпових рендеринге SLI і новий тип синхронізації Fast Sync, варто ознайомитися з розділом по GTX 1080.

Високопродуктивна GDDR5-пам'ять і її ефективне використання

Ми вище писали про зміни в підсистемі пам'яті у графічного процесора GP104, на якому засновані моделі GeForce GTX 1080 GTX 1070 - контролери пам'яті, наявні в складі цього GPU, підтримують як новий тип відеопам'яті GDDR5X, про який докладно написано в огляді GTX 1080, так і стару добру GDDR5-пам'ять, відому нам ось уже кілька років.

Щоб не дуже багато втратити в пропускної здатності пам'яті в молодшій моделі GTX 1070 в порівнянні зі старшою GTX 1080, в ній залишили активними всі вісім 32-бітових контролерів пам'яті, отримавши повноцінний 256-бітний загальний інтерфейс відеопам'яті. Крім цього, відеокарту оснастили найбільш високошвидкісною GDDR5-пам'яттю, яка тільки була доступна на ринку - з ефективною частотою роботи в 8 ГГц. Все це забезпечило ПСП в 256 ГБ / с, на відміну від 320 ГБ / с у старшого рішення - приблизно на стільки ж були урізані і обчислювальні можливості, так що баланс був дотриманий.

Не забуваємо, що хоча пікова теоретична пропускна здатність важлива для продуктивності графічних процесорів, потрібно звертати увагу і на ефективність її використання. В процесі рендеринга, безліч різних вузьких місць може обмежувати загальну продуктивність, не даючи використовувати всю наявну ПСП. Щоб мінімізувати кількість таких вузьких місць, в графічних процесорах застосовується спеціальне стиснення інформації без втрат, що підвищує ефективність операцій читання і запису даних.

В архітектурі Pascal було впроваджено вже четверте покоління дельта-стиснення інформації буферів, що дозволяє GPU більш ефективно використовувати наявні можливості шини відеопам'яті. Підсистема пам'яті в GeForce GTX 1070 і GTX 1080 використовує поліпшені старі і кілька нових технік зі стиснення даних без втрат, призначені для зниження вимог до ПСП. Це знижує кількість записуваних даних в пам'ять, покращує ефективність використання L2-кеша і зменшує кількість даних, що пересилаються між різними точками GPU, на кшталт TMU і фреймбуфер.

GPU Boost 3.0 і особливості розгону

Більшість партнерів компанії Nvidia вже анонсували фабрично розігнані рішення на основі GeForce GTX 1080 GTX 1070. А багато хто з виробників відеокарт створюють і спеціальні утиліти для розгону, що дозволяють використовувати нову функціональність технології GPU Boost 3.0. Одним із прикладів таких утиліт є EVGA Precision XOC, яка включає автоматичний сканер для визначення кривої співвідношення напруг і частот - в цьому режимі для кожного із значень напруги за допомогою запуску тесту стабільності знаходиться стабільна частота, при якій GPU забезпечує зростання продуктивності. Втім, цю криву можна змінювати і вручну.

Технологію GPU Boost ми добре знаємо з попередніх відеокарт компанії Nvidia. У своїх графічних процесорах вони застосовують цю апаратну особливість, призначену для збільшення робочої тактової частоти GPU в режимах, коли він ще не досяг меж по енергоспоживання і тепловиділення. У графічних процесорах Pascal цей алгоритм зазнав кілька змін, основним з яких стала тонша установка турбо-частот, в залежності від напруги.

Якщо раніше різниця між базовою частотою і турбо-частотою була фіксованою, то в GPU Boost 3.0 з'явилася можливість установки зсувів турбо-частот для кожного напруги окремо. Тепер турбо-частота може встановлюватися для кожного з індивідуальних значень напруги, що дозволяє повністю вичавлювати всі можливості розгону з GPU. Ми докладно писали про цю можливість в огляді GeForce GTX 1080, і для цього можна використовувати утиліти EVGA Precision XOC і MSI Afterburner.

Так як в методиці розгону з виходом відеокарт з підтримкою GPU Boost 3.0 змінилися деякі деталі, то Nvidia довелося зробити додаткові пояснення в інструкції по розгону новинок. Існують різні методики розгону з різними змінними характеристиками, що впливають на підсумковий результат. Для кожної конкретної системи може краще підійти якийсь певний метод, але основа завжди приблизно однакова.

Багато з оверклокерів для перевірки стабільності системи використовують бенчмарк Unigine Heaven 4.0, який відмінно завантажує графічний процесор роботою, має гнучкі налаштування і може бути запущений в віконному режимі разом з вікном утиліти для розгону і моніторингу поруч, начебто EVGA Precision або MSI Afterburner. Втім, такої перевірки достатньо лише для початкових спроб, а для міцного підтвердження стабільності розгону, його необхідно перевірити в кількох ігрових додатках, тому що різні ігри припускають відрізняється навантаження на різні функціональні блоки GPU: математичні, текстурні, геометричні. Бенчмарк Heaven 4.0 також зручний для завдання розгону тому, що в ньому є закільцований режим роботи, в якому зручно змінювати налаштування розгону і є бенчмарк для оцінки приросту швидкості.

Nvidia радить при розгоні нових відеокарт GeForce GTX 1080 GTX 1070 запускати вікна Heaven 4.0 і EVGA Precision XOC спільно. Спочатку бажано відразу ж підвищити швидкість обертання вентилятора. І для серйозного розгону можна відразу виставляти значення швидкості на 100%, що зробить роботу відеокарти дуже гучною, але максимально охолодить GPU і інші компоненти відеокарти, знизивши температуру на мінімально можливий рівень, запобігши тротлінг (зниження частот через зростання температури GPU вище певного значення ).

Далі потрібно встановити цільове значення харчування (Power Target) також на максимум. Ця установка дозволить забезпечити графічний процесор максимально можливою кількістю енергії, підвищивши рівень енергоспоживання і цільову температуру GPU (GPU Temp Target). У деяких цілях, друге значення можна відокремити від зміни Power Target, і тоді ці настройки можна буде налаштовувати індивідуально - для досягнення меншого нагріву відеочипа, наприклад.

Наступним кроком йде збільшення значення приросту частоти відеочіпа (GPU Clock Offset) - воно означає, наскільки більшою буде турбо-частота при роботі. Це значення підвищує частоту для всіх значень напруги і призводить до більшої продуктивності. Як завжди, при розгоні потрібно перевіряти стабільність при підвищенні частоти GPU невеликими кроками - від 10 МГц до 50 МГц на крок до того, як буде зазначено зависання, помилка драйвера або програми або навіть візуальні артефакти. При досягненні такого ліміту слід знизити значення частоти на крок вниз і ще раз перевірити стабільність і продуктивність при розгоні.

Крім частоти GPU, можна також збільшити і частоту відеопам'яті (Memory Clock Offset), що особливо важливо в разі GeForce GTX 1070, оснащеної GDDR5-пам'яттю, яка зазвичай непогано розганяється. Процес в разі частоти роботи пам'яті в точності повторює те, що робиться при знаходженні стабільної частоти GPU, єдина різниця в тому, що кроки можна робити більші - додавати відразу по 50-100 МГц до базової частоті.

Крім описаних вище кроків, можна збільшити і межа напруги (Overvoltage), адже більш висока частота графічного процесора часто досягається при підвищеній напрузі, коли працюють нестабільно частини GPU отримують додаткове харчування. Правда, потенційним мінусом підвищення даного значення є можливість пошкодження відеочипа і прискореного виходу його з ладу, тому потрібно використовувати підвищення напруги з особливою обережністю.

Любителі розгону використовують трохи відрізняються методики, змінюючи параметри в різному порядку. Наприклад, деякі оверклокери поділяють досліди по знаходженню стабільної частоти GPU і пам'яті, щоб вони не заважали один одному, а потім тестують комбінований розгін і відеочипа і мікросхем пам'яті, але це вже - несуттєві деталі індивідуального підходу.

Судячи з думок в форумах і коментарях до статей, деяким користувачам не припав до смаку новий алгоритм роботи GPU Boost 3.0, коли частота GPU спочатку задирається дуже високо, часто вище турбо-частоти, але потім, під впливом зростання температури GPU або збільшеного енергоспоживання вище встановленого межі, вона може опуститися до значно менших значень. Це просто специфіка роботи оновленого алгоритму, потрібно звикнути до нової поведінки динамічно змінюваної частоти GPU, але ніяких негативних наслідків воно не несе.

Відеокарта GeForce GTX 1070 стала другою після GTX 1080 моделлю в новій лінійці компанії Nvidia, заснованої на графічних процесорах сімейства Pascal. Новий технологічний процес 16 нм FinFET і оптимізації архітектури дозволили представленої відеокарти досягти високої тактової частоти, в чому їй допомагає і нове покоління технології GPU Boost. Навіть незважаючи на урізане кількість функціональних блоків у вигляді потокових процесорів і текстурних модулів, їх кількість залишилася достатнім для того, щоб GTX 1070 стала найвигіднішим і енергоефективним рішенням.

Установка на молодшу з пари випущених моделей відеокарт Nvidia на чіпі GP104 пам'яті стандарту GDDR5, на відміну від нового типу GDDR5X, яким відрізняється GTX 1080, не заважає їй досягти високих показників продуктивності. По-перше, в Nvidia вирішили не урізати шину пам'яті моделі GeForce GTX 1070, а по-друге, на неї поставили найшвидшу GDDR5-пам'ять з ефективною частотою в 8 ГГц, що лише трохи нижче 10 ГГц у застосовуваної в старшій моделі GDDR5X. З огляду на ще і поліпшені алгоритми дельта-стиску, ефективна пропускна здатність пам'яті графічного процесора стала вище цього ж параметра в аналогічної моделі попереднього покоління GeForce GTX 970.

GeForce GTX 1070 хороша тим, що пропонує дуже високу продуктивність і підтримку нових можливостей і алгоритмів при значно меншій ціні, у порівнянні зі старшою моделлю, анонсованої трохи раніше. Якщо придбання GTX 1080 за 55 000 собі зможуть дозволити одиниці ентузіастів, то викласти 35 000 за лише на чверть менше продуктивне рішення рівно з тими ж можливостями зможе вже куди більше коло потенційних покупців. Саме поєднання порівняно низьку ціну і високої продуктивності зробило GeForce GTX 1070, мабуть, самим вигідним придбанням на момент її випуску.

Графічний прискорювач GeForce GTX 1060

параметрзначення
Кодове ім'я чіпаGP106
Технологія виробництва16 нм FinFET
кількість транзисторів4,4 млрд.
Площа ядра200 мм²
архітектураУніфікована, з масивом загальних процесорів для потокової обробки численних видів даних: вершин, пікселів і ін.
Апаратна підтримка DirectXDirectX 12, з підтримкою рівня можливостей Feature Level 12_1
шина пам'яті192-бітна: шість незалежних 32-бітних контролерів пам'яті з підтримкою GDDR5 пам'яті
Частота графічного процесора1506 (1708) МГц
обчислювальні блоки10 потокових мультипроцессоров, що включають 1280 скалярних ALU для розрахунків з плаваючою комою в рамках стандарту IEEE 754-2008;
блоки текстурування80 блоків текстурної адресації та фільтрації з підтримкою FP16- і FP32-компонент в структурах і підтримкою трилинейной і анізотропної фільтрації для всіх текстурних форматів
Блоки растрових операцій (ROP)6 широких блоків ROP (48 пікселів) з підтримкою різних режимів згладжування, в тому числі програмованих і при FP16- або FP32-форматі буфера кадру. Блоки складаються з масиву конфігурованих ALU і відповідають за генерацію і порівняння глибини, мультісемплінг і Блендінг
підтримка моніторівІнтегрована підтримка до чотирьох моніторів, підключених по інтерфейсів Dual Link DVI, HDMI 2.0b і DisplayPort 1.2 (1.3 / 1.4 Ready)

Специфікації референсной відеокарти GeForce GTX 1060
параметрзначення
частота ядра1506 (1708) МГц
Кількість універсальних процесорів1280
Кількість текстурних блоків80
Кількість блоків блендінга48
Ефективна частота пам'яті8000 (4 × 2000) МГц
Тип пам'ятіGDDR5
шина пам'яті192-біт
Обсяг пам'яті6 ГБ
Пропускна здатність пам'яті192 ГБ / с
Обчислювальна продуктивність (FP32)близько 4 терафлопс
Теоретична максимальна швидкість зафарбування72 гігапікселя / с
Теоретична швидкість вибірки текстур121 гігатекселей / с
шинаPCI Express 3.0
роз'ємиОдин роз'єм Dual Link DVI, один HDMI і три DisplayPort
типове енергоспоживання120 Вт
додаткове харчуванняОдин 6-контактний роз'єм
Число слотів, займаних в системному корпусі2
Рекомендована ціна$ 249 ($ 299) в США і 18 990 в Росії

Відеокарта GeForce GTX 1060 також отримала найменування, схоже з таким же рішенням з попередньої серій GeForce, що відрізняється від імені свого прямого попередника GeForce GTX 960 лише зміненої першою цифрою покоління. Новинка стала в поточній лінійці компанії на крок нижче вийшов раніше рішення GeForce GTX 1070, що є середнім за швидкістю в новій серії.

Рекомендовані ціни на нову відеокарту компанії Nvidia становлять $ 249 і $ 299 для звичайних версій партнерів компанії і для спеціального видання Founder's Edition відповідно. У порівнянні з двома старшими моделями це дуже вигідна ціна, так як нова модель GTX 1060 хоч і поступається топовим платам, але далеко не настільки, наскільки вона їх дешевше. На момент анонса новинка абсолютно точно стала кращим за продуктивністю рішенням в своєму класі і одним з найбільш вигідних пропозицій в цьому ціновому діапазоні.

Дана модель відеокарти сімейства Pascal компанії Nvidia вийшла для протидії свіжому рішенням конкуруючої компанії AMD, яка трохи раніше випустила на ринок Radeon RX 480. Порівнювати новинку Nvidia з цією відеокартою можна, хоча і не зовсім прямо, так як вони все ж досить відчутно відрізняються за ціною . GeForce GTX 1060 дорожче ($ 249-299 проти $ 199-229), але і явно швидше конкурента.

Графічний процесор GP106 має 192-бітну шину пам'яті, тому обсяг встановленої на відеокарту пам'яті з такою шиною може бути дорівнює 3 або 6 ГБ. Меншого значення в сучасних умовах відверто недостатньо, і багато ігрові проекти навіть в Full HD-дозволі будуть упиратися в брак відеопам'яті, що серйозно позначиться на плавності рендеринга. Щоб забезпечити максимальну продуктивність нового рішення в умовах високих налаштувань, модель відеокарти GeForce GTX 1060 була оснащена 6 ГБ відеопам'яті, чого цілком вистачить для запуску будь-яких 3D-додатків з будь-якими налаштуваннями якості. Більш того, на сьогодні різниці між 6 і 8 ГБ просто немає, а трохи грошей таке рішення заощадить.

Значення типового енергоспоживання для новинки становить 120 Вт, що менше значення для GTX 1070 на 20% і дорівнює споживанню енергії відкритий попереднього покоління GeForce GTX 960, що має значно меншу продуктивність і можливості. Референсна плата має звичний набір роз'ємів для приєднання пристроїв виведення зображення: один Dual-Link DVI, один HDMI і три DisplayPort. Причому з'явилася підтримка нових версій HDMI і DisplayPort, про яку ми писали в огляді моделі GTX 1080.

Довжина референсной плати GeForce GTX 1060 дорівнює 9,8 дюйма (25 см), а з відмінностей від старших варіантів окремо відзначимо те, що GeForce GTX 1060 не підтримує конфігурацію багаточіпових рендеринга SLI, і не має спеціального роз'єму для цього. Так як плата споживає менше енергії, ніж старші моделі, то для додаткового харчування на плату встановили один 6-контактний роз'єм PCI-E зовнішнього живлення.

Відкрите GeForce GTX 1060 з'явилися на ринку починаючи з дня анонса в вигляді продукції партнерів компанії: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. В обмеженій кількості буде випущено і спеціальне видання GeForce GTX 1060 Founder's Edition, вироблене самою компанією Nvidia, яке буде продаватися за ціною $ 299 виключно на сайті компанії Nvidia і офіційно в Росії представлено не буде. Founder's Edition відрізняється тим, що вона виготовлена \u200b\u200bз високоякісних матеріалів і компонентів, включаючи алюмінієвий корпус, і використовує ефективну систему охолодження, а також ланцюги харчування з низьким опором і регуляторами напруги спеціального дизайну.

архітектурні зміни

Відеокарта GeForce GTX 1060 заснована на абсолютно новому графічному процесорі моделі GP106, який функціонально нічим не відрізняється від первістка архітектури Pascal у вигляді чіпа GP104, на якому засновані описані вище моделі GeForce GTX 1080 GTX 1070. Ця архітектура взяла в основу рішення, відпрацьовані ще в Maxwell, але в ній є і деякі функціональні відмінності, про які ми докладно написали раніше.

Відеочіп GP106 за своїм устроєм схожий з топовим чіпом Pascal і аналогічними рішеннями архітектури Maxwell, і докладні дані про пристрій сучасних GPU ви можете знайти в наших оглядах попередніх рішень компанії Nvidia. Як і попередні графічні процесори, чіпи нової архітектури мають різну конфігурацію обчислювальних кластерів Graphics Processing Cluster (GPC), потокових мультипроцессоров Streaming Multiprocessor (SM) і контролерів пам'яті:

Графічний процесор GP106 має в своєму складі два кластери GPC, що складаються з 10 потокових мультипроцессоров (Streaming Multiprocessor - SM), тобто рівно половину від наявного в GP104. Як і в старшому GPU, кожен з мультипроцессоров містить по 128 обчислювальних ядер, по 8 текстурних блоків TMU, по 256 КБ реєстрової пам'яті, по 96 КБ загальної пам'яті і по 48 КБ кеш-пам'яті першого рівня. В результаті, GeForce GTX 1060 містить в цілому 1280 обчислювальних ядер і 80 текстурних модулів - вдвічі менше, ніж у GTX 1080.

А ось підсистема пам'яті GeForce GTX 1060 була урізана вдвічі щодо топового рішення, вона містить шість 32-бітних контролерів пам'яті, що дають підсумкову 192-бітну шину пам'яті. При ефективній частоті GDDR5-відеопам'яті для GeForce GTX 1060, що дорівнює 8 ГГц, пропускна здатність досягає 192 ГБ / с, що для вирішення такого цінового сегмента дуже непогано, особливо з урахуванням високої ефективності її використання в Pascal. До кожного з контролерів пам'яті прив'язані вісім блоків ROP і 256 КБ кеш-пам'яті другого рівня, тому в цілому повна версія графічного процесора GP106 містить 48 блоків ROP і 1536 Кб L2-кеша.

Для зниження вимог до пропускної здатності пам'яті і більш ефективного використання наявної в архітектурі Pascal було додатково поліпшено внутрічіповое стиснення інформації без втрат, яке здатне стискати дані в буферах, отримуючи приріст в ефективності і продуктивності. Зокрема, в чіпах нового сімейства були додані нові методи дельта-стиснення з співвідношенням 4: 1 і 8: 1, що забезпечують додаткові 20% до ефективності ПСП у порівнянні з попередніми рішеннями сімейства Maxwell.

Базова частота нового GPU дорівнює 1506 МГц - нижче цієї позначки частота не повинна опускатися в принципі. Типова турбо-частота (Boost Clock) набагато вище і дорівнює 1708 МГц - це середнє значення реальної частоти, на якій працює графічний чіп GeForce GTX 1060 в великому наборі ігор і 3D-додатків. Реальна Boost-частота залежить від гри і умов, в яких відбувається тестування.

Як і інші рішення сімейства Pascal, модель GeForce GTX 1060 не просто працює на високій тактовій частоті, забезпечуючи високу продуктивність, але має і пристойний запас по можливості розгону. Перші досліди говорять про можливість досягнення частот близько 2 ГГц. Не дивно, що партнери компанії готують в тому числі і фабрично розігнані варіанти відеокарти моделі GTX 1060.

Отже, головною зміною нової архітектури став технологічний процес 16 нм FinFET, застосування якого при виробництві GP106 дозволило значно підвищити складність чіпа при збереженні порівняно невисокою площі в 200 мм², тому даний чіп архітектури Pascal має помітно більшу кількість виконавчих блоків в порівнянні з чіпом Maxwell схожого позиціонування , виробленим із застосуванням техпроцесу 28 нм.

Якщо GM206 (GTX 960) з площею в 227 мм² мав під 3 млрд. Транзисторів і 1024 ALU, 64 TMU, 32 ROP і 128-бітну шину, то новий GPU вмістив в 200 мм² вже 4,4 млрд. Транзисторів, 1280 ALU, 80 TMU і 48 ROP з 192-бітної шиною. Та ще при майже в півтора рази більше високій частоті: 1506 (1708) проти 1126 (1178) МГц. І це при однаковому енергоспоживанні в 120 Вт! У підсумку, графічний процесор GP106 став одним з найбільш енергоефективних графічних процесорів, разом з GP104.

Нові технології Nvidia

Однією з найцікавіших технологій компанії, яка підтримується GeForce GTX 1060 і іншими рішеннями сімейства Pascal, є технологія Nvidia Simultaneous Multi-Projection. Ми вже писали про цю технологію в огляді GeForce GTX 1080, вона дозволяє використовувати кілька нових технік для оптимізації рендеринга. Зокрема - одночасно проектувати VR-зображення відразу для двох очей, в рази підвищуючи ефективність використання GPU в умовах віртуальної реальності.

Для підтримки SMP в усіх графічних процесорах сімейства Pascal є спеціальний движок, який знаходиться в PolyMorph Engine в кінці геометричного конвеєра перед блоком растеризації. З його допомогою GPU може одночасно проектувати геометричний примітив на кілька проекцій з однієї точки, при цьому ці проекції можуть бути стерео (т. Е. Підтримується до 16 або 32 проекцій одночасно). Ця можливість дозволяє графічним процесорам Pascal точно відтворювати викривлену поверхню для VR-рендеринга, а також коректно виводити зображення на многомоніторний системи.

Важливо, що технологія Simultaneous Multi-Projection вже зараз інтегрується в популярні ігрові движки (Unreal Engine і Unity) і гри, і на сьогоднішній день про підтримку технології заявлено для більш ніж 30 ігор, які перебувають в розробці, включаючи такі відомі проекти, як Unreal Tournament , Poolnation VR, Everest VR, Obduction, Adr1ft і Raw Data. Цікаво, що хоча Unreal Tournament не є VR-грою, але в ній SMP використовується для досягнення більш якісної картинки і підвищення продуктивності.

Ще однією довгоочікуваною технологією став потужний інструмент для створення скріншотів в іграх Nvidia Ansel. Цей інструмент дозволяє створювати незвичайні і дуже якісні скріншоти з ігор, з раніше недоступними можливостями, зберігаючи їх у дуже високому дозволі і доповнюючи різними ефектами, і ділитися своїми творами. Ansel дозволяє буквально побудувати скріншот так, як цього хоче художник, дозволяючи встановити камеру з будь-якими параметрами в будь-яку точку сцени, накласти на зображення потужні Постфільтри або навіть зробити 360-градусний знімок для перегляду в шоломі віртуальної реальності.

Nvidia стандартизувала інтеграцію призначеного для користувача інтерфейсу Ansel в ігри, і зробити це дуже просто - достатньо додати в код кілька рядків. Чекати появи цієї можливості в іграх вже не потрібно, оцінити здібності Ansel прямо зараз можна в грі Mirror's Edge: Catalyst, а трохи пізніше вона стане доступна і в Witcher 3: Wild Hunt. Крім цього, в розробці знаходяться безліч ігрових проектів з підтримкою Ansel, включаючи такі ігри, як Fortnite, Paragon і Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky та інші.

Також новий графічний процесор GeForce GTX 1060 підтримує пакет інструментів Nvidia VRWorks, Що допомагає розробникам створювати вражаючі проекти для віртуальної реальності. Цей пакет включає безліч утиліт та інструментів для розробників, в тому числі і VRWorks Audio, що дозволяє виконувати дуже точний розрахунок відображень звукових хвиль від об'єктів сцени за допомогою трасування променів на GPU. Також пакет включає інтеграцію в VR і фізичних ефектів PhysX, щоб забезпечити фізично коректна поведінка об'єктів в сцені.

Однією з найяскравіших віртуальних ігор, що отримала перевагу від VRWorks, стала VR Funhouse - гра в віртуальної реальності самої Nvidia, яка безкоштовно доступна в сервісі Valve Steam. Ця гра заснована на движку Unreal Engine 4 (Epic Games), і вона працює на відкритих GeForce GTX 1080, 1070 і 1060 в зв'язці з VR-шоломами HTC Vive. Мало того, вихідний код цієї гри буде публічно доступний, що дозволить іншим розробникам використовувати готові ідеї і код вже в своїх VR-атракціонах. Повірте нам на слово, це одна з найбільш вражаючих демонстрацій можливостей віртуальної реальності.

У тому числі завдяки технологіям SMP і VRWorks, використання графічного процесора GeForce GTX 1060 в VR-додатках забезпечує цілком достатню для початкового рівня віртуальної реальності продуктивність, і розглянутий GPU відповідає мінімальному необхідному апаратного рівню в тому числі для SteamVR, стаючи одним з найбільш вдалих придбань для використання в системах з офіційною підтримкою VR.

Так як модель GeForce GTX 1060 заснована на чіпі GP106, який за можливостями нічим не поступається графічному процесору GP104, який став основою для старших модифікацій, то вона підтримує абсолютно всі технології, описані нами вище.

Відеокарта GeForce GTX 1060 стала третьою моделлю в новій лінійці компанії Nvidia, заснованої на графічних процесорах сімейства Pascal. Новий технологічний процес 16 нм FinFET і оптимізації архітектури дозволили всім новим відеокартам досягти високої тактової частоти і розмістити в GPU більшу кількість функціональних блоків у вигляді потокових процесорів, текстурних модулів і інших, в порівнянні з відеочіпами попереднього покоління. Саме тому модель GTX 1060 стала найвигіднішим і енергоефективним рішенням і в своєму класі і взагалі.

Особливо важливо те, що GeForce GTX 1060 пропонує досить високу продуктивність і підтримку нових можливостей і алгоритмів при значно меншій ціні, у порівнянні зі старшими рішеннями на GP104. Графічний чіп GP106, що використовується в новій моделі, забезпечує кращу в класі продуктивність і енергоефективність. Модель GeForce GTX 1060 спеціально спроектована і відмінно підійде для всіх сучасних ігор при високих і максимальних графічних налаштуваннях з роздільною здатністю 1920x1080 і навіть з включеним повноекранним згладжуванням різними методами (FXAA, MFAA або MSAA).

А для бажаючих отримати ще більш високу продуктивність при наявності дисплеїв з надвисоким дозволом, у Nvidia є топові моделі відеокарт GeForce GTX 1070 і GTX 1080, які також дуже гарні по продуктивності і енергоефективності. І все ж поєднання низької ціни і достатньої продуктивності вельми вигідно відрізняє GeForce GTX 1060 на тлі старших рішень. У порівнянні з конкуруючою Radeon RX 480, рішення Nvidia трохи швидше при меншій складності і площі GPU, і має значно кращу енергоефективність. Правда, вона продається трохи дорожче, так що у кожної відеокарти є власна ніша.



Сподобалася стаття? поділіться їй