Kontakty

Tri veselé listy: Čo potrebujete vedieť o HDR. Všetko, čo potrebujete vedieť o HDR v počítačových monitoroch, aké hry sú podporované HDR na PC

Po CES a COMPUTEX 2017 sa objasnilo: do konca tohto roka sa na trhu objavia prvé monitory pre PC podporujúce štandard. Všetci významní výrobcovia, ako napríklad Asus, LG, Acer, Samsung a Dell, to oznámili. Poďme si študovať trochu teórie monitorov s HDR.

HDR vo formáte PC

HDR alebo vysoký dynamický rozsah je štandardom pre rozširovanie reprodukcie farieb a kontrast videa mimo štandardných hardvérových funkcií. Je jednoducho vysvetlené, 4K povolenie je dôležité pre kvalitu obrazu, kontrast, jas a sýtosť farieb a HDR zlepšuje tieto tri parametre, čím sa dosiahne zlepšenie detailu obrazu.

HDR vyžaduje monitor, aby mal 10 alebo 12-bitovú farbu. Štandardné PC monitory sú však momentálne schopné vysielať iba 6 alebo 8-bitovú farbu pomocou farby SRGB, ktorá pokrýva len tretinu Vizuálneho spektra HDR.
Samozrejme, že sú monitory, ktoré spĺňajú požiadavky farby. Jedná sa o modely s podporou takzvanej širokej škály. Ich schopnosti sú však kompatibilné len s odbornými programami. Hry a ďalší softvér Jednoducho ignorujte ďalšie farby a často vyzerajú "rozmazané".

Štandard HDR vám umožňuje vyhnúť tomuto zmätku, vrátane metaúdajov vo video vysielaní, ktoré správne distribuujú farebný priestor. Pomáha správne vizualizovať obraz a spôsobí, že všetok softvér použije najlepšie funkcie zobrazenia.


Štandardy

V súčasnej dobe existujú štyri normy, ale dva sú najčastejšie používané v spotrebnej elektronike: patentované s 12-bitovou farbou a dynamickou metaúdajovou a otvorenou normou, ktorá podporuje 10-bitovú farbu a poskytuje statickú metadát začať video vysielanie. Ďalšie dve normy sú HLG. alebo, vyvinutý BBC a používané na YouTube a Rozšírené HDR., Vytvorený technicolorom a používaným v Európe.
Ale späť k problémom používania HDR v PC monitorov. Kvôli všetkým licencovaným poplatkom a dodatočným vybavením je Dolby Vision drahšie z oboch štandardov. Poskytnutím lepšej hĺbky farebnej hĺbky a dynamického kroku za krokom sú herné vývojári sú zamerané na lacnejšie, ale celkom prijateľné HDR 10. Toto je spravodlivé nielen pre výrobcov založených na PC, ale aj pre konzoly: Microsoft C, Sony s PS4,.

Nedávna aktualizácia Dolby Vision zjednodušilo integráciu softvéru hra Video karty Pomocou aktualizácií ovládačov. Od marca je NVIDIA jedným z hlavných priaznivcov Dolby Vision v hier, ako je hmotný efekt: Andromeda.


Foto z NVIDIA Rack na Computex 2017, zobrazujúci štandardný SDR monitor (vľavo) a HDR (vpravo) s hmotnostným efektom: Andromeda. Foto: Techpowerup.

Problém s HDR pre hráčov PC

Ak máte dosť peňazí, potom nie sú žiadne problémy s nákupom HDR monitora. Ale je tu otázka o tom, aký obsah môžete použiť v HDR. A tu je zlá správa pre hráčov. Áno, niektoré nové hry idú na trh s podporou HDR, ale staršie nemajú príležitosti pre vyšší kontrast.

Podpora HDR: Shadow Warrior 2, Deus Ex: Mankind Devend, Hitman, Resident Evil 7, Obduction, Paragon A vyššie uvedené Hmotný efekt: Andromeda. Sa čoskoro objaví Potrebujete rýchlosť: návratnosť a hviezdne vojny: bojisko 2.

Ak chcete zobraziť všetky pochúťky štandardných obrázkov HDR10, ktoré môžu produkovať Xbox ONE S, Playstation 4 a PlayStation 4 Pro, budete potrebovať televízor s podporou tohto formátu. Ale potom sa všetko stane jednoduchšie - môžete si fotografovať obrazovku a cítiť rozdiel.

Na Špeciálnej prezentácii Sony, ako súčasť hry Tokijskej hre, Uncharted 4 a Horizont sú demonštrované: Zero svitania obaja s dodaným a vypne HDR. Zostal len na to, aby urobil fotografiu - ktorú urobili korešpondentom japonskej publikácie Hra Hodnotenie.

V prípade horizontu: Zero Dawn Rozdiel je zrejmý: Prvá fotografia zobrazuje zahrnuté HDR, druhá je vypnutá. Uncharted 4 Všetko je zložitejšie: Na oboch fotografiách môžete vidieť šikmý riadok prechádzajúci obraz. Časť obrázka vľavo od čiary zobrazuje HDR vypnuté, vpravo - zahrnuté.

Rovnaká prezentácia ukázala verzie finálnej fantázie XV, neslávne prvé svetlo a rezident Evil 7: Biohazard pre Playstatio 4 Pro. O Biohazardovi a prvom svetle je ťažké povedať niečo definované, ale FFXV jasne vyzeral viac slušné ako na obvyklom Playstation 4. Zdá sa, že fanúšikovia budú musieť vidličku von nielen na hru, ale aj na novú konzolu.

Dynamický rozsah je dôležitejší ako 4K.

Do záložiek

Na displeji SDR vidieť HDR je nemožné, takže zvyčajne v takýchto porovnaniach, obraz vľavo zhoršenie úmyselne je jasné podstatu

4K, ako štandard, konečne išiel do masy. Môžete bezpečne vymeniť rok 2017 bodom obratu v histórii, keď sa toto povolenie stalo skutočne spotrebiteľom. Cena panelov klesla pod 500 dolárov, dokonca aj pre veľké uhlopriečky a samotný obsah, nechať a s napätím, ale začali spĺňať potrebné požiadavky.

Tam boli konzoly na neoceniteľnú podporu. Vzhľad PS4 Pro a Xbox One X výrazne zrýchlil zavedenie 4K obrazoviek. Postupne (ale nie bez hromady rezervácií) v 4K prekladá a rozsiahly hollywoodov filmári. Už takmer všetky pôvodné netflix prehliadky je možné zobraziť v slušnom ultra HD.

Rozdiel medzi 4K a Full HD

Je však potrebné 4k-povolenie presne na televízore? Na monitore, ktorý je najčastejšie v dvojici desiatok centre centimetrov z očí, obraz v plnom HD začína "RAW" na pixeloch už na 27 palcov. Z tohto dôvodu sa sietnica / 5K a dokonca 1440P stávajú čoraz populárnou.

Medzi televíznymi divátkami je adaptácia pomalšia, pretože z troch metrov sa aspoň nejaký rozdiel strávuje len od 43 palcov, a ideálne, bude sa podniknúť diagonálne viac ako 49 palcov na odôvodnenie nákupu 4k-televízie. Je zrejmé, že taký luxus je zle dostupný pre väčšinu ruských bytov, aj keď sú peniaze - niekedy obrovská televízia je jednoducho nikam.

Ultra HDR zobrazenie

Približne rovnaké myšlienky boli autorom článku pred zakúpením novej televízie. Vezmite si dobrý FHD a Boh s ním, s týmto 4K? Myšlienka je rozumná len na prvý pohľad, pretože HDR tiež pripojený k rozlíšeniu na slušných paneloch. A to s týmto, s touto formou, nie veľmi podporovanou technológiou je skutočne pociťovaná súčasným skokom ako obraz, nech a obsah za týchto štandardov nie je toľko, koľko by som chcel.

Účel materiálu je jednoduchý a prístupný, aby ste povedali, čo je HDR a ako ho používať. O tom, ako proces nákupu a inštalácie televízie so 4K a HDR na materiáli DTF, poďme z hľadiska podrobnejšieho.

Čo je HDR a prečo potrebuje

Vizuálny rozdiel

Začnime s tým, že samotný termín HDR je ako vtip neohrabanej marketingu. Vyznačuje zbytočnú zmätok z prahovej hodnoty. Že HDR, ktorý je v televístov, sa nevzťahuje na technológiu s podobným názvom v smartfónoch alebo kamerách. Ak hovoríme o fotografii, potom HDR je kombináciou niekoľkých obrázkov s rôznymi expozíciami, kde cieľom je dosiahnuť najviac na tieňoch a svetlo voľby.

S videom, všetko nie je tak - tu hovoríme o celkovom počte informácií. Pred vzhľadom HDR sa štandard obrazu, vrátane Blu-ray, 8 bitov. Toto je dobré farebné pokrytie, ale moderné panely, najmä OLED, sú schopní zobrazovať oveľa viac odtieňov, gradientov a farieb ako 8-bitové zdroje umožňujú.

Nový 10-bitový štandard sa nevyvoláva na vyriešenie tohto problému, ktorý vám umožní prenášať výrazne viac informácií o jasnosti, saturácii, hĺbke a farbe scény scény. Pre neho bola vyvinutá nová protokol HDMI 2.0.

Ale neponáhľajte sa spolu s TV, zmeňte všetky vodiče! Staré káble sú kompatibilné s HDMI 2.0A, čokoľvek obchodníci visia na uši. Hlavnou vecou je, že majú značku "vysoká rýchlosť s ethernetom". Jediná šírka pásma je znepokojená - samotné konektory sa nezmenili.

V čase písania tohto článku je HDR na televízore ostrie presne 10 bitov, hoci štandard digitálneho natáčania je 14-bitová surová (dokonca nad - na filme), takže aj moderné panely sú stále ďaleko od plného Zobrazenie informácií, s ktorými riaditelia a inštalácie mnohých pracovných matiek.

Dobre, ale čo to dáva v praxi?

Príklad HDR vs SDR na základe Uncharted 4

Slnko začne svietiť v scénach výrazne jasnejšie, pochopenie skutočnosti, že v jednom ráme môže byť niekoľko rôznych jasov a nasýtení svetelných zdrojov. Problém zmizne s pixelizáciou poltón v tmavých scénach a gradientoch a komplexných zmesiach objemov. Obloha už nie je nudná a nezlučuje sa zo zeme na okraji horizontu. Stručne povedané, vidíte obrázok viac vlastným okom ako s obmedzeným okulárom fotoaparátu.

V súčasnej dobe sú videohry prospešné ako technológia, kde sa nakoniec viac alebo menej zobrazí rôzne osvetlenie v reálnom čase. Veľa závisí od kvality spracovania zdroja pre HDR a je tu veľa Frank Hacktur, ale teraz odkazy sa objavujú pre formát typu "strážcovia Galaxie 2" alebo "John Whitch 2".

TV Výrobcovia - Tvoji nepriatelia

Zatiaľ, HDR, rovnako ako akákoľvek moderná technológia, je "divoký západ". Štítok "Ready for HDR" visí na všetkých nových televízoroch - bez ohľadu na to, či sú schopní primerane zobraziť 10 bitov alebo nie. Existuje veľký rozdiel medzi skutočným televízorom HDR a panelom, ktorý jednoducho zobrazuje obsah HDR, spúšťa ho na 8 bitov a len fúkanie farieb a kontrastu.

Niekedy je ťažké spustiť výrobcov. Malo by sa zobraziť, či je panel deklarovaný ako 10-bitový a či je zodpovedný za štandard Open HDR10. Správne znamenie reálneho HDR panelu je podpora pre širokú farebnú skupinu (široká škála farieb). Bez jej HDR stráca akýkoľvek praktický význam.

Pozoruhodná časť LCD televízorov používa aktívne 8-bitové panely, ktoré "predstavujú" farby so špeciálnymi algoritmami. Obraz HDR na takýchto paneloch je o niečo horšie ako, ale sú výrazne lacnejšie.

Návrat "bitových" vojen

Na akejkoľvek zmene vývoja obrazu môžu vzniknúť vojnové štandardy. Ale ak v prípade Blu-ray a HD-DVD Battle, všetko skončilo v popurovanom pre druhé, vrátane tých, ktorí si kúpili "železo" spotrebiteľov, bitka HDR10 proti Dolby Vision HDR bude s najväčšou pravdepodobnosťou skončiť bez krbov.

Štandard HDR10 prenáša menšie farby a podporuje iba 10 bitov, ale úplne otvorené. Dolby Standard zachováva odtiene a rozširuje až 12 bitov, ale je ťažšie sledovať a implementovať ho. V každom prípade je otázka podpory tejto alebo že technológie riešená jednoduchou softvérovou kópiou a tie isté hry už pracujú s HDR10, pretože to bolo, že boli vybraní pre svoje konzoly v Sony av Microsoft.

Televízory vám často umožňujú používať niekoľko štandardov naraz, takže to už nie je za hlavou.

Čo sledovať?

Ak hovoríme o obrazovke, je to lepšie, samozrejme, vziať OLED a jeho analógy. Dostanete hlbokú čiernu a plnú podporu pre všetky HDR Charms. Ak peňaženka neumožňuje poradie asi 80 tisíc na vrchnú televíziu, potom by ste nemali zúfalstvo. LCD model 2017 nakoniec čelia detské vredy a okamžite si všimnete rozdiel medzi HDR a SDR, nechajte a stratíte v stupňoch čiernej a jasnosti. Autorom tohto článku je len LCD panel s podporou HDR a môžem vás uistiť, rozdiel s obsahom v štandardných farbách je vidieť z prvých sekúnd.

Ak hovoríme o zdroji, potom všetky moderné herné konzoly výstup HDR (okrem spínača a Tolststoy Xbox One). PS4 dáva len HDR (NO 4K) a Xbox One S / X vám umožňuje hrať UHD disky a bojovať s natívnym 4K HDR priamo k televízoru. Z online služieb je štandard už podporovaný Netflix a Amazon, a Netflix obsahuje samo o sebe knižnicu pre HDR10 a obsah v Dolby Vision.

A čo sledovať?

Všetok originálny obsah netflix od roku 2016 plus všetky filmy 4K, ktoré produkujú filmové štúdiá na diskoch av "číslici". Veľmi čoskoro sa objaví kolekcia filmov Filmov Christopher Nolan Film, ktorého proces digitalizácie kontroloval samotného riaditeľa. Ako to bolo s "tmavým rytierom" na Blu-ray, je to určite po mnoho rokov, aby stanovili normy pre UHD Masters a pre HDR.

Čo hrať?

Znalý počet hier podporuje HDR aj na "základných" konzolách. Najmä svetlé (ospravedlňujem sa za slovné) technológie ukazujú, že hry ako Horizon Zero Dawn, nezmenený 4 a Gran Turismo Sport.

Ten bol vytvorený pod HDR od nuly, a preto zdôrazňuje všetky výhody rozšíreného rozsahu jasu a farieb. Najmä pre GT Sport v Polyfónii Digital Digital vyvinul HDR kamery zachytiť skutočný obraz a následnú kalibráciu pod IT hru. A počet zobrazených farieb stále prevyšuje možnosti aj tých najdrahších panelov. Čo sa nazýva, benchmark "pre rast".

Avšak, nie všetky hry sú prispôsobené HDR rovnako dobre, takže si prečítajte recenzie na internete a pozrite si recenzie na internete a pozri digitálne zlievarenské recenzie. Aby sa však starať, nie je potrebné sa obávať, pretože vývojári sú lepší a lepšie pochopiť možnosti rozšíreného rozsahu, ale preto kvality obsahu konzoly rastie.

V momente na PC, všetko nie je tak hladké. Hry s HDR Trochu a samotný obraz je spojený s problémami reprodukcie farieb na úrovni systému (ovládače kriviek, quirks okien, a tak ďalej). Skúsenosti autora s lgamentom HDR / Windows 10 bol protichodný. Okrem HDR, populárny hráči pracujú zle, takže musíte čakať. Keďže rýchlosť 3D adaptácie ukazuje PC, imputovaná implementácia HDR na počítačoch stojí za to čakať približne šesť mesiacov. Áno, a knižnica bude dohnať.

Takže všetko je v poriadku, ale aké mínusy?

Typicky, kalibračné tabuľky v hrách vyzerajú ľahšie

Minusy HDR na aktuálnom odbočení je tiež dosť, ale položím pár kritických.

  • Vaše zariadenie je s najväčšou pravdepodobnosťou nie je pripravené na HDMI 2.0A a HDCP 2.2, takže spolu s televízorom budete takmer určite musieť zmeniť prijímač. Stretol som sa s tým (PS VR prvej revízie), bežal som do IT a Vadim (prijímač s HDMI 1.4).
  • Ak sa vám zdá, že HDR kazícia obrazu alebo zlyhá, obrazovka by mala byť kalibrovaná. Niektoré hry ponúkajú pohodlné kalibračné nástroje (COD WWII, GT Sport), ale väčšina z nich sa musí spoliehať na túto otázku na vlastnom vkus. Moja rada: Spustite hru v niektorých komplexnýfarby a jasnú scénu, alebo naopak, vyberte nočnú úroveň za súmraku. To vám umožní rýchlo nakonfigurovať novú Cool TV a ušetriť vám z primárnej poruchy a frustrácie.

Čas nadišiel

10 bitov nie je limitom, ale po dvoch týždňoch s HDR TV s bežnými hrami alebo filmami sa vraciate bez nadšenia. The Nonest 'To, že tento rok HDR prestal byť veľa Gicks a tolstosums a nakoniec išiel k ľuďom. Technológia bude lepšia a jasnejšie, avšak, ak ste čakali na "ten moment", aby ste zmenili televízor - potom tu je to skvelý čas nakoniec vidieť virtuálne svety vo všetkých farbách.

Napísať

Kedy na začiatku roka 2017 prešiel výstava CESUčnalo sa, že čoskoro počítajú počítadlá počítačových obchodov začne súborové monitory, ktoré podporujú štandard HDR. Všetci hlavní výrobcovia už takéto modely predávajú - každý s pôsobivými parametrami. Čoskoro vám budeme podrobne povedať o jednom z nich, a teraz sa zameriame na teóriu, ktorá pomôže rozhodnúť, ako dlho je nákup monitora s podporou HDR oprávnený.

HDR vo formáte PC

Štandardné vysvetlenie opisuje HDR (alebo vysoký dynamický rozsah) ako sadu noriem určených na rozšírenie reprodukcie farieb a kontrast videa a obrázkov mimo štandardného, \u200b\u200bfunkcií hardvéru. Uľahčite, HDR zlepšuje kontrast, jas a nasýtenie farieb, čím poskytuje niekoľkokrát podrobnejší obraz. HDR proti SDR

Z praktického hľadiska pre väčšinu používateľov to znamená úplnú výmenu dostupných zariadení, aby sa získal zjavný rozdiel ako obrázok. Prečo je úplná výmena? Pretože štandardné zariadenia, najmä monitory, nie sú v súlade s požiadavkami na certifikáciu HDR.

Začnime s požiadavkami na jas. Byť považovaný za "HDR pripravený" displej musí mať minimálne 1000 kD / m2 (závit jasného). High-class monitory poskytujú jas medzi 300-400 NIT, t.j. Ani úzko zodpovedajú tomu, čo je potrebné. Dobré notebooky mať asi 100 priadze. Dokonca aj s displejmi pre smartfóny navrhnuté tak, aby poskytovali dobrú viditeľnosť v jasnom slnečnom svetle, tento indikátor zriedka presahuje 800 NIT (Galaxy Note8 je jednou z výnimiek s jasom 1200 NIT). Inými slovami - v súčasnosti 99% displejov nepodporuje HDR.

Teraz sa otočíme na prehrávanie farieb. Technológia HDR vyžaduje monitor, aby sa udržala farebná hĺbka 10 alebo 12 bitov. Štandardné monitory však sú schopné vysielať iba 6- alebo 8-bitovú farbu pomocou farby sRGB, ktorá pokrýva len tretinu vizuálneho spektra HDR.

Modely monitorov so širokouhlou technológiou Gamet Color (WGC) spĺňajú požiadavky farby, ale ich rozšírené možnosti sú kompatibilné len s profesionálnymi programami ( grafický editor, napr.). Hry a zvyšok softvéru jednoducho ignorujú ďalšie farby a často vyzerajú "rozmazané", ak zariadenie nemôže napodobniť znížený farebný priestor.

HDR vám umožní vyhnúť tomuto zmätku kvôli metadát, ktorý správne distribuuje farebný priestor. To je to, že pomáha riadne vizualizovať obraz a spôsobí optimálne použitie možností zobrazenia.

Tu však by ste mali vložiť jeden veľký "ale" pre tých z vás, ktorí pracujú v oblasti fotografovania, grafického dizajnu a spracovania videa. Je nepravdepodobné, že by jasnejšie a bohaté farby, ktoré poskytli HDR monitory, prídu do vašej sprchy. Nie preto, že ťa nebudete páči, jednoducho nebude uspokojiť vaše profesionálne potreby, pretože ich "živosť" sa dosiahne z dôvodu realizmu reprodukcie farieb. Modely s WGC Pokračujte v zostávajú perfektnú voľbu pre vás. Takže ak čítate tento text, aby ste zistili, aké výhody Táto technológia dáva vašej oblasti zamestnania, stačí ich nájsť.
Dvaja dizajnér monitor spoločnosti Dell.. Ľavý - WGC obrazovka s realistickou reprodukciou farieb. Right - HDR displej. Ľahko si všimnete Sýtosť s vysokou farbou.

Kaša z noriem

Ďalej budeme hovoriť o skúsenostiach z hľadiska obvyklého používateľa a PC-hry, ale najprv mi dovoľte rozlúštiť obrovské zamotané spleť HDR pre vás. V súčasnosti existuje štyri štandardy, ale len dva z nich sú rozšírené v spotrebnej elektronike: patentovaná Dolby Vision s jeho 12-bitovou farbou a dynamickou metaúdajou; A štandard otvoreného HDR10, ktorý podporuje 10-bitovú farbu a poskytuje iba statický prenos metaúdajov. Dve ďalšie štandardy - HLG vyvinuté BBC a používané na YouTube; A Advanced HDR, ktorú vytvoril technicolor a používa sa hlavne v Európe.
Rozdiel medzi SDR, HDR so statickou metaúdajovou (HDR10) a HDR s dynamickým metaúdajom (Dolby Vision).

Ale späť k problémom používania HDR v počítačových monitoroch, pridanie závažnosti hier. Vyžaduje licenčné poplatky a dostupnosť dodatočných zariadení, Dolby Vision je drahšie z oboch štandardov, a jeho vysoké náklady je hlavným faktorom pomalého recepcie. Napriek tomu, že Dolby Vision poskytuje najlepšiu hĺbku farieb a možnosť dynamickej rekonfigurácie rámu za scénami, vývojári hier si vyberajú lacnejšie, ale optimálne HDR10. V tomto prípade nie je len o výrobcov PC, ale aj konzoly: Microsoft (Xbox ONE S a Xbox One X) a Sony (PS4 a PS4 Pro). Hlavnými priaznivcami HDR10, ako sú Samsung a Amazon, sú dokonca aktívne bojovať proti argumentu, že Dolby Vision poskytuje viac vysoká kvalita Snímky. Tento boj viedol k vzniku zvláštnej aktualizácie HDR10 +, ktorá zlepšuje niektoré slabé stránky HDR10.

To všetko naznačuje, že HDR10 bude rozšíreným štandardom HDR pre počítačové monitory a hry, správne? Nie, vôbec nie. Vývojári Dolby Vision v poslednej dobe zjednodušili integráciu ich technológie na hry a grafické procesory prostredníctvom opravy, firmvéru alebo aktualizácií ovládačov. Na jar tohto roku sa spoločnosť NVIDIA pripojila k počtu kľúčových priaznivcov Dolby Vision.
NVIDIA Stojan na Computex 2017. Na ľavej strane - štandardný SDR monitor vpravo - Monitor HRD. Foto: Techpowerup.

(PC) Geyyyming v HDR

Konsolutory mali šťastie viac v otázke HDR. Vyhrali z začlenenia štandardu v televíznych televízoroch s vysokou triedou a výrobcov konzoly hier (konkrétne pre konzoly) rýchlo videli vizuálnu výhodu obrazoviek HDR na štandardné televízory. Z čisto praktického hľadiska je spotrebiteľ ľahšie ospravedlniť veľké investície na obrazovke, ktorá slúži ako zábavné centrum jeho domu, ako v ten, ktorý stojí na pracovnej ploche.

PC-gamers však môžu byť vďační svojimi kamarátami konzoly. Popularizácia HDR v televízoroch, ako je séria LG C6 a C7, ktorá môže byť použitá ako obrie monitory pre počítače, povolené "pcchnis", aby si vychutnali prvú vlnu HDR-obsahu vytvoreného špeciálne pre PC.

Ale stále, aké modely monitorov by mali venovať pozornosť? Tri z najsľubnejších oznámení HDR monitorov rýchlo sklamali, že v skutočnosti nespĺňajú všetky požiadavky HDR10. A preto skutočná HDR nepodporuje. Dvaja z nich, Dell S2718D a LG 32UD99, môžu prijímať HDR signál, ale nemajú potrebný rozsah farieb alebo jas na použitie obsahu HDR. Posledný, BenQ SW320, spĺňa požiadavky na farbu, ale nie jas. Nasledujúce modely zostali v zozname: Acer Predator X27, Acer PRDATOR X35 ASUS ROG SWIFT PG27UQ, ASUS ROG SWIFT PG35VQ, SAMSUNG CHG70 a SAMSUNG CHG90.
Asus ROG SWIFT PG35VQ je jedným z najsľubnejších modelov HDR v súčasnosti

Ďalšia logická otázka: Aká je situácia s grafickým procesorom? V tomto ohľade boli počítače už dlho pripravení kvôli vojne medzi NVIDIA a AMD, ako aj ich strednými a vysokými grafickými kartami.

NVIDIA začala s HDR integráciou do grafických procesorov Maxwell Generation (predchádzajúca 900 series) a pokračujúcou certifikáciou s novou sériou 1000, ktorá využíva architektúru Pascal. Prvé certifikované grafické karty od AMD sa stali modelmi 390x a Polaris rodiny. Jednoducho povedané, ak bola vaša grafická karta vydaná za posledné 4 roky, nemali by ste mať žiadne problémy. Avšak, ak chcete použiť všetko, čo môže ponúknuť nový HDR displej, budete musieť kúpiť jednu z najnovších modelov grafickej karty.

Skutočný problém s HDR pre hráčov PC

Ak s plnými objednávkami, potom nákup monitora s podporou HDR a zodpovedajúce počítačové železo nebude problémom. Ale pred spustením do obchodu by sa mala situácia preskúmať s prítomnosťou vhodného obsahu. Bohužiaľ, v tomto ohľade tak situácia. Áno, Existujú nové hry, v ktorých HDR podpora pôvodne položila, ale staré hry nevedia, ako sa prispôsobiť funkciám tejto technológie. Aspoň nie bez špeciálnych náplastí.

HDR integrácia nevyžaduje rozsiahle zmeny v softvéri, ale to nezruší skutočnosť, že v súčasnosti je množstvo obsahu HDR dostupného na PC-hráči nie je taká veľká. V skutočnosti, len niekoľko hráčov Norma: Shadow Warrior 2, Deus EX: Mankind rozdelený, Hitman, Resident Evil 7, Obduction, Paragon, Paragon, Mass Efect Verzia: Andromeda, potreba rýchlosti: Payback a Star Wars: Battlefront 2. Cross-Platform Hry Gears of War, Battlefield a Forza Horizon 3 Podpora HDR v konzole Verzie, ale táto funkcia chýba na počítači. Pred časom, NVIDIA aktívne pracovalo na HDR náplasti na vzostup hrobného raidera, ale už dlho neboli žiadne správy od spoločnosti na dlhú dobu o tom, ako sa táto práca pohybuje.

Vývojári hra Vezmite si predstavu o HDR, ale konzolové hry budú prvé s takou podporou. PC-gamers zostávajú (opäť) v pozadí. Bude to trvať niekoľko rokov, kým HDR bude skutočne dôležitou funkciou počítačových monitorov. V súčasnosti tento štandard nie je medzi požadovanými parametrami, ku ktorým herný monitorSi zaslúži pozornosť. Rovnako ako v prípade 4K, HDR je investícia v budúcnosti.

Jedna rada, ktorú vám môžem dať na záver: Kúpiť dnes monitor, ktorý spĺňa vaše súčasné potreby. Ak ste dôležitý pre HDR, tento príjemný bonus vás bude stáť niekoľko ďalších stoviek dolárov, ale bude to záruka (aj keď trochu), že váš nový monitor zostane relevantný na dlhú dobu.

Tagy :,,,
ParameterHodnota
Kódový názov čip.Gp104.
Výrobná technológia16 nm finfeta.
Počet tranzistorov7,2 miliardy
Štvorcový jadro314 mm²
Architektúra
Podpora hardvéru DirectX
Pamäťová zbernica.
1607 (1733) MHz
Výpočtové bloky20 multiprocesorov streamingu obsahujúce 2560 skalárnych aus pre plávajúce bodkočiarky v rámci štandardu IEEE 754-2008;
Textické bloky160 Textúry a filtračné bloky s podporou komponentu FP16 a FP32 v textúrach a podpore pre triilinear a anizotropné filtrovanie pre všetky textúrske formáty
Podpora monitora
Špecifikácie referenčnej grafickej karty GEFORCE GTX. 1080
ParameterHodnota
Frekvencia jadra1607 (1733) MHz
2560
Počet textúrnych blokov160
Počet blokov oplatenia64
Efektívna frekvencia pamäte10.000 (4 × 2500) MHz
Typ pamäteGddr5x.
Pamäťová zbernica.256-bit
Veľkosť pamäte8 GB
320 GB / S
asi 9 Teraflops
103 gigapixelov / s
257 GAGETEXELS / S
PneumatikaPCI Express 3.0
Konektory
Spotreba energieaž 180 W.
Dodatočné jedloJeden 8 pinový konektor
2
Odporúčaná cena$ 599-699 (USA), 54990 rubľov (Rusko)

Nový model grafickej karty GEFORCE GTX 1080 bol logický pre prvé riešenie novej série GEFORCE - sa líši od priameho predchodcu len modifikovanú generáciu. Novinka nie je jednoducho nahradená špičkové riešenia v aktuálnom riadku spoločnosti, ale nejaký čas sa stal vlajkovou loďou novej série, kým Titan X uvoľní na GPU ešte väčšiu moc. Už oznámený model GEFORCE GTX 1070 je tiež umiestnený v hierarchii, na základe orezanej verzie čipu GP104, ktorú budeme považovať za nižšie.

Odporúčané ceny pre novú video dovolenku NVIDIA sú 599 dolárov a 699 dolárov za konvenčné verzie a špeciálne vydania vydania zakladateľov (pozri nižšie), a to je pomerne dobrú vetu, pričom sa zohľadní skutočnosť, že GTX 1080 je pred Nielen GTX 980 TI, ale aj Titan X. Dnes je novinka najlepšia pri výkone riešením na trhu single-chip video kariet bez akýchkoľvek otázok a zároveň stojí lacnejšie ako najproduktívnejšie grafické karty predchádzajúcej generácie. Zatiaľ čo konkurent z AMD z GEFORCE GTX 1080 je preto v skutočnosti, preto spoločnosť NVIDIA dokázala stanoviť takúto cenu, ktorá im vyhovuje.

Uvažovaná grafická karta je založená na GP104 čip, ktorý má 256-bitovú pamäťovú zbernicu, ale nový typ pamäte GDDR5X pracuje na veľmi vysoko efektívnej frekvencii 10 GHz, ktorá poskytuje vysokú špičkovú šírku pásma v 320 GB / C - ktorý je takmer na úrovni GTX 980 TI z 384 -bed zbernice. Množstvo pamäte namontovanej na grafickej karte s takýmto autobusom môže byť 4 alebo 8 GB, ale umiestnite menší objem pre takéto výkonné riešenie moderné podmienky Bolo by to hlúpe, takže GTX 1080 úplne logicky dostal 8 GB pamäte, a tento objem je dosť na to, aby spustil všetky 3D aplikácie s akoukoľvek nastavením kvality niekoľko rokov.

Doska s plošnými spojmi GEFORCE GTX 1080 pre zrejmá príčiny je slušne odlišná od predchádzajúcej PCB spoločnosti. Hodnota typickej inovácie pre novosti je 180 W - je mierne vyššia ako hodnota GTX 980, ale výrazne nižšia ako je menej produktívne titán X a GTX 980 Ti. Referenčná doska má známy súbor konektorov na pripojenie obrazových výstupných zariadení: jeden dual-link DVI, jeden HDMI a tri displeja.

Referenčný dizajn Zakladatelia Edition

Oznámenie Geforce GTX 1080 Na začiatku mája bolo oznámené špeciálne vydanie grafickej karty s názvom Zakladateľom Edition, ktorá má vyššiu cenu v porovnaní s konvenčnými grafickými kartami partnerov spoločnosti. V podstate je táto publikácia referenčným dizajnovým kartou a chladiacim systémom a vyrába ho NVIDIA. Môžete sa vzťahovať inak na takýchto variantov grafických kariet, ale vyvinutý inžinieri referenčného dizajnu spoločnosti a dizajn vyrobený s použitím vysoko kvalitných komponentov má vlastné fanúšikov.

Ale či budú dávať niekoľko tisíc rubľov viac pre grafickú kartu z NVIDIA sám - to je otázka, odpoveď, na ktorú môže dávať len prax. V každom prípade je najprv predávať, že referenčné grafické karty z NVIDIA za zvýšenú cenu sa objavia, a to nie je obzvlášť odlišné od čohokoľvek - Stáva sa s každým oznámením, ale referencia Geforce GTX 1080 sa vyznačuje tým, že je charakterizovaná sa plánuje predávať počas svojho času, až po uvoľnenie riešení novej generácie.

NVIDIA verí, že táto publikácia má svoje výhody ešte pred najlepšími prácami partnerov. Napríklad dvojtvarový dizajn chladiča vám umožňuje ľahko zbierať na základe tejto silnú grafickú kartu ako herný počítač relatívne malého faktora tvaru, ako aj multimephým video systémom (aj napriek operácii bez práce v troj- a štvorhodinovom režime). GEFORCE GTX 1080 Zakladateľská edícia má niektoré výhody vo forme efektívneho chladiča s použitím odparovacej komory a ventilátor emitujúci vyhrievaný vzduch z prípadu - to je prvé takéto roztok NVIDIA, ktoré spotrebuje menej ako 250 W energie.

V porovnaní s predchádzajúcimi referenčnými návrhmi produktov spoločnosti sa napájací obvod aktualizoval so štvorfázou až päťfázou. NVIDIA tiež hovorí o zlepšených komponentoch, na ktorých je novinka založená, elektrické rušenie sa tiež znížilo na zlepšenie stability potenciálu napätia a pretaktovania. V dôsledku všetkých zlepšení sa energetická účinnosť referenčného poplatku zvýšila o 6% v porovnaní s GEFORCE GTX 980.

A aby sa odlišovali od "obyčajných" modelov GEFORCE GTX 1080 a externe, pre Edition zakladateľov vyvinul nezvyčajný "nasekaný" case dizajn. To však pravdepodobne viedlo k komplikácii tvaru odparovacej komory a radiátora (pozri fotku), ktorá je možná a podávaná ako jeden z dôvodov za príplatok na 100 USD za takéto špeciálne vydanie. Opakujeme, že na začiatku predaja špeciálnej voľby pre kupujúcich nebude, ale v budúcnosti si môžete vybrať oba riešenie s vlastným dizajnom z jednej z partnerov spoločnosti a vykonáva sa samotný NVIDIA.

Nová generácia Pascal Grafic Architecture

Video karta GEFORCE GTX 1080 sa stala prvým riešením GP104 čipu na základe novej generácie grafickej architektúry NVIDIA - Pascal. Hoci nová architektúra bola založená na rozhodnutí, pracovala v Maxwell, má dôležité funkčné rozdiely, o ktorých napíšeme. Hlavná zmena z globálneho hľadiska bola nová technologický procesTam, kde sa uskutočnil nový grafický procesor.

Použitie technického procesu 16 nm Finfet vo výrobe grafických procesorov GP104 v továrňach TSMC TSMC bolo možné výrazne zvýšiť zložitosť čipu pri zachovaní relatívne nízkej plochy a nákladov. Porovnajte počet tranzistorov a oblasti GP104 a GM204 CHIPS - sú blízko v oblasti (kryštál noviniek je dokonca o niečo menej fyzicky), ale Pascal Architecture Chip má výrazne viac tranzistorov, a teda výkonné bloky, vrátane poskytovania nových funkcií.

Z architektonického hľadiska je prvý herný Pascal veľmi podobný podobným riešeniam architektúry Maxwell, hoci existujú určité rozdiely. Rovnako ako Maxwell, Pascal Architecture procesory budú mať rôzne grafické spracovanie Cluster Cluster Computing Configuration Configuration, streamovanie multiprocesory streamovanie multiprocessor (SM) a regulátory pamäte. SM multiprocessor je s vysokým paralelným multiprocesorom, ktorý plánuje a prevádzkuje warp (warp, skupiny 32 veliteľských potokov) na cuda-jadier a iných výkonných blokov v multiprocesor. Podrobné údaje o zariadení všetkých týchto blokov nájdete v našich hodnoteniach predchádzajúcich riešení NVIDIA.

Každý z multiprocesorov SM je striekaný polymorfným motorom motorov, ktorý spracováva vzorky textúry, tessellation, transformáciu, inštaláciu vertexových atribútov a perspektívnej korekcie. Na rozdiel od predchádzajúcich riešení spoločnosti, polymorfový motor v Chipe GP104 tiež obsahuje nový simultánny multi-projekčný multiprocesovú jednotku, o ktorej budeme stále hovoriť. Kombinácia SM multiprocesor s jedným polymorfným motorom motora je tradičná pre NVIDIA s názvom TPC - procesor procesora.

Celý gp104 čip v GEFORCE GTX 1080 obsahuje štyri GPC klastre a 20 SM multiprocsors, ako aj osem regulátorov pamäte v kombinácii s blokmi ROP v množstve 64 kusov. Každý GPC Cluster má špecializovaný smerovací motor a obsahuje päť SM multiprocsors. Každý multiprocesor, zase, pozostáva z 128 cuda-jadier, 256 kB registračného súboru, 96 CB zdieľanej pamäte, 48 kB cache prvej úrovne a osem blokov textúry TMU. To znamená, že celkom GP104 obsahuje 2560 cuda-jadier a 160 TMU blokov.

Grafický procesor, ktorý je založený na grafickej karte GEFORCE GTX 1080, obsahuje osem 32-bitových (na rozdiel od 64-bitových predtým používaných regulátorov pamäte, ktorý nám dáva poslednú 256-bitovú pamäťovú zbernicu. Každý z regulátorov pamäte je viazaný na osem ROP a 256 KB vyrovnávacej pamäte druhej úrovne. To znamená, že celý gp104 čip obsahuje 64 ROP blokov a 2048 kb cache druhej úrovne.

Vďaka architektonickým optimantom a novým technickým procesom sa prvý herný Pascal stal najo energeticky efektívnejším grafickým procesorom. Príspevok k nemu je navyše z jedného z najmodernejších technologických procesov 16 nm Finfety az optimalizácií architektúry v Pascalu v porovnaní s Maxwell. NVIDIA bola schopná zvýšiť frekvenciu hodín ešte viac, než boli vypočítané pri prechode na nový technický proces. GP104 pôsobí pri vyššej frekvencii, než je hypotetický GM204, uvoľnený s použitím 17 Nm procesu. Na tento účel museli inžinieri NVIDIA dôkladne kontrolovať a optimalizovať všetky úzke miesta predchádzajúcich riešení, čo neumožňuje zrýchliť nad určitú hranicu. V dôsledku toho nový model GEFORCE GTX 1080 pôsobí o viac ako 40% zvýšenou frekvenciou, v porovnaní s GEFORCE GTX 980. Ale toto nie sú všetky zmeny spojené s frekvenciou prevádzky GPU.

Technológia GPU Boost 3.0

Ako dobre poznáme podľa NVIDIA Video kariet, v ich grafických procesoroch, používajú technológiu hardvérovej technológie GPU, ktoré majú zvýšiť frekvenciu pracovných hodín GPU v režimoch, keď ešte nedosiahol limity spotreby energie a výrobu tepla. V uplynulých rokoch tento algoritmus prešiel mnohými zmenami a tretia generácia tejto technológie sa už používa v Pascal Architecture Video Chip - GPU Boost 3.0, ktorej hlavnou inováciou sa stala jemnejšou inštaláciou turbo-frekvencií, v závislosti na napätí.

Ak si pripomínate princíp prevádzky predchádzajúcich verzií technológie, potom rozdiel medzi základnou frekvenciou (garantovaná minimálna hodnota frekvencie je pod ktorou GPU nespadá aspoň v hrách) a pevnosť Turbo bola opravená. To znamená, že turbo frekvencia bola vždy na určitom počte Megahertz nad základnou. GPU BOOST 3.0 má schopnosť inštalovať turbo frekvenčné posuny pre každé napätie oddelene. Najjednoduchší spôsob, ako pochopiť, je ilustrovaný:

Na ľavej strane je GPU zvýšená druhá verzia, vpravo - tretia, ktorá sa objavila v Pascal. Pevný rozdiel medzi základnými a turbo frekvenciami neumožňoval zverejniť schopnosti GPU úplne, v niektorých prípadoch by grafické procesory predchádzajúcich generácií mohli pracovať rýchlejšie na inštalovanom napätí, ale pevný nadbytok turbo frekvencie to neumožnilo . V GPU BOOST 3.0 sa táto funkcia objavila a Turbo Frekvencia môže byť inštalovaná pre každú z jednotlivých hodnôt napätia, úplne stláčaním všetkých džúsov z GPU.

Na kontrolu zrýchlenia a vytvárania turbo-frekvenčnej krivky sú potrebné pohodlné nástroje. Samotné NVIDIA to neurobí, ale pomáha svojim partnerom vytvoriť podobné nástroje na zmiernenie pretaktovania (v rámci primeraných limitov, samozrejme). Napríklad nová funkcia BOOST 3.0 GPU je už opísaná v EVGA Precision XOC, ktorá obsahuje špeciálny skener zrýchlenia, automaticky nájsť a inštalovať nelineárny rozdiel medzi základnou frekvenciou a turbo frekvenciou pre rôzne hodnoty Napätie pomocou spustenia zabudovaného výkonu testu a stability. Výsledkom je, že užívateľ vyvoláva krivku turbo frekvencie, v ideálnom prípade zodpovedajúce schopnosti konkrétneho čipu. Ktorý, okrem, môžete nejakým spôsobom upraviť v manuálnom režime.

Ako môžete vidieť na screenshot nástroja, okrem informácií o GPU a systéme, existujú aj nastavenia pre pretaktovanie: cieľ napájania (definuje typickú spotrebu energie počas zrýchlenia, ako percento štandardného), TEMP Cieľom GPU (Maximálna povolená teplota jadra), ofset hodín GPU (prekročenie základnej frekvencie pre všetky hodnoty napätia), posun pamäte (frekvencia video pamäte presahujúca predvolenú hodnotu), prepätie (dodatočná sila na zvýšenie napätia).

Nástroj Precision XOC obsahuje tri režimy zrýchlenia: hlavná základná, lineárna lineárna a manuálna príručka. V hlavnom režime môžete nastaviť jednu frekvenciu presahujúcu hodnotu (pevnú turbo frekvenciu) nad základnou, ako to bolo pre predchádzajúce GPU. Lineárny režim umožňuje nastaviť lineárnu zmenu vo frekvencii z minima na maximálne hodnoty napätia pre GPU. No, v manuálnom režime môžete nastaviť jedinečné hodnoty frekvencie GPU pre každý bod napätia na grafe.

Ako súčasť nástroja je tiež špeciálny skener pre automatické pretaktovanie. Môžete buď nainštalovať svoje vlastné úrovne frekvencie alebo povoliť presnosť XOC pomôcka na skenovanie GPU na všetkých namáhaní a nájsť najstabilnejšie frekvencie pre každý bod na krivke napätia a frekvencia sú úplne automaticky. V procese skenovania, Precision XOC postupne pridáva frekvenciu GPU a kontroluje svoju prácu na stabilite alebo vzhľadu artefaktov, budovanie dokonalej krivky frekvencií a namáhaní, ktoré budú jedinečné pre každý špecifický čip.

Tento skener môže byť nakonfigurovaný podľa vašich vlastných požiadaviek, nastavenie časového segmentu testu každej hodnoty napätia, minimálna a maximálna frekvencia skontrolovaná a jeho krok. Je jasné, že na dosiahnutie stabilných výsledkov bude lepšie nastaviť malý krok a slušné trvanie testovania. V procese testovania sa môže vyskytnúť nestabilné video zariadenie a systém, ale ak skener nezávisí, bude obnoviť prácu a naďalej nájsť optimálne frekvencie.

Nový typ video pamäte GDDR5X a zlepšená kompresia

Napájanie grafického procesora tak výrazne rozrástla a pamäťová zbernica zostala len 256-bit - nebude žiadna pamäťová šírka pásma na obmedzenie celkového výkonu a čo s ním môže byť vykonané? Zdá sa, že sľubná pamäť HBM druhej generácie je stále príliš veľa vo výrobe, takže som musel hľadať ďalšie možnosti. Od okamihu príchodu GDDR5-pamäte v roku 2009 skúmali inžinieri NVIDIA možnosti používania nových typov pamäte. Výsledkom je, že vývoj prišiel k zavedeniu nového štandardu GDDR5X - najkomplexnejší a pokročilý štandard, ktorý poskytuje prenosovú rýchlosť 10 Gbps.

NVIDIA prináša zaujímavý príklad, ako rýchlo je. Existuje len 100 pikosekúnd medzi vysielanými bitmi - počas takéhoto času, svetelný lúč prejde vzdialenosť len jeden palec (asi 2,5 cm). A keď používate pamäť GDDR5X, príjmový reťazec prenosu dát musí byť kratší ako polovica tohto času, vyberte hodnotu prenášaného bitov, pred odoslaním ďalšieho, je to práve tým, že pochopíte, čo dosiahli moderné technológie.

Na dosiahnutie tejto rýchlosti práce bolo potrebné vytvoriť novú architektúru I / O systém údajov, ktoré si vyžadovali niekoľko rokov spoločného vývoja s výrobcami pamäťových čipov. Okrem zvýšenej rýchlosti prenosu dát sa zvýšila energetická účinnosť - štandardné pamäťové čipy GDDR5X používajú znížené napätie v 1,35 V a produkované podľa nových technológií, ktoré poskytujú rovnakú spotrebu energie o 43% väčšej frekvencii.

Inžinieri spoločnosti museli recyklovať linky prenosu dát medzi jadrom GPU a pamäťových čipov, venovať väčšiu pozornosť, aby sa zabránilo strate a degradácii signálu v priebehu pamäte z pamäte na GPU a späť. Vyššie uvedená ilustrácia teda ukazuje zachytený signál vo forme veľkého symetrického "oka", ktorý označuje dobrú optimalizáciu celého reťazca a relatívnej jednoduchosti zachytávania údajov zo signálu. Okrem toho vyššie opísané zmeny viedli nielen k možnosti použitia GDDR5X o 10 GHz, ale tiež by mali pomôcť získať vysoký PSP na budúce produkty pomocou viac známej pamäte GDDR5.

No, viac ako 40% zvýšenia PSP z aplikácie novej pamäte, ktorú sme dostali. Ale nie je to dosť? Na ďalšie zvýšenie efektívnosti používania pamäťovej šírky pásma v NVIDIA pokračovala v zlepšovaní pokročilých dát uzavretých v predchádzajúcich architektúrach. Pamäťový podsystém v Geforce GTX 1080 využíva a niekoľko nových techník na kompresiu údajov bez straty, navrhnuté na zníženie požiadaviek na PSP - štvrtú generáciu intracepickej kompresie.

Algoritmy na kompresiu dát v pamäti ihneď prinášajú niekoľko pozitívnych momentov. Kompresia znižuje počet údajov zaznamenaných do pamäte, to isté platí pre dáta odoslané z video pamäte do pamäte vyrovnávacej pamäte druhej úrovne, čo zlepšuje účinnosť používania vyrovnávacej pamäte L2, pretože stlačené dlaždice (blok viacerých rámcových pixelov) má menšiu veľkosť ako nekomprimovaná. Tiež znižuje množstvo dát odoslaných medzi rôznymi bodmi, ako je modul TMU textúry a framebuffer.

Dopravník kompresie údajov v GPU používa niekoľko algoritmov, ktoré sú určené v závislosti od "stlačiteľnosti" údajov - pre nich najlepšie z dostupných algoritmov. Jedným z najdôležitejších je algoritmus delta-kódovania farebných dát pixelov (kompresia farieb delta). Táto metóda kompresie kóduje údaje vo forme rozdielu medzi postupnými hodnotami namiesto samotných údajov. GPU vypočíta rozdiel v farebných hodnotách medzi pixelom v bloku (dlaždice) a uloží blok ako určitú priemernú farbu pre celý blok plus dáta o rozdiele v hodnotách pre každý pixel. Pre grafické údaje je táto metóda zvyčajne vhodná, pretože farba v malých dlaždiach pre všetky pixely sa často nelíši.

Grafický procesor GP104 ako súčasť Geforce GTX 1080 podporuje viac kompresných algoritmov v porovnaní s predchádzajúcimi čipmi Maxwell Architect. Takto sa objavil kompresia algoritmus 2: 1 efektívnejší, a okrem toho sa objavili dva nové algoritmy: režim kompresie 4: 1, vhodný na prípady, keď je rozdiel vo farbe blokového pixelu veľmi malý a režim 8: 1, ktorý kombinuje konštantnú kompresiu algoritmu s pomerom 4: 1 blokov 2 x 2 pixelov s dvojnásobnou kompresiou delty medzi blokmi. Keď kompresia nie je úplne nemožná, nepoužíva sa.

Avšak, v skutočnosti, ten druhý je veľmi zriedkavý. To možno vidieť príkladmi obrazoviek z hracie automobilov, ktoré viedli NVIDIA na ilustráciu zvýšeného kompresného pomeru v Pascalu. Na ilustráciách fialových, tieto dlaždice personálnej vyrovnávacej pamäte sú maľované, ktoré by mohli stlačiť grafický procesor a non -stras reprovanie zostala s pôvodnou farbou (zhora - Maxwell, nižšie - Pascal).

Ako vidíte, nové kompresné algoritmy v GP104 naozaj fungujú oveľa lepšie ako v Maxwell. Hoci stará architektúra môže tiež komprimovať väčšinu dlaždíc na scéne, veľký počet trávy a stromov na okrajoch, ako aj časti vozidla nie sú vystavené zastaraným kompresným algoritmom. Ale keď povolíte nové techniky v Pascal, veľmi malý počet obrazov obrazu zostáva nekomprimovaný - zlepšená účinnosť je zrejmá.

V dôsledku zlepšenia kompresie údajov GEFORCE GTX 1080 je schopný výrazne znížiť počet údajov odoslaných v každom ráme. Ak hovoríme o číslach, potom vylepšená kompresia uloží ďalších približne 20% efektívnej šírky pásma. Okrem viac ako 40% zvýšeného PSP v Geforce GTX 1080 vzhľadom na GTX 980 z používania pamäte GDDR5X, to všetko dáva približne 70% zvýšenia účinného PSP v porovnaní s modelom minulej generácie .

Async Vypočítajte asynchrónnu výpočtovú podporu

Najmodernejšie hry okrem grafiky používajú komplexné výpočty. Napríklad výpočty vo výpočte správania fyzikálnych telies nie je možné vykonať pred alebo po grafických výpočtoch, ale súčasne s nimi, pretože nie sú navzájom spojené a nezávisia na sebe v rámci jedného rámu. Príkladom je možné poskytnúť po spracovaní už spracovaného personálu a spracovanie audio dát, ktoré môžu byť vykonané paralelne s renderovaním.

Ďalším živým príkladom používania funkčnosti je asynchrónne časové skreslenie (asynchrónny čas warp) používaný vo virtuálnych realitách systémoch, aby sa zmenil výstupný rám v súlade s pohybom hlavy hráča priamo pred jeho výstupom, prerušte vykresľovanie ďalších. Takéto asynchrónne zaťaženie kapacít GPU umožňuje zvýšiť účinnosť používania svojich výkonných blokov.

Takéto zásielky vytvárajú dva nové scenáre použitia GPU. Prvá z nich zahŕňa prekryté na stiahnutie, pretože mnohé typy úloh nepoužívajú možnosti grafických procesorov úplne a časť zdrojov je nečinnosť. V takýchto prípadoch môžete jednoducho spustiť dva na jednom GPU rÔZNE ÚLOHYOddelenie svojich výkonných blokov na získanie efektívnejšieho používania - napríklad efekty PhysX bežiace spolu s 3D rámcovým vykresľovaním.

Na zlepšenie práce tohto scenára sa v architektúre Pascal (dynamické vyvažovanie zaťaženia) objavilo dynamické vyváženie zaťaženia. V predchádzajúcej architektúre Maxwell sa prekrývajúce sa zaťaženia uskutočnili ako statické rozdelenie zdrojov GPU na grafické a výpočtové. Tento prístup je účinný za predpokladu, že rovnováha medzi dvoma zaťaženiami približne zodpovedá oddeleniu zdrojov a úlohy sa vykonávajú rovnako včas. Ak sa negramové výpočty vykonávajú dlhšie ako grafické, a obaja očakávajú dokončenie spoločná prácaČasť GPU zostáva čas, aby sa postavil, čo spôsobí pokles celkového výkonu a zníži všetky výhody. Hardvér Dynamické vyvažovanie zaťaženia vám tiež umožňuje používať uvoľnené zdroje GPU ihneď, ako sa stanú dostupnými - pochopiť ilustráciu.

Tam sú tiež úlohy kritické podľa času vykonávania, a to je druhý scenár asynchrónneho výpočtu. Napríklad vykonanie asynchrónneho času skreslenia algoritmu vo VR musí dokončiť pred skenovaním (skenovanie) alebo rám bude vyradený. V tomto prípade musí GPU podporovať veľmi rýchle prerušenie úlohy a prejsť na druhú, aby odstránil menej kritickú úlohu z realizácie na GPU, uvoľní svoje zdroje pre kritické úlohy - to sa nazýva predmet.

Jeden renderovací tím z herného motora môže obsahovať stovky hovorov na výkresové funkcie, každý hovoru na ťahanie, zase, obsahuje stovky spracovaných trojuholníkov, z ktorých každý obsahuje stovky pixelov, ktoré je potrebné vypočítať a odmietnuť. V tradičnom prístupe GPU využíva prerušenie úloh, len na vysokej úrovni a grafický dopravník je nútený čakať na dokončenie všetkých tejto práce pred prepnutím úlohy, čo má za následok veľmi veľké oneskorenia.

Ak chcete opraviť, Pascal Architecture prvýkrát predstavil schopnosť prerušiť úlohu na úrovni pixelov - Pixel. Výkonné bloky grafického procesora Pascal môžu neustále monitorovať pokrok v plnenie úloh vykresľovania a keď sa prerušenie požaduje, môžu zastaviť vykonanie uložením kontextu na ďalšie dokončenie, rýchlo sa prepne na inú úlohu.

Prerušenie a prepínanie hladiny prietoku pre výpočtové operácie sú podobné prerušeniu hladiny pixelov pre grafické výpočty. Výpočtové zaťaženia sa skladajú z niekoľkých mriežok, z ktorých každý obsahuje mnoho vlákien. Keď bola žiadosť o prerušenie prijatá, prúdy vykonané na multiprocesorov dokončujú vykonanie. Iné bloky si zachovávajú svoj vlastný štát, aby pokračovali od toho istého momentu v budúcnosti a GPU sa prepne na inú úlohu. Celá proces spínania úloh trvá menej ako 100 mikrosekundov po ukončení tokov.

Pre herné zaťaženie, kombinácia prerušenia na úrovni pixelov pre grafiku a prerušenia na úrovni streamingu pre výpočtovú úlohu poskytuje grafickým procesorom Pascal architektúry s možnosťou rýchlo prepínania medzi úlohami s minimálnou stratou času. A na výpočtové úlohy na CUDA je možné prerušiť s minimálnou granulózou - na úrovni inštrukcií. V tomto režime sa všetky prúdy zastavia okamžite, okamžite prepne na inú úlohu. Tento prístup si vyžaduje zachovanie viacerých informácií o stave všetkých registrov každého prietoku, ale v niektorých prípadoch kalkulácií, ktoré nie sú smútok, je plne odôvodnené.

Pomocou rýchlych prerušení a spínacích úloh v grafických a výpočtových úloh bola pridaná do Pascal architektúry, aby sa grafické a negramotné úlohy prerušili na úrovni jednotlivých inštrukcií, a nie celých prúdov, ako to bolo v Maxwell a Kepler. Tieto technológie sú schopné zlepšiť asynchrónne vykonávanie rôznych nákladov na grafickom procesore a zlepšiť citlivosť a zároveň vykonávať niekoľko úloh. Udalosť NVIDIA ukázala ukážku práce asynchrónnych výpočtov na príklad výpočtu fyzických účinkov. Ak sa bez asynchrónnych výpočtov, výkon bol pri 77-79 FPS, potom so zahrnutím týchto schopností, rámec sa zvýšil na 93-94 FPS.

Už sme uviedli príklad jednej z možností využitia tejto funkcie v hrách vo forme asynchrónneho časového skreslenia vo VR. Ilustrácia ukazuje prácu tejto technológie s tradičným prerušením (predpokladom) a rýchlym. V prvom prípade sa proces asynchrónneho času skreslenia snaží vykonávať čo najskôr, ale pred aktualizáciou obrazu na displeji. Ale práca algoritmu by sa však mala vykonať na vykonanie niekoľkých milisekúnd v GPU skôr, pretože bez rýchleho prerušenia nie je možné presne vykonávať prácu v správny moment, a GPU je nejaký čas nečinný.

V prípade presného prerušenia na úrovni pixelov a tokov (na ilustrácii vpravo), takáto príležitosť poskytuje väčšiu presnosť pri určovaní momentu prerušenia a asynchrónne časové skreslenie môže byť spustené výrazne neskôr s dôverou pri vypnutí Aktualizácia informácií na displeji. A GPU stojace nejaký čas v prvom prípade si môžete stiahnuť niektoré ďalšie grafické práce.

MultiProcesová technológia Simultánna viacprojekcia

Podpora sa objavila v novom grafickom procesore GP104 nová technológia Multi-projekcia (simultánna multi-projekcia - SMP), čo umožňuje efektívnejšie čerpať dáta na moderné obrazové výstupné systémy. SMP umožňuje video vyhlásenie súčasne zobraziť údaje do niekoľkých projekcií, pre ktoré bolo potrebné zadať nový hardvérový blok v GPU do polymorfného motora na konci geometrického dopravníka pred rastračnou jednotkou. Táto jednotka je zodpovedná za prácu s niekoľkými výstupkami pre jeden geometrický prúd.

MultiProcatívne motora procesy Geometrické údaje Súčasne na 16 prefigurovaných projekcií, ktoré kombinujú projekčný bod (kamery), tieto projekcie sa môžu otáčať nezávisle alebo naklonené. Vzhľadom k tomu, že každý geometrický primitívny môže sa objaviť súčasne v niekoľkých projekciách, Engine SMP poskytuje takúto funkčnú hodnotu, čo umožňuje aplikáciu, aby sa video vyhlásenie pokyny na replikáciu geometrie na 32 krát (16 výstupky na dvoch projekčných centrách) bez ďalšieho spracovania.

Celý proces spracovania je urýchlene urýchlený, a pretože multiprocedné práce po geometrickom motore, nemusí niekoľkokrát opakovať všetky fázy geometrie spracovania. Uložené zdroje sú dôležité za podmienok obmedzenia rýchlosti vykresľovania s výkonom spracovania geometrie, ako je tessellation, keď sa uskutočňuje rovnaká geometrická práca niekoľkokrát pre každú projekciu. V súlade s tým, v puzdre, multiprocata môže znížiť potrebu spracovania geometrie až 32-krát.

Ale prečo je to všetko potrebné? Existuje niekoľko dobrých príkladov, kde môže byť užitočná multiprocesová technológia. Napríklad viac-domedrový systém troch displejov namontovaných v uhle k sebe navzájom blízko používateľa (priestorová konfigurácia). V typickej situácii je scéna čerpaná v jednej projekcii, ktorá vedie k geometrickým deformáciám a nesprávnym odstupom geometrie. Správnym spôsobom je tri rôzne výstupky pre každý z monitorov, v súlade s uhlom, pod ktorým sú umiestnené.

Pomocou grafickej karty na stránke Pascal Architecture to môže byť vykonané v jednom priechode geometrie, čo znamená tri rôzne prognózy, každý pre jeho monitor. A užívateľ bude teda schopný zmeniť uhol, pod ktorými sa monitory nachádzajú navzájom nielen fyzicky, ale aj prakticky - otáčanie projekcií pre laterálne monitory, aby ste dostali správnu perspektívu v 3D scéne s nádherne širším uhlom prezerania (FOV) . Je pravda, že existuje obmedzenie - pre takúto podporu by aplikácia mala byť schopná nakresliť scénu so širokým FOV a používať SMP SMP špeciálne výzvy na inštaláciu. To znamená, že v každej hre to neurobíte, potrebujete špeciálnu podporu.

V každom prípade, časy jednej projekcie na jedinom plochom monitore, teraz mnoho viaczložkových konfigurácií a zakrivených displejov, ktoré môžu byť použité aj na túto technológiu. Nehovoriac o systémy virtuálnej reality, ktoré používajú špeciálne šošovky medzi obrazovkami a očami používateľa, čo vyžaduje nové techniky na premietanie 3D obrazu do 2D obrazu. Mnohé z týchto technológií a techník sú stále na začiatku vývoja, hlavnou vecou je, že starý GPU nemôže účinne používať viac ako jednu plochú projekciu. Tieto vyžadujú niekoľko renderingov, opakované spracovanie tej istej geometrie atď.

Maxwell Architect Chips mal obmedzenú podporu s viacerými rozlíšením, ktorá pomáha zvýšiť efektívnosť, ale SMP v Pascalu môže byť oveľa viac. MAXWELL by mohol premeniť výstupok o 90 stupňov pre kubické karty (mapovanie kocky) alebo rôzne povolenia na projekciu, ale bolo užitočné len v obmedzenom okruhu aplikácií, ako je VXGI.

Z ostatných aplikácií SMP poznamenávame výkres s rôznym rozlíšením a jednostupňovým stereorencom. Napríklad, kresba s rôznym rozlíšením (multi-res tieňovanie) sa môže použiť v hier optimalizácie výkonu. Keď sa použije, v strede rámu sa používa vyššie rozlíšenie a na periférii sa znižuje, aby sa dosiahla vyššia rýchlosť vykreslenia.

Jedno-pass stereorendering sa používa vo VR, už bol pridaný do balíka VRworks a využíva možnosť multiproykácie na zníženie množstva geometrickej práce požadovanej vykresľovaním VR. V prípade použitia tejto funkcie, grafický procesor GEFORCE GTX 1080 spracováva geometriu scény len raz, generovanie dvoch výstupkov naraz pre každé oko, ktoré zdvojnásobili geometrické zaťaženie na GPU a tiež znižuje stratu od vodiča a OS .

Ešte pokročilejší spôsob zlepšenia efektívnosti vykresľovania VR je objektívna zatienenie, keď sú geometrické deformácie požadované s vykresľovaním VR simulované niekoľkými výstupkami. Táto metóda používa multiprocatovanie na vykresľovanie 3D scény na povrch, ktorý je približne podobný pre nastavenú šošovku pri výkrese na výstup na VR-helme, čo umožňuje nakresliť veľa zbytočných pixelov na periférii, ktoré sa zlikvidujú. Je najjednoduchšie pochopiť podstatu spôsobu na ilustrácii - pred každým okom, štyri mierne nasadené výstupky sa používajú (Pascal môže byť tiež použitý pre 16 výstupky pre každé oko - pre presnejšie imitácia zakrivenej šošovky) namiesto jeden:

Takýto prístup je schopný slušne ušetriť vo výkone. Typický obraz pre OCULUS RIFT pre každé oko je 1,1 megapixel. Ale kvôli rozdielu v projekciách, aby to bolo, pôvodný obrázok sa používa v 2,1 megapixelov - o 86% viac! Použitie multiprocesovania vloženého v architektúre Pascal umožňuje znížiť rozlíšenie ťahaného obrazu na 1,4 megapixelov, ktoré dostali jednu a polovicu úspory na rýchlosť spracovania pixelov a tiež šetrí šírku pásma pamäte.

A spolu s dvojnásobným úsporom v rýchlosti spracovania geometrie kvôli jednosmernému stereorenderingu, grafický procesor GEFORCE GTX 1080 je schopný poskytnúť výrazný nárast výkonnosti vykresľovania VR, veľmi náročných a rýchlosťou spracovania geometrie a dokonca viac ako spracovanie pixlov.

Vylepšenia video výstupu a spracovateľských blokov

Okrem výkonu a novej funkčnosti súvisiacej s 3D vykresľovaním je potrebné udržiavať dobrú úroveň a možnosť vyvedenia obrazu, ako aj dekódovanie a video kódovania. A prvá Pascal Architecture Graphics procesor nesklame - podporuje všetky moderné normy v tomto zmysle, vrátane dekódovania hardvéru HEVC potrebných na zobrazenie 4K videí na PC. Tiež budúci majitelia grafických kariet GEFORCE GTX 1080 budú môcť rýchlo vychutnať prehrávanie streamingu 4K videa z Netflix a ďalších poskytovateľov na svojich systémoch.

Z hľadiska výstupu obrazu na displejoch má GEFORCE GTX 1080 podporu pre HDMI 2.0b s HDCP 2.2, ako aj DisplayPort. Doteraz je certifikovaná verzia DP 1.2, ale GPU je pripravená na certifikáciu pre novšie štandardy: DP 1.3 pripravený a DP 1.4 pripravený. Ten vám umožňuje zobraziť obraz na 4K obrazovky pri frekvencii obnovy 120 Hz a na 5K- a 8K-displejoch - pri 60 Hz pri použití páru kábla DisplayPort 1.3. Ak pre GTX 980 bolo maximálne podporované rozlíšenie 5120 × 3200 na 60 Hz, potom pre nový model GTX 1080, zvýšil na 7680 × 4320 s rovnakým 60 Hz. Referencie GEFORCE GTX 1080 má tri výstupy DisplayPort, jeden HDMI 2.0B a jeden digitálny DUAL-LINK DVI.

Nový model NVIDIA Video Card tiež dostal vylepšenú video dekódovaciu jednotku a kódovanie video kódovania. GP104 čip je teda v súlade s vysokými štandardmi playRready 3.0 (SL3000), aby ste mohli hrať streaming video, čo vám umožní presvedčiť, že hranie vysokokvalitného obsahu z známych dodávateľov, ako Netflix, bude tak vysoko kvalitná a energeticky efektívna. Podrobnosti o podpore rôznych video formátov Pri kódovaní a dekódovaní sú uvedené v tabuľke, novinka je jednoznačne odlišná od predchádzajúcich riešení pre lepšie:

Ale ešte zaujímavejšia novinka môže byť nazývaná podpora pre tzv. High Dynamic Range Display (High Dynamic Range - HDR), ktoré sa chystajú rozšíriť na trhu. TVS sa predávajú už v roku 2016 (a za rok sa plánuje predávať štyri milióny HDR-TV) a monitory sú nasledovné. HDR je najväčší prielom v technológiách zobrazovania po mnoho rokov, tento formát zdvojnásobil farebné odtiene (75% viditeľného spektra, na rozdiel od 33% pre RGB), viac jasných displejov (1000 NIT) s väčším kontrastom (10 000: 1) a nasýtené farby.

Vzhľad reprodukcie obsahu s väčším rozdielom v jasnosti a bohatých a bohatých farbách prinesie obrázok na obrazovke na realitu, čierna farba sa stane hlbším, jasné svetlo bude slepé, ako v reálnom svete. Užívatelia teda uvidia viac podrobností v jasných a tmavých obrazoch obrázkov v porovnaní so štandardnými monitormi a televízormi.

Na podporu displejov HDR, GEFORCE GTX 1080 má všetko, čo potrebujete - schopnosť vydávať 12-bitovú farbu, podporu pre BT.2020 a SMPTE 2084 Normy, ako aj výstupný výstup v súlade s HDMI 2.0b 10/12-bit HDR v 4K rozlíšení, ktorý bol a Maxwell. Okrem toho Pascal podporil 4K-rozlíšenie HEVC formát dekódovanie s 60 Hz a 10 alebo 12-bitovou farbou, ktorá sa používa pre HDR videu, ako aj kódovanie rovnakého formátu s rovnakými parametrami, ale len v 10-bit na nahrávanie HDR videa alebo streamingu. Novinka je tiež pripravená štandardizovať DisplayPort 1.4 na prenos údajov HDR pre tento konektor.

Mimochodom, kódovanie HDR videa môže byť potrebné v budúcnosti, aby bolo možné prenášať takéto údaje z domáceho počítača na hernú konzolu Shield, ktorá môže hrať 10-bitový HEVC. To znamená, že užívateľ bude môcť vysielať hru s PC v HDR formáte. Zastavte, a kde si s takýmto podporou vziať hry? NVIDIA neustále pracuje s vývojármi hier, aby sa takáto podpora realizovala, prejde všetkým, čo potrebujete (podpora v ovládači, príklady kódov, atď.) Pre správne vykresľovanie hdrvového obrazu kompatibilného s existujúcimi displejmi.

V čase uvoľnenia grafickej karty GEFORCE GTX 1080, podpora pre výstup HDR má takéto hry ako obdukcie, svedok, lawbreakers, vzostup hrobka Raider, Paragon, Talos princíp a tieňový bojovník 2. Ale v blízkom okolí budúcnosť, očakáva sa, že tento zoznam dopĺňa.,

Zmeny v SLI viac rendering

Tam boli tiež nejaké zmeny spojené s firemnou technológiou viacnásobného vykresľovania SLI, hoci nikto neočakáva. SLI používajú nadšenci PC-Games s cieľom zvýšiť výkon alebo do extrémnych hodnôt, nastavte najvýkonnejšie single-čipové video kariet v tandeme, alebo aby ste získali veľmi vysokú frekvenciu, obmedzujúca niekoľko stredných úrovní Riešenia, ktoré niekedy stoja lacnejšie ako jeden vrchol (rozhodnutie je kontroverzné, ale to urobte). Ak sú 4K monitory, hráči majú takmer žiadne ďalšie možnosti, okrem inštalácie videokampónia, pretože aj špičkové modely často nemôžu poskytnúť pohodlnú hru pri maximálnych nastaveniach v takýchto podmienkach.

Jednou z dôležitých komponentov NVIDIA SLI sú mosty spájajúce video karty do spoločného videa vytvrdzovania a zamestnancov pre organizáciu digitálny kanál Prenosom údajov medzi nimi. Na grafických kariet GEFORCE boli tradične nainštalované Dual SLI konektory, ktoré slúžili na pripojenie medzi dvoma alebo štyrmi video kartami v 3. a 4-cestné konfiguráciách SLI. Každý z grafických kariet by mal byť pripojený ku každému, pretože všetky GPU poslané s nimi s nimi do hlavného grafického procesora, preto boli potrebné dve rozhrania na každom z dosiek.

Vychádzajúc z modelu GEFORCE GTX 1080, pre všetky video kariet NVIDIA založené na architektúre Pascal, sú spojené dve rozhrania SLI, aby sa zvýšila výkonnosť prenosu dát medzi grafickými kartami a taký nový dvojkanálový režim SLI vám umožňuje zlepšiť produktivitu a Komfort Pri zobrazení vizuálnych informácií o veľmi vysokých displejoch alebo viaczložkových systémoch.

Pre takýto režim boli potrebné nové mosty nazývané SLI HB. Kombinujú pár grafických kariet GEFORCE GTX 1080 na dvoch SLI kanáloch, hoci nové video karty sú tiež kompatibilné so starými mostu. Pre rozlíšenie 1920 × 1080 a 2560 × 1440 pixelov, na frekvencii aktualizácie 60 Hz, môžete použiť štandardné mosty, ale vo viacerých náročných režimoch (4K, 5K a multimonitoriálne systémy), najlepšie výsledky na zmenu hladkého rámca poskytnú len Nové mosty, aj keď starý bude fungovať, ale trochu horšie.

Aj keď používate SLI HB Bridges, GEFORCE GTX 1080 Dátové prenosové rozhranie pracuje pri 650 MHz v porovnaní so 400 MHz v konvenčných slim mostoch na starej GPU. Okrem toho, pre niektoré z tuhých starých mostov, je k dispozícii aj vyššia frekvencia prenosu dát s videozáznamami architektúry Pascal. S rastúcou rýchlosťou prenosu dát medzi GPU na dvojitom rozhraní SLI so zvýšenou pracovnou frekvenciou je na obrazovke poskytnutý hladší výstupný výstupný výstup v porovnaní s predchádzajúcimi riešeniami:

Treba tiež poznamenať, že podpora viacnásobného vykreslenia v DirectX 12 je trochu odlišná od toho, čo bolo známe skôr. V najnovšej verzii grafického rozhrania API, microsoft. Urobiť mnoho zmien spojených s prácou takýchto video systémov. Pre vývojárov softvéru v DX12 sú k dispozícii dve možnosti používania viacerých GPU: Modely Multi Display Adaptér (MDA) a prepojený displej adaptér (LDA).

Režim LDA má navyše dve formy: implicitné LDA (ktoré NVIDIA používa pre SLI) a explicitné LDA (keď herný vývojár preberá úlohy riadenia úloh riadenia. MDA a explicitné režimy LDA boli implementované v DirectX 12 s cieľom poskytnúť Vývojári hier sú väčšia sloboda a príležitosti pri používaní multimeview video systémov. Rozdiel medzi režimami je jasne viditeľný pre nasledujúcu tabuľku:

V režime LDA môže byť každá pamäť GPU spojená s pamäťou iného a zobrazená vo forme veľkého celkového objemu, prirodzene, pričom všetky výkonové obmedzenia, keď údaje prechádzajú z pamäte niekoho iného. V režime MDA, každá pamäť GPU funguje samostatne a rôzne GPU nemôže získať priamy prístup k údajom z pamäte iného grafického procesora. Režim LDA je určený pre viacrozmerné systémy podobného výkonu a režim MDA má menej obmedzení a diskrétne a integrované GPU alebo diskrétne riešenia s čipmi rôznych výrobcov môžu spolupracovať. Tento režim však vyžaduje aj vývojárov väčšiu pozornosť a prácu pri programovaní spolupráce, aby sa GPU vymieňali informácie medzi sebou.

V predvolenom nastavení, systém SLI založený na doskách GEFORCE GTX 1080 podporuje iba dve GPU, a troj- a štvormiestne konfigurácie nie sú oficiálne neodporúčané pre použitie, ako v moderných hrách sa stáva čoraz ťažšie zabezpečiť zisky produktivity z pridávania Tretí a štvrtý grafický procesor. Napríklad mnoho hier odpočíva v príležitostiach centrálny procesor Systémy Pri práci s viacerými typovými video systémami, časové (dočasné) techniky s použitím údajov z predchádzajúcich rámov sa čoraz viac používajú v nových hrách, v ktorých je efektívna prevádzka niekoľkých GPU jednoducho nemožné.

Avšak, prevádzka systémov v iných (non-SLI) multiselných systémov zostáva možné, ako explicitné režimy MDA alebo LDA v systéme DirectX 12 alebo dvoch typov SLI s vyhradeným tretím GPU pre fyzikálne účinky fyzických účinkov. Ale čo záznamy v referenčných hodnotách, naozaj v NVIDIA ich vôbec odmietnu? Nie, samozrejme, ale pretože takéto systémy sú v dopyte vo svete takmer jednotky používateľov, potom pre takéto ultrantusiásty, prišli s osobitným kľúčom nadšeného kľúča, ktorý možno stiahnuť na webovej stránke NVIDIA a odomknúť túto príležitosť. Aby ste to urobili, musíte najprv získať jedinečný identifikátor GPU spustením špeciálnej aplikácie, potom požiadajte nadšeného kľúča na webovej stránke a sťahovať ho, nastavte kľúč do systému, odomknete 3. a 4-cestnú konfiguráciu SLI.

Technológia synchronizácie rýchlej synchronizácie

Pri zobrazovaní informácií na displeji sa vyskytli niektoré zmeny v synchronizačných technológiách. Rating dopredu, nič nové sa neobjaví v G-Sync, pretože Adaptive Sync Adaptive Synchronizačná technológia nie je podporovaná. Ale v NVIDII sa rozhodlo zlepšiť hladkosť výstupu a synchronizácie pre hry, ktoré prejavujú veľmi vysoký výkon, keď frekvencia rámca výrazne presahuje rýchlosť aktualizácie monitora. To je dôležité najmä pre hry, ktoré vyžadujú minimálne oneskorenia a rýchlu reakciu a na ktorých sa konajú multiplayer bitky a hospodárska súťaž.

Rýchla synchronizácia je nová alternatíva k vertikálnej synchronizácii, ktorá nemá vizuálne artefakty vo forme prestávok obrazu na obrázku a nie je viazaný na fixnú aktualizačnú frekvenciu, ktorá zvyšuje oneskorenia. Aký je problém vertikálnej synchronizácie v hrách, ako je Counter-Strike: Global ofenzíva? Táto hra na výkonných moderných GPU pracuje s niekoľkými stovkami rámov za sekundu a hráč má na výber: zahŕňajú vertikálnu synchronizáciu alebo nie.

V multiplayerových hrách, užívatelia najčastejšie naháňajú minimálne oneskorenia a vsync odpojte, dostať dobre viditeľné medzery v obraze, extrémne nepríjemné a pri vysokej frekvencii. Ak zahrniete vertikálnu synchronizáciu, prehrávač dostane výrazné zvýšenie oneskorenia medzi jeho činmi a obrazom na obrazovke, keď grafický dopravník spomaľuje na frekvenciu aktualizácie monitora.

Takže tradičné dopravné práce. Ale NVIDIA sa rozhodla rozdeliť proces omietia a zobraziť obraz na obrazovku pomocou rýchlej technológie synchronizácie. To vám umožní pokračovať v najúčinnejšej práci pre časť GPU, ktorá sa zaoberá vykresľovaním rámov pri plnej rýchlosti, pri zachovaní týchto rámcov v špeciálnom poslednom konzervovanom dočasnom pufri.

Táto metóda vám umožní zmeniť spôsob výstupu na obrazovku a vziať to najlepšie z režimov VSYNC ON a VSYNC, prijímaním nízkych oneskorení, ale bez obrazových artefaktov. S rýchlym synchronizáciou neexistuje žiadny rámec riadenie, herný motor funguje v režime synchronizačného režimu a nehovorí čakať s výkresom ďalšie, preto sú oneskorenia takmer tak nízke ako režim VSYNC OFF. Ale pretože rýchla synchronizácia vyberie vyrovnávaciu pamäť na výstup na obrazovku a zobrazí celý rám, potom nie sú žiadne prestávky obrázku.

Pri operácii rýchlej synchronizácie sa používajú tri rôzne pufre, z ktorých prvé dve sa používajú rovnakým spôsobom ako dvojité pufrovanie v klasickom dopravníku. Primárny buffer (predný buffer - FB) je pufor, informácie, z ktorých sa zobrazuje na displeji, úplne ťahaný rám. Sekundárny pufor (zadný buffer - bb) je pufor, ktorý prichádza s informáciami pri vykresľovaní.

Pri použití vertikálnej synchronizácie v rámci vysokých podmienok rámu, hra čaká na moment aktualizácie informácií na displeji (Obnoviť interval) na vymieňanie primárneho vyrovnávacej pamäte s sekundárnym zobrazením jednodielneho obrazu na obrazovke. Toto spomaľuje proces a pridávanie ďalších pufrov, ako s tradičným trojitým pufrovaním pridáva len oneskorenie.

S použitím rýchlej synchronizácie sa pridá tretia posledná konvenčná vyrovnávacia pamäť (LRB), ktorá sa používa na uloženie všetkých rámov, ktoré boli práve vykreslené v sekundárnom pufri. Názov vyrovnávacej pamäte hovorí o sebe, obsahuje kópiu posledného plne re-ťahaného rámca. A keď príde okamih aktualizácie primárnej vyrovnávacej pamäte, tento nárazník LRB sa skopíruje do primárneho úplne, a nie v častiach, od sekundárnej, keď je vertikálna synchronizácia vypnutá. Keďže kopírovanie informácií z vyrovnávacích pamätí je neefektívne, jednoducho menia miesta (alebo premenovali, pretože bude vhodnejšie pochopiť) a nová zmena vyrovnávacej pamäte logických miest, ktoré sa objavili v GP104 riadi tento proces.

V praxi zaradenie novej metódy synchronizácie rýchlej synchronizácie poskytuje mierne veľké oneskorenie, v porovnaní s vertikálnou synchronizáciou úplne zakázané - v priemere, 8 ms viac, ale zobrazuje rámy na celom monitore, bez nepríjemných artefaktov na obrazovke, ktorá roztrhne obraz. Nová metóda môže byť povolená z grafických nastavení ovládacieho panela NVIDIA vo vertikálnej časti kontroly synchronizácie. Predvolená hodnota je však riadenie aplikácie a rýchla synchronizácia sa jednoducho nevyžaduje vo všetkých 3D aplikáciách, je lepšie nie je potrebné zvoliť túto metódu špecificky pre vysoké hry FPS.

Virtuálna realita Technologies NVIDIA VRWORKS

Opakovane sme ovplyvnili horúcu tému virtuálnej reality v článku, ale väčšinou o zvýšení frekvencie personálu a poskytla nízke oneskorenia, veľmi dôležité pre VR. To všetko je veľmi dôležité a pokrok je naozaj tam, ale doteraz VR hry vyzerajú ďaleko od oveľa impozantné ako to najlepšie z "obyčajných" moderných 3D hier. Ukazuje sa preto nielen preto, že VR Aplikácie Vedúci vývojári hier nie sú obzvlášť zapojení, ale aj kvôli väčším požiadavkám VR pre frekvenciu snímok, ktorá neumožňuje mnoho bežných techník v takýchto hrách v dôsledku vysokých požiadaviek.

S cieľom znížiť rozdiel v kvalite medzi hrami VR a obyčajným, NVIDIA sa rozhodla uvoľniť celý balík relevantných technológií VRWORKS, ktorý zahŕňal veľký počet API, knižníc, motorov a technológií, ktoré umožňujú výrazne zlepšiť kvalitu a výkonu VR- Aplikácií. Ako patrí k oznámeniu prvého herné riešenie Na Pascal? Je to veľmi jednoduché - niektoré technológie zaviedli do neho, pomáhali zvýšiť produktivitu a zlepšiť kvalitu a už sme o nich napísali.

A aj keď príde nielen grafiku, najprv mi o tom povedzte trochu. Grafická technológia VRWORKS obsahuje predtým uvedené technológie, ako je objektív prispôsobený tieniace, pomocou multipročujúceho možnosti, ktorá sa objaví v Geforce GTX 1080. Novinka vám umožňuje získať zvýšenie produktivity o 1,5-2 krát, pokiaľ ide o rozhodnutia, ktoré nemajú také podpora. Spomenuli sme aj iné technológie, ako napríklad shadlá sťahovanie, určené na vykresľovanie s iným rozlíšením v strede rámu a na jeho periférii.

Ale oveľa neočakávanejšie bolo oznámenie VRWORKS Audio Technology, navrhnuté pre vysoko kvalitné reproduktorové dáta CCD v 3D scénach, obzvlášť dôležité vo virtuálnych realitných systémoch. V bežných motoroch sa umiestnenie zvukových zdrojov vo virtuálnom prostredí vypočíta skôr správne, ak nepriateľ vystrelí pravý, potom zvuk je hlasnejší z tejto strany audio systému, a tento výpočet nie je príliš náročný na výpočtový výkon.

Ale v skutočnosti, zvuky prídu nielen k hráčovi, ale vo všetkých smeroch a sa odrážajú z rôznych materiálov, podobne ako sa odráža lúče svetla. A v skutočnosti počujeme tieto úvahy, aj keď nie tak zreteľne ako rovné zvukové vlny. Tieto nepriame zvukové úvahy sú zvyčajne simulované špeciálnymi efektmi reverb, ale to je veľmi primitívny prístup k úlohe.

V audio balíku VRworks je nespočetné množstvo zvukových vĺn podobné raketovému sledovaniu, keď je cesta svetelného lúča sledovaná na niekoľko odrazov z objektov vo virtuálnej scéne. VRWORKS AUDIO tiež napodobňuje šírenie zvukových vĺn v prostredí, keď sú sledované rovné a odrazené vlny, v závislosti od uhla ich pádu a vlastností reflexných materiálov. Vo svojej práci, VRWORKS AUDIO využíva vysoko výkonný motor NVIDIA OPTIX High-výkon NVIDIA navrhnutý na sledovanie lúčov podľa grafických úloh. Optix môže byť použitý pre rôzne úlohy, ako je výpočet nepriameho osvetlenia a prípravy osvetľovacích kariet, a teraz na sledovanie zvukových vĺn v Audio VRWORKS.

NVIDIA vložila presný výpočet zvukových vĺn do svojho dokladového programu VR Funhouse, používa niekoľko tisíc lúčov a vypočíta sa až 12 odrazov z objektov. A s cieľom priradiť výhody technológie na zrozumiteľnom príklade, odporúčame sledovať video o práci technológií v ruštine:

Je dôležité, aby sa prístup NVIDIA líši od tradičných zvukových motorov, vrátane hardvéru urýchlene pomocou špeciálneho bloku v metóde GPU od hlavného konkurenta. Všetky tieto metódy poskytujú len presné umiestnenie zvukových zdrojov, ale nevypočítavajú odraz zvukových vĺn z objektov v 3D scéne, hoci to môžu simulovať pomocou reverzačného efektu. Použitie technológie sledovania ray môže byť oveľa realistickejšie, pretože len takýto prístup poskytne presné imitácia rôznych zvukov, pričom zohľadní veľkosť, formuláre a materiály objektov v scéne. Je ťažké povedať, či je táto presnosť potrebná pre typický hráč, ale možno ho povedať určite: V VR, to môže pridať používateľov na najrealšie, čo nestačí na obvyklé hry.

No, odišli sme len o technológii VR SLI, ktorá pracuje v OpenGL av DirectX. Jeho princíp je mimoriadne jednoduchý: Dvojprocesorový video systém v aplikácii VR bude fungovať tak, že každé oko je pridelené oddelené GPU, na rozdiel od renderovania AFR, ktorý je známy s konfiguráciami SLI. To výrazne zlepšuje celkový výkon, tak dôležitý pre systémy virtuálnej reality. Teoreticky môžete použiť viac GPU, ale ich množstvo by malo byť dokonca.

Takýto prístup bol potrebný, pretože AFR je zle vhodný pre VR, pretože s jej pomocou prvej GPU pritiahne aj rámec pre obe oči a druhý je nepárny, čo neznižuje oneskorenia, kritické pre systémy virtuálnej reality. Hoci frekvencia rámov bude dostatočne vysoká. Takže s VR SLI, práca na každom ráme je rozdelená do dvoch GPU - jedna práca na strane rámca pre ľavé oko, druhá je vpravo, a potom sa tieto polovičné snímky kombinujú do celku.

Takéto rozdelenie práce medzi dvojicou grafických procesorov prináša takmer dvojnásobný rast výkonu, ktorý vám umožňuje zvýšiť rýchlosť snímok a znížiť oneskorenia v porovnaní s systémami založenými na jednej grafickej karte. TRUE, použitie VR SLI vyžaduje špeciálnu podporu z aplikácie na použitie tejto metódy škálovania. Ale technológia VR SLI je už vložená do takých demonštračných VR aplikácií ako laboratórium z ventilu a tetovania z ILMXLAB, a to je len začiatok - v NVIDIA sľubujú vznik iných aplikácií, ako aj technológie Úvod do nereálneho motora 4 hra motorov , Jednota a maxplay.

Ansel hra Screenshots Tvorba platforma

Jedným z najzaujímavejších oznámení týkajúcich sa softvéru bola výroba vysoko kvalitných screenshot technológií v herných aplikáciách s názvom jeden slávny fotograf - ansel. Hry už dlho nie sú len hry, ale aj miesto aplikácie hravých rúk pre rôzne kreatívne osobnosti. Niekto zmení skripty na hry, niekto vyrába vysoko kvalitné textúry s hier, a niekto - robí krásne snímky obrazovky.

NVIDIA sa rozhodla pomôcť druhému, predložiť novú platformu na vytvorenie (je to stvorenie, pretože to nie je taký jednoduchý proces) vysoko kvalitné obrázky z hier. Veria, že Ansel môže pomôcť vytvoriť nový typ moderného umenia. Koniec koncov, existujú už dosť veľa umelcov, ktorí trávia väčšinu života pre PC, vytvárajú krásne snímky z hier, a stále nemali pohodlný nástroj na to.

Ansel vám umožní nielen zachytiť obraz v hre, ale zmeniť ho, ako je potrebné vytvoriť. S touto technológiou môžete fotoaparát presunúť na pódiu, otáčať a nakloniť ho v ľubovoľnom smere, aby ste získali požadovaný rámový prostriedok. Napríklad v takýchto hrách, ako sú strelci prvej osoby, môžete presunúť len prehrávač, nič viac sa zmení viac, takže všetky screenshoty sú dosť monotónne. S bezplatnou kamerou v Ansel, môžete sa dostať z hernej komory, výber takéhoto uhla, ktorý je potrebný pre úspešný obraz, alebo zachytiť plnohodnotný 360-stupňový stereo z požadovaného bodu a vo vysokom rozlíšení Pre neskoršie zobrazenie vo VR-helme.

Ansel funguje jednoducho - so špeciálnou knižnicou z NVIDIA, táto platforma je predstavená do kódu hry. Na tento účel jeho vývojár potrebuje len pridať malý kúsok kódu do svojho projektu, aby umožnili NVIDIA Video disk na zachytenie vyrovnávacích údajov a shaderov. Pracuje tam dosť, zavedenie Ansel v hre vyžaduje menej ako jeden deň na implementáciu. Takže, zahrnutie tejto príležitosti v hre svedok obsadil asi 40 riadkov kódu a vo Witcher 3 - asi 150 riadkov kódu.

Ansel sa objaví s otvoreným vývojovým balíkom - SDK. Hlavná vec, ktorú používateľ dostane štandardnú sadu nastavení s ním, čo jej umožňuje zmeniť polohu a uhol fotoaparátu, pridať efekty, atď. Platforma Ansel funguje takto: Ukáže pozastavenie hry, obsahuje bezplatnú komoru a Umožňuje zmeniť rámu na požadovaný pohľad, zaznamenávací výsledok vo forme pravidelného snímka obrazovky, 360-stupňové snímky, stereo párov alebo len panorámy obrovského povolenia.

Jediný poznámka: Nie všetky hry dostanú podporu pre všetky funkcie hrania screenshoty Ansel. Niektoré z hier vývojári z jedného dôvodu alebo iného nechcú zahrnúť úplne voľnú komoru vo svojich hrách - napríklad z dôvodu možnosti využitia tejto funkcie s podvodníkmi. Alebo chcú obmedziť zmenu v uhle preskúmania rovnakým dôvodom - aby nikto nedostal nespravodlivú výhodu. No, alebo že používatelia nevidia biedne sprites v pozadí. To všetko je úplne normálne túžby tvorcov hier.

Jedným z najzaujímavejších prvkov Ansel je vytvorenie screenshotov len obrovské povolenie. Nezáleží na tom, že hra podporuje povolenia až do 4K, napríklad a monitor používateľa a full HD. Používanie platformy snímky obrazovky môžete zachytiť oveľa kvalitný obraz obmedzený objemom a výkonom jednotky. Platforma ľahko zachytáva screenshoty s rozlíšením až 4,5 gigapixelov, s prešívaním z 3,600 kusov!

Je jasné, že na takýchto obrázkoch môžete zvážiť všetky podrobnosti, až k textu na novinách, ktoré ležia, ak je takáto úroveň detailu poskytnutá v zásade v hre - ansel je schopný riadiť a na úrovni úrovne detailov, Vystavenie maximálnej úrovne, aby ste získali najlepší obraz. Ale stále môžete zapnúť super prezentáciu. To všetko vám umožní vytvoriť obrázky z hier, ktoré možno bezpečne písanie na veľké bannery a byť pokojný pre ich kvalitu.

Je zaujímavé, že špeciálny hardvér zrýchlený kód založený na CUDA sa používa na stehovanie veľkých obrázkov. Koniec koncov, žiadna grafická karta nebude schopná spomaliť viacdňový obraz celku, ale to môže urobiť v kusoch, ktoré potrebujete neskôr, vzhľadom na možný rozdiel v osvetlení, farbe a iných veciach.

Po prešívaní takýchto panorám sa pre celý rám používa špeciálne post-spracovanie, tiež zrýchlené na GPU. A na zachytávanie snímok v zvýšenom dynamickom rozsahu, môžete použiť špeciálny obrazový formát - exr, otvorený štandard z priemyselného svetla a mágie, hodnoty farieb v každom kanáli, ktoré sú zaznamenané v 16-bitovom formáte plávajúceho bodu ( FP16).

Tento formát vám umožňuje zmeniť jasu a dynamický rozsah obrazu po spracovaní, čo ho vedie na požadovaný displej rovnakým spôsobom, ako sa vykonáva s surovými formátmi z fotoaparátu. Áno, a pre následné používanie filtrov po spracovaní v programoch spracovania obrazu je tento formát veľmi užitočný, pretože obsahuje oveľa viac údajov ako obvyklé formáty pre obrázky.

Platforma Andsel a samotná sama obsahuje mnoho filtrov na post-spracovanie, čo je obzvlášť dôležité, pretože má prístup nielen na záverečný obraz, ale aj na všetky pufre používané v hre pri vykresľovaní, ktoré môžu byť použité pre veľmi zaujímavé efekty, ako hĺbka poľa. Aby to urobil, Ansel má špeciálne API na post-spracovanie, a ktorýkoľvek z účinkov môže byť zahrnutý do hry s podporou tejto platformy.

Príspevok Filtre ansel obsahuje také filtre, ako sú: farebné krivky, farebný priestor, transformácia, desaturácia, jas / kontrast, filmové zrno, kvet, šošovka flare, anamorfný oslnenie, skreslenie, heatheaze, rybie, farebné aberácie, tónové mapovanie, šošovka nečistôt, svetelné hriadele , Vignette, Korekcia gama, konvolúcia, brúsenie, detekcia hrany, rozmazanie, sépia, denoise, fxaa a ďalšie.

Pokiaľ ide o vznik podpory Ansel do hier, potom bude musieť trochu čakať, zatiaľ čo vývojári budú implementované a testované. Ale NVIDIA sľubuje vznik takejto podpory v takých známych hrách ako divízia, svedka, trávnik, čarodejníctvo 3, Paragon, Fortnite, Obduction, No Man "s neba, nereálny turnaj a ďalšie.

Nový technologický proces 16 nm Finfet a Architecture Optimalizácia umožnil GEFORCE GTX 1080 grafickú kartu založenú na grafickom procesore GP104, aby sa dosiahla vysoká frekvencia hodín 1,6-1,7 GHz, dokonca aj v referenčnom formulári a pracuje na maximálnych frekvenciách v hrách zaručuje novú generáciu. Technológia GPU BOOST. Spolu so zvýšeným počtom výkonných blokov, tieto vylepšenia urobili novosť nielen najvyššiu vysoko výkonnú grafickú kartu single-plurity po celú dobu, ale aj energeticky efektívne riešenie na trhu.

Model GEFORCE GTX 1080 sa stal prvou grafickou kartou, ktorá nesú nový typ grafickej pamäte GDDR5X - nová generácia vysokorýchlostných čipov, čo umožnilo dosiahnuť veľmi vysokú frekvenciu prenosu dát. V prípade úpravy GEFORCE GTX 1080 tento typ pamäte pracuje pri efektívnej frekvencii 10 GHz. V kombinácii s vylepšenými algoritmami kompresie informácií v rámcovi, to viedlo k zvýšeniu efektívnej šírky pásma pamäte pre tento grafický procesor o 1,7-krát v porovnaní s priamym predchodcom v tvár GEFORCE GTX 980.

NVIDIA sa obozretne rozhodla, že nebude uvoľniť radikálne novú architektúru o úplne novom technickom procese pre seba, aby sa nestretol s extra problémy pri vývoji a výrobe. Namiesto toho sa vážne zlepšili a tak dobrá a veľmi efektívna architektúra Maxwell, pridávajú niektoré možnosti. Výsledkom je, že s výrobou nového GPU je všetko v poriadku av prípade modelu GEFORCE GTX model 1080 dosiahli inžinieri veľmi vysoký frekvenčný potenciál - v pretaktovaných možnostiach od partnerov, frekvencia GPU sa očakáva až do 2 GHz! Takáto pôsobivá frekvencia sa stala skutočným vďaka dokonalému procesu a starostlivosti o prácu inžinierov NVIDIA pri vývoji Pascal grafického procesora.

A hoci Pascal sa stal priamou nasledovníkom Maxwellovej prípadu, a tieto grafické architektúry sú založené na ich vlastné príliš odlišné od seba, NVIDIA predstavil mnoho zmien a vylepšení, vrátane schopnosti zobraziť obrázky na displeji, kódovací motor a video Dekódovací motor, zlepšené asynchrónne vykonávanie rôznych typov výpočtov na GPU, vykonali zmeny v renderovaní multimele a implementovali novú metódu synchronizácie rýchlej synchronizácie.

Je nemožné zdôrazniť simultánnu multi-projekciu multifroying technológie, ktorá pomáha zvýšiť produktivitu v systémoch virtuálnej reality, získať správne zobrazenie scén na multi-domuclear systémy a implementovať nové techniky optimalizácie výkonnosti. Ale najväčšie zvýšenie rýchlosti dostane aplikáciu VR, keď bude podporovaná multiproyingová technológia, ktorá pomáha s cieľom ušetriť zdroje GPU pri spracovaní geometrických údajov a jedného a polčasu - s pixelovým počítačom.

Medzi čistými zmenami softvéru, platforma je obzvlášť zvýraznená pre vytváranie screenshots v hrách s názvom Ansel - Skúste to v prípade, že bude zaujímavé nielen pre veľa hrania, ale aj zaujímavé o kvalitnú 3D grafiku. Novinka vám umožňuje propagovať umenie vytvárania a retušovania screenshots nová úroveň. No, takéto balíky pre vývojárov hier, ako sú herné práce a vRworks, NVIDIA jednoducho naďalej zlepšujú krok za krokom - takže v druhej veci bola zaujímavá možnosť vysoko kvalitnej zvukovej karty zvuku, s prihliadnutím na početné odrazy zvukových vĺn pomocou hardvérovej stopy lúčov.

Všeobecne platí, že vo forme grafickej karty NVIDIA GEFORCE GTX 1080, skutočný vodca bol prepustený na trh, ktorý má všetky potrebné kvality: vysoká výkonnosť a široká funkčnosť, ako aj podpora nových funkcií a algoritmov. Prví kupujúci tejto grafickej karty budú môcť okamžite posúdiť mnohé z týchto výhod a iné možnosti riešení odhalí o niečo neskôr, keď existuje široká podpora zo softvéru. Hlavnou vecou je, že Geforce GTX 1080 ukázal byť veľmi rýchly a efektívny a niektoré z problémov (rovnaké asynchrónne výpočty), pretože dúfame, že NVIDIA sa podarilo opraviť.

GEFORCE GTX 1070 GRAPHY ACTRAKER

ParameterHodnota
Kódový názov čip.Gp104.
Výrobná technológia16 nm finfeta.
Počet tranzistorov7,2 miliardy
Štvorcový jadro314 mm²
ArchitektúraZjednotené, s radom bežných procesorov na streamovanie početných typov údajov: vrcholy, pixely atď.
Podpora hardvéru DirectXDirectX 12, s podporou úrovne funkcie 12_1
Pamäťová zbernica.256-bit: osem nezávislých 32-bitových pamäťových radičov s podporou pre pamäť GDDR5 a GDDR5X
Frekvencia grafického procesora1506 (1683) MHz
Výpočtové bloky15 Aktívny (od 20 v čipoch) Streaming MultiProcesory obsahujúce 1920 (z 2560) Scalar ALU pre výpočty plávajúcich bodov v rámci štandardu IEEE 754-2008;
Textické bloky120 Active (z 160 v čipových) blokoch textúry a filtrovanie s podporou komponentu FP16- a FP32 v textúrach a podpore pre trilinear a anizotropné filtrovanie pre všetky textúrne formáty
Bloky rastra operácií (ROP)8 široké bloky ROP (64 pixelov) s nosičom rôznych režimov vyhladzovania, vrátane programovateľného a vo formáte FP16 alebo FP32. Bloky sa skladajú z radu konfigurovateľných ALU a sú zodpovedné za generovanie a hĺbkové porovnanie, multisamplement a miešanie
Podpora monitoraIntegrovaná podpora až štyroch monitorov pripojených k dvojitým prepojeniu DVI rozhraniam, HDMI 2.0b a DisplayPort 1.2 (1,3 / 1.4 pripravený)

Špecifikácie referenčnej grafickej karty GEFORCE GTX 1070
ParameterHodnota
Frekvencia jadra1506 (1683) MHz
Počet univerzálnych procesorov1920
Počet textúrnych blokov120
Počet blokov oplatenia64
Efektívna frekvencia pamäte8000 (4 × 2000) MHz
Typ pamäteGDDR5
Pamäťová zbernica.256-bit
Veľkosť pamäte8 GB
Pamäťová šírka pásma256 GB / S
Výpočtový výkon (FP32)asi 6,5 Teraflops
Teoretická maximálna horná rýchlosť96 gigapixelov / s
Teoretické vzorky vzoriek vzorky181 GAGETEXELY / S
PneumatikaPCI Express 3.0
KonektoryJeden dvojitý spojovací konektor, jeden HDMI a tri DisplayPort
Spotreba energieaž 150 W.
Dodatočné jedloJeden 8 pinový konektor
Počet slotov obsadených v systémovom prípade2
Odporúčaná cena$ 379-449 (USA), 34 990 (Rusko)

GEFORCE GTX 1070 grafickej karty tiež dostal logický názov podobný rovnakému riešeniu z predchádzajúcej série Geforce. Odlišuje sa od priameho predchodcu GEFORCE GTX 970 iba modifikovanú generáciu. Novinka sa stáva v aktuálnom riadku spoločnosti, aby ste vstúpili pod aktuálny top riešenie Geforce GTX 1080, ktorý sa stal dočasnou vlajkovou loďou novej série k uvoľneniu riešení na GPU ešte väčšiu moc.

Odporúčané ceny za nové NVIDIA TOP VIDEOSTI sú $ 379 a $ 449 za obvyklé verzie partnerov NVIDIA a špeciálne vydanie Zakladateľa Edition, resp. V porovnaní s horným modelom je to veľmi dobrá cena Berúc do úvahy skutočnosť, že GTX 1070 je nižšia ako 25% v najhoršom prípade. A v čase oznámenia a uvoľnenie GTX 1070 sa stáva najlepším riešením vo svojej triede. Rovnako ako GEFORCE GTX 1080, model GTX 1070 nemá priamych konkurentov z AMD, a je možné ho porovnať okrem Radeon R9 390x a zúrivosti.

Grafický procesor GP104 v modifikácii GEFORCE GTX 1070 sa rozhodol ponechať plnú 256-bitovú pamäťovú zbernicu, hoci aplikuje nie nový typ pamäte GDDR5X, ale veľmi rýchly GDDR5, ktorý pracuje na vysokej efektívnej frekvencii 8 GHz. Množstvo pamäte namontovanej na grafickej karte s takou pneumatikou môže byť 4 alebo 8 GB a poskytnúť maximálna produktivita Nové riešenie v podmienkach vysokých nastavení a renderovania rozlíšení, model grafickej karty GEFORCE GTX 1070 bol tiež vybavený 8 GB video pamäte, rovnako ako jeho staršia sestra. Tento objem je dosť na spustenie všetkých 3D aplikácií s maximálnymi nastaveniami kvality niekoľko rokov.

ŠPECIÁLNE EDITION GEFORCE GTX 1070 Zakladatelia

S oznámením GEFORCE GTX 1080 na začiatku mája, špeciálne vydanie grafickej karty s názvom Zakladateľská edícia, ktorá má vyššiu cenu, v porovnaní s konvenčnými grafickými kartami partnerov spoločnosti. To isté platí pre novinku. V tomto materiáli opäť povieme o špeciálnom vydaní grafickej karty GEFORCE GTX 1070 s názvom Zakladateľská edícia. Rovnako ako v prípade staršieho modelu, NVIDIA sa rozhodla uvoľniť túto verziu referenčnej grafickej karty výrobcu za vyššiu cenu. Tvrdia, že mnohí hráči a nadšencov, ktorí si kúpia drahé video kariet, chcú produkt s príslušnými "prémiovými" druhmi a pocit z neho.

V súlade s tým je pre takýchto užívateľov na trh, GEFORCE GTX 1070 Zakladateľská edícia Video Karta bude vydaná, ktorá je navrhnutá a vyrobená inžinieri NVIDIA z prémiových materiálov a komponentov, ako je napríklad hliníkový Geforce GTX 1070 Zakrydiel rovnako ako nízkoprofilové zadnej doske, ktorá zahŕňa koreň stranu dosky s plošnými spojmi a celkom populárne medzi fanúšikmi.

Ako môžete vidieť na fotografiách na palube, GeForce GTX 1070 Zakladatelia Edition zdedil presne rovnaký priemyselný vzor tkvejúcich v referenčnej verzii GeForce GTX 1080 Founders Edition. V oboch modeloch sa používa radiálny ventilátor, vyhadzuje vyhrievaný vzduch smerom von, ktorý je veľmi užitočný ako v malých prípadoch aj multmiérskych konfiguráciách SLI s obmedzeným fyzickým priestorom. Vyfukovanie vyhrievaného vzduchu na vonkajšej strane namiesto jeho cirkulácie vo vnútri prípadu znižuje teplotné zaťaženie, zvýšenie výsledkov pretaktovania a predĺženie životnosti systémových komponentov.

Pod krytom referenčného chladiaceho systému je GEFORCE GTX 1070 GEFORCE skrytý hliníkovou špeciálnym chladičom s tromi vstavanými tepelnými rúrkami z medi, odstránenie tepla z samotného grafického procesora. Teplo pridelené tepelným rúrkam, potom sa rozptyľuje pomocou hliníkového radiátora. No, nízkoprofilová kovová doska na zadnej strane dosky je tiež navrhnutá tak, aby poskytovala lepšie teplotné charakteristiky. Má tiež zatiahnuteľnú časť pre lepší pohyb vzduchu medzi viacerými grafickými kartami v konfiguráciách SLI.

Pokiaľ ide o systém napájania, GEFORCE GTX 1070 Zakladatelia Edition má štvorfázový systém výživy optimalizovaný pre stabilné dodávky energie. NVIDIA zabezpečuje, že použitie špeciálnych komponentov v Edícii Zakladačov GTX 1070 bolo možné zvýšiť účinnosť napájania, stabilitu a spoľahlivosť v porovnaní s GEFORCE GTX 970, čím poskytuje lepší výkon počas zrýchlenia. Vo svojich vlastných skúškach spoločnosti GEFORCE GTX 1070 karty sú ľahko lepší na 1,9 GHz, ktorý je blízko výsledkov staršieho modelu GTX 1080.

Video karta NVIDIA GEFORCE GTX 1070 bude k dispozícii v maloobchodných predajniach od 10. júna. Odporúčané ceny GEFORCE GTX 1070 Zakladateľov a riešenia partnerov sú odlišné, a to je najdôležitejšia otázka pre túto osobitnú publikáciu. Ak NVIDIA partneri predávajú svoje GeForce GTX 1070 grafické karty za cenu v rozmedzí od $ 379 (na americkom trhu), budú zakladatelia Edition referenčného dizajnu NVIDIA stáť $ 449. Existuje mnoho nadšencov, pripravený na preplatok, povedzme rovné, pochybné výhody referenčnej možnosti? Čas ukáže, ale veríme, že referenčná poplatok je oveľa zaujímavejšie ako jednu z možností k dispozícii pre nákup na samom začiatku predaja a neskôr zmysle jeho obstaranie (aj pre veľkú cenu!) Je už znížená na nulu.

Zostáva pridať vytlačená obvodová doska Referencia GEFORCE GTX 1070 je podobná ako staršia grafická karta a obaja sa líšia od predchádzajúcich dosiek spoločnosti. Hodnota typickej inovácie pre novinku je 150 W, ktorá je nižšia ako hodnota pre GTX 1080 o takmer 20% a v blízkosti spotreby energie predchádzajúcej generácie GEFORCE GTX 970. Referenčná karta NVIDIA má už známy súbor konektorov priložiť ako výstupné zariadenie: jeden dual-link DVI, jeden HDMI a DisplayPort tri. Okrem toho sa objavila podpora nových verzií HDMI a DisplayPort, ktorú sme napísali o prehľade modelu modelu GTX 1080.

Architektonické zmeny

Video karta GEFORCE GTX 1070 je založená na gp104 čip, prvé posteľ novej generácie Grafickej architektúry NVIDIA - Pascal. Táto architektúra bola založená na riešenie, ktoré bolo ešte strávenú v meste Maxwell, ale má aj niektoré funkčné rozdiely, o ktorých sme písali v detaile v detaile - v časti venovanej Topboard GEFORCE GTX 1080 grafickej karty.

Hlavnou zmenou novej architektúry bola technologickým procesom, na ktorom budú vykonávať všetky nové grafické procesory. Aplikácia technického procesu 16 nm Finfeta vo výrobe GP104 umožnila výrazne zvýšiť zložitosť čipu pri zachovaní pomerne nízkej plochy a nákladov a prvých Pascal architektúra čip má výrazne viac výkonných blokov, vrátane poskytovania Nová funkcia, v porovnaní s Maxwell Chips podobné umiestnenie.

Video Chip GP104 na jeho zariadení je podobný podobným riešeniam architektúry Maxwell a podrobné údaje o zariadení moderného GPU nájdete v našich hodnoteniach predchádzajúcich riešení NVIDIA. Rovnako ako predchádzajúce grafických procesorov, nová architektúra čipy bude mať inú konfiguráciu klastra spracovania grafický výpočtovej klastra klastra klastra, streaming viacprocesorové streamovanie viacerými procesormi (SM) a pamäťové radiče, a GeForce GTX 1070 už došlo k zmenám - časť čipu má bola zablokovaná a neaktívne (zvýraznené sivá):

Hoci grafický procesor GP104 obsahuje štyri GPC klastre a 20 SM viacprocesory, vo verzii pre GEFORCE GTX 1070, dostal orezanú modifikáciu s hardvérom zakázaným jedným gpc klastra. Vzhľadom k tomu, každý zhluk GPC má vlastné rasterizácia motor a obsahuje päť SM viacprocesorové, a každý s viacerými pozostáva zo 128 CUDA jadier a osem TMU textúr blokov, potom v tejto verzii GP104 1920 CUDA jadier a 120 TMU blokov od 2560 streamovanie procesorov a 160 textových blokov existujúce fyzicky.

Grafický procesor, ktorý je založený na GeForce GTX 1070 grafickou kartou, obsahuje osem 32-bitové pamäťové radiče, ktoré poskytujú celkovo 256-bitovú pamäťovú zbernicu - rovnako ako v prípade staršieho GTX 1080 modelu pamäťového subsystému nebol. zdobené, aby bola zaistená dostatočne vysoká priepustnosť pamäte s podmienkou pre použitie GDDR5 pamäť GeForce GTX 1070. do každej z radiča pamäte je spojená s ôsmimi ROP blokov a 256 KB druhej vyrovnávacej pamäte na úrovni, tak na GP104 čipe a v tejto modifikácie obsahuje 64 ROP a 2048 KB úrovni Hotovostné blokov pamäte.

Vďaka architektonickým optimantom a novým procesom sa grafický procesor GP104 stal v súčasnosti najo energeticky efektívnejším grafickým procesorom. Inžinieri NVIDIA dokázali zvýšiť frekvenciu hodín viac, než sa vypočítali pri prechode na nový technický proces, pre ktorý museli dobre fungovať, dôkladne kontrolovať a optimalizovať všetky úzke miesta predchádzajúcich riešení, ktoré im nedovoľujú pracovať pri vyššej frekvencii . Preto GEFORCE GTX 1070 pôsobí aj pri veľmi vysokej frekvencii, viac ako 40% vyšších ako referenčné hodnoty pre GEFORCE GTX 970.

Keďže model GEFORCE GTX 1070 je v podstate len o niečo menej produktívny GTX 1080 s pamäťou GDDR5, podporuje absolútne všetky technológie opísané v predchádzajúcej časti. Ak chcete získať viac podrobností o Architektúre Pascal, ako aj podporované IT technológií, ako sú zlepšené bloky výstupu a spracovanie video dát, podpora pre asynchrónne výpočtové async výpočet, simultánne multi-projekčné multiprocesné technológie, zmeny v SLI viac rendering a a Nový typ synchronizácie Fast Sync, stojí za to oboznámiť s sekciou GTX 1080.

Vysoko výkonná pamäť GDDR5 a jej efektívne použitie

Sme vyššie napísali o zmenách v pamäťovom podsystéme v grafickom procesore GP104, ktorý je založený na modeloch GEFORCE GTX 1080 a GTX 1070 - regulátory pamäte v zložení tohto GPU sú udržiavané ako nový typ video pamäte GDDR5X, ktorý je Podrobne v detaile v preskúmaní GTX 1080. A stará dobrá pamäť GDDR5, známa nám už niekoľko rokov.

Aby sme nestratili príliš veľa v pamäti šírky pásma v mladšom modeli GTX 1070 v porovnaní so starším GTX 1080, to bolo aktívne všetky osem 32-bitových pamäťových regulátorov, ktoré dostali plnohodnotné 256-bitové rozhranie v oblasti videa. Okrem toho bola grafická karta vybavená najvyššou rýchlosťou GDDR5-pamäte, ktorá bola k dispozícii len na trhu - s účinnou pracovnou frekvenciou 8 GHz. To všetko poskytlo PSP v 256 GB / s, na rozdiel od 320 GB / s na seniorskom riešení - približne rovnaké množstvo a výpočtové schopnosti boli prerušené, takže zostatok bol pozorovaný.

Nezabudnite, že hoci špičková teoretická šírka pásma je dôležitá pre výkon grafických procesorov, musíte venovať pozornosť účinnosti jeho používania. V procese vykresľovania môže mnoho rôznych úzkych miest obmedziť celkový výkon bez toho, aby umožnil použitie všetkých dostupných PSP. Aby sa minimalizoval počet úzkych sedadiel, grafické procesory používajú špeciálnu kompresiu informácií bez straty, zlepšenie efektívnosti operácií čítania a zápisu.

V architektúre Pascal bola zavedená štvrtá generácia kompresie delta o vyrovnávacej pamäti, ktorá umožnila GPU efektívnejšie používať dostupné možnosti pneumatík v pamäti videa. Pamäťový subsystém v Geforce GTX 1070 a GTX 1080 používa vylepšené staré a niekoľko nových techník kompresie údajov bez straty, ktoré sú určené na zníženie požiadaviek na PSP. Tým sa znižuje počet údajov zaznamenaných v pamäti, zlepšuje účinnosť používania vyrovnávacej pamäte L2 a znižuje množstvo údajov odoslaných medzi rôznymi bodmi GPU, ako je TMU a Frecepmned.

GPU BOOPT 3.0 A VLASTNOSTI

Väčšina partnerov NVIDIA už oznámila továrenské rozhodnutia založené na GEFORCE GTX 1080 a GTX 1070. A mnohí výrobcovia grafických kariet tiež vytvárajú špeciálne pretaktovanie nástrojov na použitie novej technológie GPU Boost 3.0 technológie. Jedným z príkladov takýchto nástrojov je EVGA Precision XOC, ktorá zahŕňa automatický skener Na určenie krivky pomeru napätia a frekvencií - v tomto režime pre každý z hodnôt napätia spustením testu stability je stabilná frekvencia, pri ktorej GPU poskytuje rast produktivity. Táto krivka sa však môže meniť manuálne.

Poznáme technológiu Boost GPU v predchádzajúcich grafických kartách NVIDIA. Vo svojich grafických procesoroch používajú túto hardvérovú funkciu určenú na zvýšenie frekvencie pracovných hodín GPU v režimoch, keď ešte nedosiahol spotrebu energie a limitov uvoľňovania tepla. V grafických procesoroch Pascal, tento algoritmus prešiel niekoľkými zmenami, ktorého hlavné stredisko sa stalo jemnejšou inštaláciou turbo frekvencií v závislosti od napätia.

Ak sa skorší rozdiel medzi základnou frekvenciou a turbo frekvenciou bola opravená, potom v GPU Boost 3.0 bolo možné inštalovať Turbo frekvenčné posuny pre každé napätie oddelene. Teraz môže byť turbo frekvencia nainštalovaná pre každý z jednotlivých hodnôt napätia, čo vám umožňuje plne stlačiť všetky možnosti pretaktovania z GPU. Podrobne sme napísali o tejto príležitosti review Geforce GTX 1080, a na to môžete využiť utility EVGA Precision XOC a MSI Afterburner..

Vzhľadom k tomu, v metóde pretaktovania s uvoľňovaním grafických kariet s podporou BOOPT 3.0, niektoré podrobnosti sa zmenili, NVIDIA musela vykonať ďalšie vysvetlenia v pokynoch pre pretaktovanie nových produktov. Existujú rôzne techniky zrýchlenia s rôznymi premennými, ktoré ovplyvňujú konečný výsledok. Pre každý špecifický systém môže byť lepšie pristupovať k určitej konkrétnej metóde, ale základ je vždy približne rovnaký.

Mnohé z pretaktúr na overenie stability systému používajú benchmark Ungine Heaven 4.0, ktorý dokonale načíta grafický procesor s prácou, má flexibilné nastavenia a môže byť spustený v režime okna s užitočným oknom pre pretaktovanie a monitorovanie blízko, ako napríklad EVGA Presné alebo MSI Afterburner. Takáto kontrola je však dostatočná len pre počiatočné útoky, a pre silné potvrdenie stability pretaktovania, musí sa skontrolovať v niekoľkých herných aplikáciách, pretože rôzne hry naznačujú rôzne zaťaženie na rôznych funkčných blokoch GPU: matematické, textové, geometrické . Heaven 4.0 mierka je tiež vhodná pre úlohu pretaktovanie, pretože má bankovanie režim prevádzky, v ktorom je vhodné zmeniť nastavenie pretaktovania a tam je meradlom pre posúdenie rýchlosti otáčok.

NVIDIA radí, keď pretaktovanie nových grafických kariet GEFORCE GTX 1080 a GTX 1070 na spustenie neba 4.0 a EVGA Precision Xoc Windows spolu. Po prvé, odporúča sa okamžite zvýšiť rýchlosť otáčania ventilátora. A pre vážne pretaktovanie, môžete okamžite nastaviť hodnotu rýchlosti o 100%, čo urobí grafickú kartu s veľmi hlasným, ale maximálne chladenie GPU a zostávajúce komponenty grafickej karty, čím sa zníži teplota najnižšej možnej úrovni, prevenciu kluse (zníženie frekvencie v súvislosti s rastom teploty GPU nad určitú hodnotu).

Ďalej musíte nainštalovať cieľovú hodnotu (cieľový cieľ) je tiež maximálny. Toto nastavenie poskytne grafický procesor s maximálnym možným množstvom energie, zvýšenie úrovne spotreby energie a cieľová teplota GPU (cieľ GPU TEMP). Na niektoré účely môže byť druhá hodnota oddelená od zmeny cieľa napájania, a potom tieto nastavenia môžu byť konfigurované individuálne - aby sa dosiahlo menšie vykurovanie video čipu.

Ďalším krokom je zvýšiť hodnotu frekvenčného zisku video chip (CLOCK CLOCK) - to znamená, aká veľká frekvencia Turbo je pri práci. Táto hodnota zvyšuje frekvenciu pre všetky hodnoty napätia a vedie k väčšiemu výkonu. Ako obvykle, keď pretaktovanie, musíte skontrolovať stabilitu pri zvýšení frekvencie GPU v malých krokoch - od 10 MHz do 50 MHz o jeden krok pred zavesením, chyba vodiča alebo aplikácie alebo dokonca vizuálne artefakty. Keď sa dosiahne takýto limit, je potrebné znížiť hodnotu frekvencie, aby ste znížili a skontrolovali stabilitu a výkon pri pretaktovaní.

Okrem frekvencie GPU môžete tiež zvýšiť frekvenciu pamäte videa (kompenzácia pamäťových hodín), ktorá je obzvlášť dôležitá v prípade GEFORCE GTX 1070 vybavenej pamäte GDDR5, ktorá sa zvyčajne dobre zrýchľuje. Proces v prípade frekvencie pamäte sa presne opakuje, čo sa robí pri hľadaní stabilnej frekvencie GPU, jediným rozdielom je, že kroky môžu byť väčšie - pridať 50-100 MHz naraz na základnú frekvenciu.

Okrem vyššie opísaných krokov môžete zvýšiť limit napätia (prepätie), pretože vyššia frekvencia grafického procesora sa často dosahuje zvýšeným napätím pri práci nestabilných častiach GPU. Pravdepodobná, potenciálna nevýhoda tejto hodnoty je možnosť poškodenia videa čipu a zrýchlené zlyhanie, takže je potrebné použiť napätie s extrémnou opatrnosťou.

Milovníci pretaktovania používajú niekoľko rôznych techník, meniacich sa parametrov v inom poradí. Napríklad niektoré pretaktéry zdieľajú experimenty na nájdenie stabilnej frekvencie GPU a pamäte, aby sa navzájom nezasahovali, a potom testovali kombinované pretaktovanie a video čip a pamäťové čipy, ale tieto sú irelevantné detaily individuálneho prístupu.

Posudzovanie podľa názorov na fórach a pripomienkach k článkom, niektorí užívatelia sa nezdalo ochutnať nový algoritmus BOOP 3.0 GPU, keď sa frekvencia GPU najprv zníži veľmi vysoká, často vyššia ako turbo frekvencia, ale potom pod vplyvom Teplota GPU alebo zvýšená spotreba energie nad limitom, môže spadnúť na výrazne menšie hodnoty. Toto je jednoducho špecifiká aktualizovaného algoritmu, musíte si zvyknúť na nové správanie dynamicky sa meniacej frekvencie GPU, ale nenesie žiadne negatívne dôsledky.

Video karta GEFORCE GTX 1070 sa stala druhou po modeli GTX 1080 v novom riadku NVIDIA, na základe grafických procesorov Pascal. Nový technologický proces 16 nm Finfet a optimalizácia architektúry umožnil grafickú kartu reprezentovanú, aby dosiahla vysokú frekvenciu hodín, v ktorej pomáha novej generácii technológie GPU Boost. Dokonca aj napriek zdobenému množstvu funkčných blokov vo forme streamovacích procesorov a texturálnych modulov ich počet zostáva dostatočná, aby sa GTX 1070 stal najziskovejším a energeticky úsporným riešením.

Inštalácia pre mladšiu páru vydaných modelov NVIDIA Video kariet na pamäti GDDR5 GP104 GP104 čip, na rozdiel od nového typu GDDR5X, ktorý je charakterizovaný GTX 1080, nebráni tomu, aby sa dosiahol vysoké výkonové indikátory. Po prvé, NVIDIA sa rozhodla nerezať pamäťovú zbernicu GEFORCE GTX 1070 Model, a po druhé, bolo nainštalované na ňom najrýchlejšie GDDR5-pamäť s účinnou frekvenciou 8 GHz, čo je tesne pod 10 GHz v staršom modeli GDDR5X. Vzhľadom na zlepšené algoritmy kompresie Delta sa efektívna kapacita šírky pásma grafického procesora stala nad rovnakým parametrom v podobnom modeli predchádzajúcej generácie GEFORCE GTX 970.

Geforce GTX 1070 je dobrá, pretože ponúka veľmi vysoký výkon a podporu nových funkcií a algoritmov za výrazne menej ceny, v porovnaní so starším modelom oznámené o niečo skôr. Ak akvizícia GTX 1080 pre 55 000 pre seba môže umožniť, aby jednotky nadšencov, potom stanoviť 35 000 za štvrťrok, menej produktívne rozhodnutie, hladko s rovnakými možnosťami môže mať už oveľa väčší rozsah potenciálnych kupujúcich. Je to kombinácia relatívne nízkej ceny a vysokého výkonu GEFORCE GTX 1070, snáď, najziskovejšou akvizíciou v čase jeho vydania.

GEFORCE GTX 1060 Grafický urýchľovač

ParameterHodnota
Kódový názov čip.Gp106.
Výrobná technológia16 nm finfeta.
Počet tranzistorov4,4 miliardy
Štvorcový jadro200 mm²
ArchitektúraZjednotené, s radom bežných procesorov na streamovanie početných typov údajov: vrcholy, pixely atď.
Podpora hardvéru DirectXDirectX 12, s podporou úrovne funkcie 12_1
Pamäťová zbernica.192-bit: šesť nezávislých 32-bitových pamäťových regulátorov s podporou pamäte GDDR5
Frekvencia grafického procesora1506 (1708) MHz
Výpočtové bloky10 Streaming MultiProcesory obsahujúce 1280 Scarar ALU pre plávajúce bodkočiarky v norme IEEE 754-2008;
Textické bloky80 blokov textúry a filtrovanie s podporou komponentu FP16- a FP32 v textúrach a podpore pre triilinear a anizotropné filtrovanie pre všetky textúrske formáty
Bloky rastra operácií (ROP)6 široké ROP bloky (48 pixely) s podporou rôznych režimoch vyhladzovanie, vrátane programovateľné a v podobe pufri FP32 rámu FP16 alebo. Bloky sa skladajú z radu konfigurovateľných ALU a sú zodpovedné za generovanie a hĺbkové porovnanie, multisamplement a miešanie
Podpora monitoraIntegrovaná podpora až štyroch monitorov pripojených k dvojitým prepojeniu DVI rozhraniam, HDMI 2.0b a DisplayPort 1.2 (1,3 / 1.4 pripravený)

GEFORCE GTX 1060 Referenčná grafická karta Špecifikácie
ParameterHodnota
Frekvencia jadra1506 (1708) MHz
Počet univerzálnych procesorov1280
Počet textúrnych blokov80
Počet blokov oplatenia48
Efektívna frekvencia pamäte8000 (4 × 2000) MHz
Typ pamäteGDDR5
Pamäťová zbernica.192-bity
Veľkosť pamäte6 GB
Pamäťová šírka pásma192 GB / s
Výpočtový výkon (FP32)asi 4 teraflops.
Teoretická maximálna horná rýchlosť72 gigapixel / s
Teoretické vzorky vzoriek vzorky121 GAGETEXELS / S
PneumatikaPCI Express 3.0
KonektoryJeden dvojitý spojovací konektor, jeden HDMI a tri DisplayPort
Typická spotreba energie120 W.
Dodatočné jedloJeden 6-pinový konektor
Počet slotov obsadených v systémovom prípade2
Odporúčaná cena249 dolárov ($ 299) v USA a 18,990 v Rusku

Geforce GTX 1060 GEFORCE GTX 1060 tiež dostala názov podobný rovnakému riešeniu z predchádzajúcej série Geforce, sa líši od názvu svojho priameho predchodcu GEFORCE GTX 960 len zmenená prvá číslivá generácia. Novinka sa stala v aktuálnom riadku spoločnosti na krok pod vyššie uvedeným riešením Geforce GTX 1070, čo je priemerná rýchlosť v novej sérii.

Odporúčané ceny novej spoločnosti NVIDIA sú $ 249 a $ 299 za obvyklé verzie partnerov spoločnosti a pre špeciálne vydanie vydania zakladateľa. V porovnaní s dvoma seniorovými modelmi je to veľmi priaznivá cena, pretože nový model GTX 1060 je menej horší ako najvyššie platby, ale nie toľko, ako je lacnejšie. V čase oznámenia sa novinka dokonale stala najlepšou z hľadiska výkonu vo svojej triede a jednej z najziskovejších ponúk v tomto cenovom rozsahu.

Tento model grafickej karty NVIDIA rodiny NVIDIA Rodina NVIDIA vystúpil na to, aby pôsobil proti najnovšiemu riešeniu AMD konkurenčnej spoločnosti, ktorá sa trochu skôr vydala trh s radeon RX 480. Porovnať NVIDIA REVEL s touto grafickou kartou, hoci je to nie úplne priamo odlišné, pretože sú stále pomerne významne líšia v cene .. GEFORCE GTX 1060 je drahšie ($ 249-299 proti $ 199-229), ale tiež očividne konkurent rýchlo.

Grafický procesor GP106 má 192-bitovú pamäťovú zbernicu, takže množstvo pamäte namontovanej na grafickej karte s takou pneumatikou môže byť 3 alebo 6 GB. Malá hodnota v moderných podmienkach je úprimne nestačí, a mnoho herných projektov dokonca v plnom rozlíšení HD bude odpočívať v nedostatku videa pamäte, čo vážne ovplyvní hladkosť vykreslenia. Aby ste zabezpečili maximálny výkon nového riešenia vo vysokých nastaveniach, model grafickej karty GEFORCE GTX 1060 bola vybavená 6 GB video pamäte, ktorá stačí na spustenie ľubovoľných 3D aplikácií s akoukoľvek nastavením kvality. Okrem toho, dnes nie je jednoducho žiadny rozdiel medzi 6 a 8 GB a niektoré peniaze ušetria takéto riešenie.

Hodnota typickej inovácie pre novosť je 120 W, čo je menšia ako hodnota pre GTX 1070 o 20% a rovná sa spotrebe energie predchádzajúcej generácie Geforce GTX 960 grafickej karty, ktorá má oveľa menej výkonu a schopnosti. Referenčná doska má známy súbor konektorov na pripojenie obrazových výstupných zariadení: jeden dual-link DVI, jeden HDMI a tri displeja. Okrem toho sa objavili nové verzie HDMI a DisplayPort, ktoré sme napísali o modeli GTX 1080.

Dĺžka referenčného poplatku GEFORCE GTX 1060 je 9,8 palca (25 cm), az rozdielov od seniorových možností, oddelene poznamenáva, že GEFORCE GTX 1060 nepodporuje konfiguráciu viacnásobného vykreslenia SLI a nemá na to špeciálny konektor. Keďže doska spotrebuje menej energie ako staršie modely, potom bol nainštalovaný jeden 6-pin PCI-E napájací konektor napájania.

GEFORCE GTX 1060 Video kariet sa objavili na trhu od oznámenia partnerských produktov spoločnosti: ASUS, EVGA, GAINWARD, GIGABYTE, INVIONAL 3D, MSI, PALIT, ZOTAC. Špeciálne vydanie vydania Geforce GTX 1060 vydaných vydaním NVIDIA, bude uvoľnené v obmedzenom počte, ktorý sa bude predávať za cenu 299 dolárov výlučne na internetovej stránke NVIDIA a oficiálne v Rusku bude prezentovaná. Zakladateľská edícia je charakterizovaná tým, že je vyrobená z vysoko kvalitných materiálov a komponentov, vrátane hliníkového puzdra a využíva účinný chladiaci systém, ako aj s nízkym odporovým prívodným reťazcom a špeciálnym regulátorom dizajnu napätia.

Architektonické zmeny

Video karta GEFORCE GTX 1060 je založená na úplne novom grafickom procesore modelu GP106, ktorý nie je funkčne odlišný od Architektúry Pascal Firlsborn vo forme GP104 Chip, ktorý opisuje modely GEFORCE GTX 1080 a GTX 1070 opísané vyššie. Táto architektúra má založenú na riešeniach vypracovaných v ešte Maxwell, ale má niektoré funkčné rozdiely, o ktorých sme podrobne napísali skôr.

Video Chip GP106 na jeho zariadení je podobný Pascal Top Chip a podobným riešeniam Architektúry Maxwell a nájdete podrobné informácie o modernom zariadení GPU v našich hodnoteniach NVIDIA. Rovnako ako predchádzajúce grafické procesory, čipy novej architektúry majú inú konfiguráciu klastrového klastra klastra grafického spracovania, streamovanie multiprocesorov Streaming MultiprOCessor (SM) a regulátory pamäte:

Grafický procesor GP106 má dva GPC klastre pozostávajúce z 10 multiprocsorov (streaming multiprocessor - SM), to znamená presne polovicu existujúceho GP104. Rovnako ako v staršom GPU, každý z multiprocesorov obsahuje 128 výpočtových jadier, 8 TMU textúry blokov, 256 KB registračnej pamäte, 96 KB zdieľanej pamäte a 48 kb cache prvej úrovne. V dôsledku toho GEFORCE GTX 1060 obsahuje celkom 1280 výpočtových jadier a 80 textúrových modulov - dvakrát menej ako GTX 1080.

Subsystém pamäte GEFORCE GTX 1060 nebolo orezaný na polovicu vzhľadom na horný roztok, obsahuje šesť 32-bitových regulátorov pamäte, ktoré poskytujú celkovú 192-bitovú pamäťovú zbernicu. S efektívnou frekvenciou GDDR5-video pamäte pre GEFORCE GTX 1060, rovný 8 GHz, šírka pásma dosiahne 192 GB / s, čo je veľmi dobré vyriešiť tento cenový segment, najmä s ohľadom na vysokú účinnosť jej použitia v Pascal. Osem ROP a 256 KB blokov vyrovnávacej pamäte druhej úrovne sú viazané na každej z regulátorov pamäte, preto vo všeobecnosti plná verzia grafického procesora GP106 obsahuje 48 blokov ROP a 1536 CB L2-cache.

Aby sa znížila pamäťová šírka pásma a efektívnejšie využitie Pascalu dostupného v architektúre Pascal, je dodatočne zlepšená intracepická kompresia informácií bez straty, ktorá je schopná komprimovať dáta v pufroch, ktoré získava zvýšenie účinnosti a výkonu. Najmä nové metódy kompresie delta s pomerom 4: 1 a 8: 1 sa pridali do triesok novej rodiny s pomerom 4: 1 a 8: 1, čím sa získa ďalších 20% účinnosti PSP v porovnaní s predchádzajúcimi riešeniami rodiny Maxwell.

Základná frekvencia nového GPU sa rovná 1506 MHz - frekvencia by sa nemala zostúpiť v zásade pod touto značkou. Typická turbo frekvencia (BOOST CLOCK) je omnoho vyššia a rovná 1708 MHz je priemerná hodnota skutočnej frekvencie, na ktorej je Geforce GTX 1060 Grafický čip v veľkej množine hier a 3D aplikácií. Skutočná frekvencia zosilnenia závisí od hier a podmienok, v ktorých testovanie sa testuje.

Rovnako ako zvyšok rodinných riešení Pascal, model GEFORCE GTX 1060 nespracuje len na vysokej frekvencii hodín, ktorý poskytuje vysoký výkon, ale má slušnú maržu ako pretaktovanie. Prvé experimenty hovoria o možnosti dosiahnutia frekvencií rádovo 2 GHz. Nie je prekvapujúce, že partneri spoločnosti sú pripravení vrátane tvaru rozptýlených variantov grafickej karty GTX 1060.

Hlavnou zmenou v novej architektúre bola teda technologickým procesom 16 nm Finfet, ktorého použitie pri výrobe GP106 umožnilo významne zvýšiť zložitosť čipu pri zachovaní relatívne nízkej plochy v 200 mm², takže toto Pascal Architecture Chip má výrazný väčší počet výkonných blokov v porovnaní s podobným umiestnením Maxwell CHIP vyrobeným pomocou technického procesu 28 nm.

Ak GM206 (GTX 960) s rozlohou 227 mm, mal pod 3 miliardami tranzistorov a 1024 ALU, 64 TMU, 32 ROP a 128-bitovou zbernicou, potom nový GPU už ubytovať v 200 mm² už 4,4 miliardy tranzistorov, 1280 ALU, 80 TMU a 48 ROP s 192-bitovou autobusom. Áno, s takmer jedným a polčasom s vyššou frekvenciou: 1506 (1708) proti 1126 (1178) MHz. A to je s rovnakou spotrebou energie 120 W! Výsledkom je, že grafický procesor GP106 sa stal jedným z najo energeticky efektívnejších grafických procesorov spolu s GP104.

Nové technológie NVIDIA

Jednou z najzaujímavejších technológií spoločnosti, ktorá je podporovaná spoločnosťou GeForce GTX 1060 a ďalších riešení rodiny Pascal je technológia. NVIDIA Simultánny multi-projekčný. Už sme napísali o tejto technológii v recenzii GEFORCE GTX 1080, to vám umožní používať niekoľko nových techník na optimalizáciu. Najmä súčasne premietaním obrazu VR naraz pre dve oči, občas zvyšuje účinnosť použitia GPU vo virtuálnej realite.

Na podporu SMP vo všetkých grafických procesoroch má Pascal Rodina špeciálny motor, ktorý sa nachádza v polymorfovom motore na konci geometrického dopravníka pred rastračnou jednotkou. S pomocou svojej pomoci môže GPU súčasne premietať geometrické primitívne pre niekoľko výstupkov z jedného bodu, zatiaľ čo tieto prognózy môžu byť stereo (t.j., až 16 alebo 32 výstupky sú podporované súčasne). Táto funkcia umožňuje Pascal Grafické procesory presne reprodukovať zakrivený povrch pre vykresľovanie VR, a tiež správne vydávať obraz do viacúčelových systémov.

Je dôležité, že simultánna multi-projektová technológia je už integrovaná do populárnych herných motorov (neskutočný motor a jednota) a hry, a dnes bola podpora technológie uviedla viac ako 30 hier vo vývoji, vrátane takých známych projektov ako Unreal Turnaj, Bazéna VR, Everest VR, Obduction, ADR1ft a RAW DATA. Zaujímavé je, že hoci nereálny turnaj nie je hraním VR, ale v IT sa používa SMP na dosiahnutie lepšej obrazu a zlepšovania produktivity.

Ďalšia dlhodobá technológia sa stala výkonným nástrojom na vytvorenie screenshots v hier Nvidia ansel. Tento nástroj vám umožňuje vytvárať neobvyklé a veľmi kvalitné screenshoty z hier, s predtým neprístupnými schopnosťami, držať ich vo veľmi vysokom rozlíšení a dopĺňať rôzne efekty a zdieľať svoje diela. Ansel vám umožní doslova vybudovať snímku obrazovky, pretože umelec chce nainštalovať fotoaparát s akýmikoľvek parametrami do akéhokoľvek bodu scény, uložiť na obrázku výkonné poštové filtre alebo dokonca vytvoriť 360-stupňový snímok na zobrazenie vo virtuálnej reality helme.

NVIDIA štandardizovala integráciu užívateľského rozhrania Ansel k hre a je veľmi jednoduché pridávať kódu niekoľko riadkov. Nemusíte čakať na vzhľad tejto príležitosti v hrách, môžete odhadnúť schopnosti Ansel práve teraz v hre zrkadlovej hrane: katalyzátor a o niečo neskôr bude k dispozícii v Witcher 3: Wild Hunt. Okrem toho, vo vývoji existuje mnoho herných projektov s podporou pre Ansel, vrátane hier, ako je Fortnite, Paragon a Unreal Tournament, Obduction, svedok, Lawbreakers, Tom Clancy je divízia, žiadna neba a iní.

Aj nový grafický procesor GEFORCE GTX 1060 podporuje balík nástrojov NVIDIA VRWORKS.Podpora vývojárov, aby vytvorili pôsobivé projekty na virtuálnu realitu. Tento balík obsahuje mnoho nástrojov a nástrojov pre vývojárov, vrátane zvuku VRWORKS, čo vám umožní vykonávať veľmi presný výpočet odrazov zvukových vĺn z objektov scény pomocou ray sledovania na GPU. Balenie zahŕňa aj integráciu vo VR a fyzických fyzických efektov, aby sa zabezpečilo fyzicky správne správanie objektov v scéne.

Jeden z najjasnejších virtuálnych hier, ktoré dostali výhodu z VRWORKS, sa stal VR Funhouse - hier vo virtuálnej realite samotnej NVIDIA, ktorá je k dispozícii bezplatne vo ventilovom parnom servise. Táto hra je založená na neskutočnom motora 4 motora (epické hry) a funguje na grafických kartách GEFORCE GTX 1080, 1070 a 1060 v balíku s HTC VIVE VR Helmy. Okrem toho, zdrojový kód tejto hry bude verejne dostupný, ktorý umožní ostatným vývojárom používať pripravené nápady a kód už vo svojich Rides VR. Verte nám za slovo, je to jedna z najpôsobivejších demonštrácií možností virtuálnej reality.

Vrátane technológií SMP a VRWORKS, používanie grafického procesora GEFORCE GTX 1060 v aplikáciách VR poskytuje produktivitu pomerne dostatočnú na počiatočnú úroveň a príslušná GPU zodpovedá minimálnej požadovanej úrovni hardvéru, vrátane SteamVR, ktorá sa stane jedným z najúspešnejších akvizícií Na použitie v systémoch s oficiálnou podporou VR.

Keďže model GEFORCE GTX 1060 je založený na GP106 čipov, ktorý nie je horší ako grafický procesor GP104, ktorý sa stal základom pre staršie modifikácie, podporuje absolútne všetky technológie opísané vyššie.

Video karta GEFORCE GTX 1060 sa stala tretím modelom v novom riadku NVIDIA, na základe grafických procesorov Pascal. Nový technologický proces 16 nm Finfet a optimalizácia architektúry umožnil všetky nové video karty dosiahnuť vysokú frekvenciu a miesto v GPU viac funkčných blokov vo forme procesorov streamingu, textúrnych modulov a ďalších, v porovnaní s video čipmi predchádzajúce generácie. Preto sa model GTX 1060 stal najziskovejším a energeticky úsporným riešením av jeho triede.

Je mimoriadne dôležité, aby GEFORCE GTX 1060 ponúka dostatočne vysoký výkon a podporu nových funkcií a algoritmov za výrazne menej ceny v porovnaní so staršími riešeniami na GP104. Grafický čip GP106 používaný v novom modeli poskytuje najlepší výkon a energetickú účinnosť v triede. Model GEFORCE GTX 1060 je špeciálne navrhnutý a je ideálny pre všetky moderné hry na vysokých a maximálnych grafických nastaveniach v rozlíšení 1920x1080 a dokonca aj pri vyhladzovaní s celou obrazovkou s rôznymi metódami (FXAA, MFAA alebo MSAA).

A pre tých, ktorí chcú získať ešte vyšší výkon v prítomnosti ultra-vysoké zobrazenie rozlíšenia, NVIDIA má špičkové modely Geforce GTX 1070 a GTX 1080 video karty, ktoré sú tiež veľmi dobré z hľadiska výkonnosti a energetickej účinnosti. Kombinácia nízkych cien a dostatočného výkonu je však veľmi zložený Geforce GTX 1060 na pozadí seniorov. V porovnaní s konkurenčným radeon RX 480 je riešenie NVIDIA o niečo rýchlejšie s menšou zložitosťou a oblasťou GPU a má výrazne lepšiu energetickú účinnosť. Je pravda, že sa predáva trochu drahšie, takže každá grafická karta má svoj vlastný výklenok.



Páči sa vám článok? Zdieľaj to