Névjegyzék

Három vidám betű: Mit kell tudni a HDR-ről. Mindössze annyit kell tudnod, hogy tudnod kell a HDR-ről a számítógépes monitorokon, hogy milyen játékokat támogat a HDR a PC-n

A CES és a COMPUTEX 2017 után világossá vált: Az év végére az első monitorok a szabványt támogató PC-hez jelennek meg a piacon. Minden nagyobb gyártó, mint az Asus, az LG, Acer, Samsung és Dell bejelentette. Tehát tanuljunk egy kis monitorok elméletét HDR-vel.

HDR PC formátumban

A HDR vagy a nagy dinamikus tartomány egy szabvány a színes reprodukció és a videó kontraszt kiterjesztéséhez a szabványos hardveres funkciókon túl. Ez egyszerűen magyarázható, 4K engedélyt fontos a képminőség, kontraszt, fényerő és színtelítettség és a HDR javítja ezeket a paramétereket, így elérve javulása képrészletek.

A HDR megköveteli, hogy a monitor 10 vagy 12 bites színű legyen. A szabványos PC monitorok azonban jelenleg csak 6 vagy 8 bites színt adhatnak az SRGB színskálában, amely csak a HDR vizuális spektrumának egyharmadát fedezi.
Természetesen vannak olyan monitorok, amelyek megfelelnek a szín követelményeinek. Ezek az úgynevezett széles körű szín színt hordozó modellek. Azonban képességeik csak szakmai programokkal kompatibilisek. Játékok és egyéb szoftverek egyszerűen figyelmen kívül hagyják a további színeket, és gyakran úgy néznek ki, hogy "homályos".

A HDR szabvány lehetővé teszi, hogy elkerülje ezt a zavart, beleértve a video sugárzás metaadatait, amely helyesen forgalmazza a színteret. Segíti a kép megfelelő megjelenítését, és az összes szoftvert használja a legjobb megjelenítési funkciók használatához.


Szabványok

Jelenleg négy szabvány van, de a két leggyakrabban a fogyasztói elektronikában használják: 12 bites színes és dinamikus metaadatokkal és nyitott szabványokkal, amelyek 10 bites színt támogatnak, és statikus metaadatokat biztosítanak a video sugárzás elindításához. Egyéb két szabvány HLG. vagy a BBC által kifejlesztett és a YouTube-on és a Fejlett HDR., Technicolor által létrehozott és Európában használták.
De vissza a HDR használatának problémájához a PC monitorokban. Az engedélyezett díjak és kiegészítő berendezések miatt a Dolby Vision drágább mindkét szabványból. A jobb színmélység és a dinamikus lépésenkénti beállítások segítségével a játékfejlesztők olcsóbbak, de elég elfogadható HDR-re koncentrálnak. 10. Ez igazságos, nemcsak a PC-alapú gyártók számára, hanem konzolok esetében is: Microsoft C, Sony a PS4-vel ,.

A Dolby Vision legutóbbi frissítése egyszerűsíti a szoftverek integrálását a játék videokártyákba illesztőprogramok frissítéseivel. Március óta az NVIDIA a Dolby Vision egyik fő támogatója a játékokban, mint például a tömeghatás: Andromeda.


Photo NVIDIA tartó állványt Computex 2017, bemutatva a hagyományos SDR monitor (bal) és a HDR (jobbra) Mass Effect: Andromeda. Fotó: Techpowerup.

Probléma a HDR-vel a PC Gamers számára

Ha elég pénzed van, akkor nincs probléma a HDR monitor megvásárlásával. De van egy kérdés, hogy milyen tartalmat használhat a HDR-ben. És itt van a rossz hír a játékosoknak. Igen, néhány új játék megy a piacon HDR támogatás, de az idősebb nem rendelkezik lehetőséggel magasabb kontrasztra.

Csak néhány játék támogatja a HDR-t: Shadow Warrior 2, Deus Ex: Mankind Dispided, Hitman, Resident Evil 7, Obduction, Paragon És a fentiek Tömeghatás: Andromeda. Hamarosan megjelenik Sebességre van szükség: Payback és Star Wars: Battlefront 2.

Ahhoz, hogy megtekinthesse a HDR10 szabványos képek összes élvezetét, amely előállíthatja az Xbox One S, PlayStation 4 és PlayStation 4 Pro programot, szüksége lesz egy TV-vel, amely támogatja ezt a formátumot. De akkor minden könnyebbé válik - készíthet egy képet a képernyőről, és érezni a különbséget.

A Sony speciális bemutatójában a Tokiói Játék-show részeként a 4 és a horizonton bemutatott: nulla hajnal mind a mellékelt, mind a HDR-t kikapcsolta. Csak egy fénykép készítéséhez maradt - amelyet a japán kiadvány tudóinak tudósítói készítettek.

A horizont esetében: nulla hajnal A különbség nyilvánvaló: az első kép mutatja a mellékelt HDR-t, a második ki van kapcsolva. Uncharted 4 Minden bonyolultabb: mindkét fényképen látható a képen áthaladó ferde vonal. A vonal bal oldalán lévő kép egy része azt mutatja, hogy a HDR ki van kapcsolva, jobbra - a mellékelt.

Ugyanez a prezentáció a végső fantasy xv, a hírhedt első fény és a rezidens gonosz 7: BioHazard a PlayStatio 4 Pro-hoz. A Biohazardról és az első fényről Nehéz mondani valamit, de az FFXV egyértelműen tisztességesnek tűnt, mint a szokásos Playstation 4. Úgy tűnik, hogy a rajongóknak nemcsak a játékon kell villogniuk, hanem az új konzolon is.

A dinamikus tartomány fontosabb, mint a 4K.

Könyvjelzőknek

Az SDR kijelzőn, hogy a HDR lehetetlen, így általában ilyen összehasonlításokban a bal oldali képzés szándékosan romlott, hogy világossá váljon a lényeg

4k, mint a szabvány, végül a tömegekre ment. A történelem fordulópontjával biztonságosan megismerheti a 2017-et, ha ez az engedély valóban fogyasztóvá vált. A panelek ára 500 dollár alá esett, még a nagy átlós, és maga a tartalom, a feszültség, de megkezdte a szükséges követelményeket.

A felbecsülhetetlen érdekében konzolok voltak. A PS4 Pro és az Xbox One X megjelenése jelentősen felgyorsította a 4K képernyők bevezetését. Fokozatosan (de nem halom fenntartás nélkül) 4K fordítás és kiterjedt hollywoodi filmkészítők. Már szinte az összes eredeti Netflix bemutató megtekinthető a tisztességes ultra HD-ben.

A 4K és a teljes HD közötti különbség

De szükség van a 4K-engedélyt pontosan a TV-n? A monitoron, amely leggyakrabban egy páros pár centiméter a szeméből, a teljes HD képe a 27 hüvelykes pixelekre "nyersen" kezdődik. Ezért a retina / 5k és akár 1440P egyre népszerűbbé válik.

A TV-nézők között az adaptáció lassabb, mivel három méterre legalább 43 hüvelykről láthatóvá válik, és ideális esetben a 49 hüvelyknél több mint 49 hüvelyk átlós lesz a 4K-televízió megvásárlásának igazolására. Nyilvánvaló, hogy egy ilyen luxus rosszul elérhető a legtöbb orosz apartman számára, még akkor is, ha pénz van - néha egy hatalmas televízió egyszerűen nem.

Ultra HDR nézet

Körülbelül ugyanazok a gondolatok voltak a cikk szerzője az új TV megvásárlása előtt. Vegyünk egy jó FHD-t, és Isten vele, ezzel a 4k-vel? A gondolat ésszerű csak első pillantásra, mivel a HDR is a tisztességes panelek felbontásához is csatlakozik. És ezzel, ezzel, az űrlapon, nem nagyon népszerűsített technológiával való ténylegesen érezhető a jelen ugrás, mint kép, a tartalom ezen szabványok szerint nem annyira, mint szeretném.

Az anyag célja egyszerű és elérhető, hogy elmondja, hogy mi a HDR és hogyan kell használni. Arról, hogy a tv-készülék vásárlása és telepítése 4K és HDR-vel a DTF anyaggal, részletesebben kitaláljuk.

Mi a HDR és miért van szüksége

Vizuális különbség

Kezdjük azzal, hogy maga a HDR kifejezés olyan, mint egy ügyetlen marketingű vicc. A küszöbértéktől szükségtelen zavart okoz. Ez a HDR, amely televíziókban van, nem vonatkozik a hasonló nevű technológiára az okostelefonokban vagy kamerákban. Ha a fotóról beszélünk, akkor a HDR számos különböző expozíciójú kép kombinációja, ahol a cél az, hogy a leginkább az árnyékok és az opció fényét is elérjük.

A videó segítségével minden nem így van - itt beszélünk az összes információ számáról. A HDR megjelenése előtt a kép standardja, beleértve a Blu-ray-t, 8 bit volt. Ez egy jó színt lefedett, de a modern panelek, különösen az OLED, képesek sokkal több árnyalatot, gradienseket és színeket megjeleníteni, mint a 8 bites források.

Egy új 10 bites szabványt hívnak fel a probléma megoldásához, amely lehetővé teszi, hogy jelentősen több információt továbbítson a jeleneti show fényességéről, telítettségének, mélységéről és színéről. Számára új HDMI 2.0 protokollt fejlesztettek ki.

De ne siessen együtt a TV-vel, változtassa meg az összes vezetéket! A régi kábelek kompatibilisek a HDMI 2.0A-val, bármilyen marketingesek lógnak a füleden. A legfontosabb dolog az, hogy van egy "nagy sebességű Ethernet" jel. Csak a sávszélesség aggódik - a csatlakozók maguk nem változtak.

A cikk írásakor a TV-ben lévő HDR pontosan 10 bitet élesített, bár a digitális forgatás színvonala 14 bites nyers (még a filmben is), hogy még a modern panelek is messze vannak a teljes Az információk megjelenítése, amelyekkel számos munkafestmény igazgatói és létesítményei vannak.

Oké, de mit ad a gyakorlatban?

Példa a HDR vs SDR-re a Uncharted 4 alapján

A nap elkezd ragyogni a jelenetekben, észrevehetően fényesebb, megértése, hogy egy keretben több különböző fényerő és telített fényforrások is lehet. A probléma eltűnik a féltónus pixelizációjával a sötét jelenetekben, és a festékek színátmenetei és komplex keverékei szerezhetők. Az ég többé nem unatkozik, és nem egyesíti a földet a horizonton. Röviden, egy képet többet lát a saját szemével, mint a kamera korlátozott szemlencse.

Jelenleg a videojátékok előnyösek, mint a technológia, ahol a különböző valós idejű világítás végül többé-kevésbé helyesen jelenik meg. Sokkal függ a HDR forrásfeldolgozásának minőségétől, és sok Frank Hacktur van, de most a referenciák megjelennek a "Galaxy 2" vagy a "John Whitch 2" típusának formátumára.

TV gyártók - az ellenségeid

Eddig a HDR, mint bármely fejlett technológia, a "Wild West". A "Ready for HDR" címke minden új televízióban lóg - függetlenül attól, hogy képesek-e megfelelően megjeleníteni a 10 bitet, vagy sem. Van egy nagy különbség az igazi HDR TV és a panel, amely egyszerűen megjeleníti a HDR tartalmat, csökkenti azt a 8 bites és csak fúj a színeket és a kontrasztot.

Néha nehéz elindítani a gyártókat. Meg kell tekinteni, hogy a panel 10 bitesként kerül-e, és hogy felelős-e a nyílt HDR10 szabványnak. A Real HDR panel helyes jele a széles színsáma (széles színválaszték) támogatása. A HDR nélkül elveszíti a gyakorlati jelentést.

Az LCD TV-k észrevehető része aktív 8 bites paneleket használ, amelyek "képzeljük" színeket speciális algoritmusokkal. Az ilyen paneleken lévő HDR kép egy kicsit rosszabb, mint, de észrevehetően olcsóbbak.

A "bit" háborúk visszatérése

A kép fejlődésének bármely fordulóján a háborús szabványok felmerülhetnek. De ha abban az esetben, Blu-ray és a HD-DVD harc, minden véget ért siralmas a második, beleértve azokat, akik „vas” a fogyasztók, a csata HDR10 ellen Dolby Vision HDR valószínűleg vége a vértelen sorsoláson.

A HDR10 szabvány kisebb színeket továbbít, és csak 10 bitet támogat, de teljesen nyitott. A Dolby Standard megőrzi az árnyalatokat, és akár 12 bit is bővül, de nehezebb követni és végrehajtani. Mindenesetre az a kérdés, támogatja ezt vagy azt a technológiát megoldható egy egyszerű szoftver másolatát, és ugyanazt a játékot már dolgozik HDR10, hiszen azt, hogy ők választották a konzolok mind a Sony és a Microsoft.

A televíziók maguk gyakran lehetővé teszik, hogy egyszerre több szabványt használjon, így most már nem éri meg a fejét most.

Mit nézni?

Ha a képernyőről beszélünk, akkor jobb, természetesen az OLED és annak analógjai. Mély fekete és teljes támogatást kap az összes HDR varázsa. Ha a pénztárca nem teszi lehetővé a megrendelést mintegy 80 ezer a felső TV-hez, akkor nem kell kétségbeesni. Az LCD modell 2017 végül néző gyermek sebek, és azonnal észre a különbséget a HDR és az SDR, hagyja, és elveszíti az átmeneteket a fekete és a fényerőt. A cikk szerzője csak egy LCD-panel HDR-támogatással, és biztosíthatom Önt, a különbséget a standard színek tartalmával az első másodpercek alapján látják.

Ha a forrásról beszélünk, akkor minden modern játékkonzol a HDR-t (kivéve a kapcsolót és a Tolstoy Xbox ONE-t). PS4 ad ez csak egy HDR (nincs 4K), és az Xbox One S / X lehetővé teszi, hogy játsszon a UHD meghajtókat és a harcot a natív 4K HDR közvetlenül a TV-t. Online szolgáltatások, a standard már támogatja a Netflix és az Amazon, és a Netflix tartalmaz önmagában mind a könyvtár HDR10 és tartalmi Dolby Vision.

És mit nézzen?

Minden eredeti Netflix tartalom 2016 óta, valamint minden 4k film, amely filmstúdiókat gyárt a lemezeken és a "számjegyben". Hamarosan megjelenik a Christopher Nolan Film filmjeinek gyűjteménye, amelynek digitalizálási folyamata maga irányította a rendezőt. Ahogy a Blu-ray "sötét lovagjal" volt, minden bizonnyal sok éve, hogy a szabványokat mind az UHD mesterekre, mind a HDR-re állítsák be.

Mit kell játszani?

A jelentős számú játék támogatja a HDR-t még az "alap" konzolokon is. Különösen fényes (bocs a szójáték) technológia jellemzői mutatnak ilyen játékok, mint a Horizon Zero Dawn Uncharted 4 és a Gran Turismo Sport.

Ez utóbbit a HDR alatt hozták létre a semmiből, ezért hangsúlyozza a fényerő és a színek kiterjesztett tartományának összes előnyét. Különösen a GT Sport Polyphony Digital fejlesztett HDR kamerák megragadni valós képet és az azt követő kalibráló alatta játék. És a megjelenített színek száma továbbra is meghaladja a legdrágább panelek lehetőségeit. Mit hívnak, a "növekedés" referenciaértéke.

Azonban nem minden játékot úgy alakítanak ki HDR-hez hasonlóan, ezért olvassa el az internetet, és tekintse meg a digitális öntödei véleményeket. Aggódni, de nem szükséges aggódni, mivel a fejlesztők jobban és jobban megértik a kibővített tartomány lehetőségeit, de ezért a konzol tartalmának minősége csak nő.

A PC-nél a pillanatban minden nem olyan sima. Játékok a HDR-vel egy kicsit, és maga a képkötés a színkedvezmény problémáihoz kapcsolódik a rendszer szintjén (görbék illesztőprogramok, ablakok és így tovább). A szerző egy liganyul-HDR / Windows 10-vel való tapasztalata ellentmondásos volt. A HDR mellett a népszerű játékosok rosszul működnek, így meg kell várnod. Mivel a 3D adaptációs sebesség mutatja a számítógépet, az imputált HDR-implementációt a számítógépeken érdemes körülbelül hat hónapig várni. Igen, és a könyvtár felzárkózik.

Tehát minden rendben van, de mi a mínusz?

Jellemzően a játékok kalibrációs táblái könnyebben néznek ki

Az aktuális fordulóban lévő HDR minuszjai is elegendőek, de pár kritikusan lefekszem.

  • A berendezései valószínűleg nem állnak készen a HDMI 2.0A és a HDCP 2.2-re, így egy TV-vel együtt szinte biztosan meg kell változtatnia a vevőt. Ezzel találkoztam ezzel (PS VR az első felülvizsgálat), beléptem, és Vadim (vevőkészülék a HDMI 1.4).
  • Ha úgy tűnik, hogy a HDR elrontja a képet, vagy nem sikerül, a képernyőt kalibrálni kell. Egyes játékok kínálnak kényelmes kalibrációs eszközök (COD WWII, GT Sport), de a legtöbb közülük támaszkodni ebben a kérdésben saját hangulattal. Tanácsom: Futtassa a játékot néhányan Összetettszínek és fényes jelenet, vagy fordítva, válassza ki az éjszakai szintet alkonyatkor. Ez lehetővé teszi, hogy gyorsan konfigurálja az új hűvös TV-t, és mentse el az elsődleges rendellenességet és frusztrációt.

Eljött az idő

10 bit nem a határ, de két hét elteltével egy HDR TV-vel a szokásos játékokhoz vagy filmekhez, akkor visszatér, anélkül, hogy lelkesedés lenne. Minél nagyobb dolog, hogy ebben az évben a HDR megállt, hogy a gigzsák és a tolstosumok sok, és végül elmentek az emberekhez. A technológia jobb és világosabbá válik azonban, ha várta a "The Poment" -t, hogy megváltoztassa a TV-t - akkor itt van, nagyszerűen, hogy végül látja a virtuális világokat minden színben.

Ír

Amikor a CES kiállítás 2017 elején zajlott, világossá vált, hogy hamarosan a számítógépboltok polcainak megkezdenék a HDR szabványt támogató számítógépes monitorokat. Minden nagy gyártó már eladja az ilyen modelleket - mindegyik lenyűgöző paraméterekkel. Hamarosan részletesen megmondjuk Önnel az egyiket, és most koncentrálunk az elméletre, amely segít eldönteni, hogy mennyi ideig tart a monitor megvásárlása a HDR támogatásával.

HDR PC formátumban

A szabványos magyarázat a HDR-t (vagy nagy dinamikus tartományt) leírja a szabványos, "kemény" hardveres funkciókon túlmutató videók és képek kontrasztjának bővítésére szolgáló szabványok formájában. A könnyebben beszélő HDR javítja a kontrasztot, a fényerőt és a színek telítettségét, többször részletesebb képet biztosít. HDR SDR ellen

Gyakorlati szempontból a legtöbb felhasználó számára ez a rendelkezésre álló eszközök teljes cseréjét jelenti annak érdekében, hogy nyilvánvaló különbséget kapjanak képként. Miért van a teljes csere? Mivel a szabványos eszközök, különösen a monitorok, nem felelnek meg a HDR tanúsítási követelményeknek.

Kezdjük a fényerő követelményeivel. A "HDR készen" tekintendő, a kijelzőnek legalább 1000 kd / m2 (fényerő) kell lennie. A nagy osztályú monitorok a 300-400 NIT fényerőt biztosítanak. Nem is megfelelnek a szükségesnek. A jó laptopok körülbelül 100 fonalat tartalmaznak. Még az okostelefonok számára is, amelyek jól láthatóvá teszik a fényes napfényt, ez a mutató ritkán meghaladja a 800 nit-et (a Galaxy Note8 az egyik 1200 NIT fényereje). Más szóval - jelenleg a kijelzők 99% -a nem támogatja a HDR-t.

Most fordulunk a színes lejátszáshoz. A HDR technológia megköveteli, hogy a monitor 10 vagy 12 bit színmélyét fenntartsa. A szabványos monitorok azonban csak 6- vagy 8 bites színt adhatnak az SRGB színskála segítségével, amely csak a HDR vizuális spektrumának egyharmadát fedezi.

A széles körű színtechnológiai támogatással rendelkező monitorok megfelelnek a színkövetelményeknek, de kiterjesztett képességeik csak professzionális programokkal kompatibilisek (például grafikus szerkesztők). A játékok és a többi szoftver egyszerűen figyelmen kívül hagyja a további színeket, és gyakran úgy néz ki, hogy "homályos", ha a berendezés nem emulálhat csökkentett színteret.

A HDR lehetővé teszi, hogy elkerülje ezt a zavart a metaadatok miatt, amely helyesen forgalmazza a színteret. Ez az, amely segít a kép megfelelő megjelenítésében, és az összes szoftvert optimálisan használhatja a megjelenítési képességeket.

Itt azonban be kell illeszteni egy nagy "de" -ot azoknak, akik a fotózás, a grafikai tervezés és a videofeldolgozás területén dolgoznak. A HDR monitorai által biztosított fényesebb és gazdag színek valószínűleg nem jönnek a zuhanyhoz. Nem azért, mert nem tetszik neked, egyszerűen nem fogják kielégíteni a szakmai szükségleteit, mert a "élénkség" a színvisszaadás realizmusának köszönhetően érhető el. A WGC modellek továbbra is a tökéletes választás az Ön számára. Tehát ha elolvassa ezt a szöveget, hogy megtudja, milyen előnyökkel jár ez a technológia a foglalkoztatás területén, akkor csak nem találja meg őket.
Két tervező Dell Monitor. Bal - WGC képernyő reális színvisszaadással. Jobb - HDR kijelző. Könnyen észrevehető a magas színtelítettség.

Zabkása a szabványoktól

Ezután a szokásos felhasználói és PC-játék szempontjából a tapasztalatról beszélünk, de először hadd zárjam be a HDR-szabványok hatalmas kusza kuszait. Jelenleg négy szabvány van, de mindössze kettő széles körben elterjedt a fogyasztói elektronikában: egy szabadalmaztatott Dolby látás 12 bites színnel és dinamikus metaadatával; És a nyitott HDR10 szabvány, amely 10 bites színt támogat, és csak statikus metaadatátvitelt biztosít. Két másik szabvány - HLG a BBC által kifejlesztett és a YouTube-on használt; És a Technicolor által létrehozott és elsősorban Európában használt fejlett HDR.
Az SDR, HDR közötti különbség statikus metaadatokkal (HDR10) és HDR-vel, dinamikus metaadatokkal (Dolby Vision).

De vissza a probléma a HDR számítógépes monitorok, a játékok súlyossága hozzáadásával. Megköveteli a licencdíjakat és a kiegészítő berendezések rendelkezésre állását, a Dolby Vision drágább mindkét szabványtól, és magas költsége a lassú vétel fő tényezője. Annak ellenére, hogy a Dolby Vision a legjobb színmélységet biztosítja, és a jelenetek mögötti keret dinamikus átalakításának lehetőségét, a játékfejlesztők választják az olcsóbb, de optimális HDR10-et. Ebben az esetben ez nem csak a PC-gyártók, hanem konzolokról is szól: Microsoft (Xbox One S és Xbox One X) és Sony (PS4 és PS4 PRO). A HDR10 fő támogatói, mint például a Samsung és az Amazon, még aktívan harcolnak azzal az érvelettel, hogy a Dolby Vision magasabb képminőséget biztosít. Ez a küzdelem a HDR10 + nevű sajátos frissítés megjelenéséhez vezetett, ami javítja a HDR10 néhány gyengeségét.

Mindez azt sugallja, hogy a HDR10 széles körben elterjedt HDR szabvány lesz a számítógépes monitorokhoz és játékokhoz, ugye? Nem, egyáltalán nem. Nemrégiben Dolby Vision fejlesztők egyszerűsített integrálása a technológia, hogy a játékok és a grafikus processzorok tapasz formájában, firmware vagy illesztőprogram-frissítések. Az év tavaszán az NVIDIA cég csatlakozott a Dolby Vision kulcsfontosságú támogatóinak számához.
Nvidia áll a Computex 2017-en. A bal oldalon - a Standard SDR monitor, a jobb oldalon - a HRD monitor. Fotó: Techpowerup.

(PC) Geyming a HDR-ben

A vigasztalók szerencsések voltak a HDR kérdésben. Megnyerte a standard felvételét a nagy osztályú televíziókban, és a játékok gyártói (különösen a konzolokhoz) gyorsan látták a HDR képernyők vizuális előnyeit a szabványos televíziókhoz. Tisztán gyakorlati szempontból a fogyasztó könnyebb igazolni nagy beruházásokat a képernyőn, amely arra szolgál, mint a szórakoztató központ a házát, mint az egyik, hogy áll az asztalon.

Mindazonáltal a PC-játékosok hálásak lehetnek a konzol elvtársakhoz. A HDR népszerűsítése a televíziókban, mint például az LG C6 és a C7 sorozatú, amelyek óriási monitorokként használhatók a PC-k számára, megengedett "PCCHNIS", hogy élvezhessék a kifejezetten PC-hez létrehozott HDR-tartalom első hullámát.

De mégis, milyen monitorok modelleket kell figyelnie? A HDR monitorok legígéretesebb bejelentései gyorsan csalódtak, hogy valójában nem felelnek meg a HDR10 összes követelményének. És ezért az igazi HDR nem támogatja. Ezek közül kettő, a Dell S2718D és az LG 32UD99, kaphat egy HDR jelet, de nem rendelkeznek a szükséges színtartományt vagy fényerő használata HDR tartalmat. Az utolsó, a BenQ SW320 megfelel a színre vonatkozó követelményeknek, de nem fényerő. Így a következő modellek listán maradt: Acer Predator X27, X35 Acer PRDATOR ASUS ROG SWIFT PG27UQ, ASUS ROG SWIFT PG35VQ, Samsung és a Samsung CHG70 CHG90.
ASUS ROG SWIFT PG35VQ az egyik legígéretesebb HDR modell

A következő logikai kérdés: Mi a helyzet a grafikus processzorral? E tekintetben a számítógépeket az Nvidia és az AMD közötti háború miatt már régóta készítették el, valamint azok közepes és magas videokártyáit.

Az NVIDIA HDR integrációval kezdődött a Maxwell generációs grafikus processzoraiba (előző 900-as sorozat) és a folyamatos tanúsítás egy új 1000-es sorozatú, amely a Pascal architektúrát használja. Az AMD első tanúsított videokártyák 390x és polaris családja lettek. Egyszerűen tegye, ha a videokártyát az elmúlt 4 évben szabadították fel, akkor nincs probléma. Ha azonban szeretné használni mindent, ami új HDR-kijelzőt kínál, akkor meg kell vásárolnia az egyik legújabb videokártya modellt.

Valódi probléma a HDR-vel a PC Gamers számára

Ha a pénz teljes rendeléssel, akkor a monitor vásárlása HDR támogatásával és a megfelelő számítógépes vas nem lesz probléma. De mielőtt a boltba futna, a helyzetet megfelelő tartalom jelenlétével kell megvizsgálni. Sajnos, ebben a tekintetben így - a helyzet. Igen, vannak olyan új játékok, amelyekben HDR-támogatás eredetileg lefektetett, de a régi játékok nem tudják, hogyan kell alkalmazkodni a technológia jellemzőihez. Legalábbis nem speciális tapaszok nélkül.

A HDR integrációja nem igényel nagyszabású változásokat a szoftverekben, de ez nem törli azt a tényt, hogy jelenleg a PC-játékosok számára elérhető HDR-tartalom mennyisége nem olyan nagy. Valójában csak néhány játék támogatja a szabványt: árnyékharcos 2, Deus Ex: emberiség devimed, hitman, rezidens gonosz 7, obdukció, paragon, paragon, tömeghatás változat: Andromeda, szükség van a sebesség: megtérülés és csillag háborúk: BattleFront 2. Cross-platform játékok háború, csatatér és forza horizont 3 támogatja a HDR-t a konzol verziókban, de ez a funkció hiányzik a számítógépen. Néhány évvel ezelőtt az Nvidia aktívan dolgozott a HDR-foltban a Tomb Raider felemelkedéséhez, de hosszú ideig nem volt hír a cégtől, hogy ez a munka mozog.

A játékfejlesztők a HDR ötletét veszik, de a konzoljátékok az ilyen támogatásban lesznek. A PC-játékosok maradnak (ismét) a háttérben. Több évig tart, mielőtt a HDR a számítógépes monitorok valóban fontos jellemzője lesz. Jelenleg ez a szabvány nem a szükséges paraméterek közé tartozik, amelyeket a játékmonitornak meg kell érdemelnie a figyelmet. A 4K esetében a HDR a jövőbe való befektetés.

Egy olyan tanács, amellyel a következtetésre juthatok: vásárolhatok ma egy monitort, amely megfelel a jelenlegi igényeinek. Ha fontos a HDR-hez, ez a kellemes bónusz néhány extra több száz dollárt fog fizetni, de ez lesz garancia (bár egy kicsit), hogy az új monitor sokáig releváns marad.

Címkék :,
ParaméterÉrték
Kódnév chip.Gp104.
Gyártástechnológia16 nm finfet.
A tranzisztorok száma7,2 milliárd
Square nucleus314 mm²
Építészet
Hardver támogatás DirectX
Memória busz.
1607 (1733) MHz
Számítógépes blokkok20 streaming többprocesszorok, amelyek 2560 Scalar Alusot tartalmaznak az IEEE 754-2008 szabvány keretében lebegő pontosvesszőhöz;
Texturing blokkok160 textúra címzési és szűrőblokkok az FP16 és az FP32 komponens támogatása textúrákban és tartó a trilinári és anizotróp szűrés minden texturális formátumhoz
Figyeli a támogatást
GeForce GTX 1080 Referencia videokártya-előírások
ParaméterÉrték
A mag gyakorisága1607 (1733) MHz
2560
A texturális blokkok száma160
A hibás blokkok száma64
Hatékony memóriafrekvencia10 000 (4 × 2500) MHz
Memória típusaGDDR5X.
Memória busz.256-bit
Memória méret8 GB
320 GB / s
körülbelül 9 Teraflops
103 gigapixel / with
257 Gialexels / with
GumiPCI Express 3.0
Csatlakozók
Energia fogyasztáslegfeljebb 180 W.
További táplálékEgy 8 PIN csatlakozó
2
Ajánlott ár$ 599-699 (USA), 54990 rubel (Oroszország)

Az új GeForce GTX 1080 videokártya modell már logikus, hogy az első megoldás az új GEFORCE sorozat - eltér a közvetlen elődje csak egy módosított generáció. Az újdonság nem egyszerűen helyettesíti a legfontosabb megoldásokat a vállalat jelenlegi sorában, de egy ideig az új sorozat zászlóshajója lett, amíg a Titan X megjelent a GPU-nál még nagyobb teljesítményt. A már bejelentett GeForce GTX 1070 modell is található alatt a hierarchia alapján a vágott változata a GP104 chip, amely azt fogja vizsgálni az alábbiakban.

Az új Video Holiday Nvidia ajánlott árai 599 $ és 699 $ a hagyományos verziók és az alapítók kiadásai (lásd alább), és ez egy meglehetősen jó mondat, figyelembe véve azt a tényt, hogy a GTX 1080 előtt van Nem csak a GTX 980 Ti, hanem Titan X. Ma az újdonság a legjobb teljesítmény a megoldás az egy-chip videokártyák piacán bármilyen kérdés nélkül, és ugyanakkor olcsóbb, mint a legtermékenyebb videokártyák az előző generáció. Míg a GeForce GTX 1080-ból származó AMD versenyzője tehát tehát tehát az NVIDIA képes volt ilyen árat létrehozni.

A vizsgált videokártya a GP104 chipen alapul, amelynek 256 bites memóriája van, de az új típusú GDDR5X memória nagyon nagy teljesítményű 10 GHz-es frekvencián működik, ami nagy csúcs sávszélességet ad 320 GB / C-ban amely majdnem a GTX 980 TI szinten 384-es buszból származik. Az ilyen buszon lévő videokártyára szerelt memória mennyisége 4 vagy 8 GB-nak lehet, de hülye lenne ilyen erőteljes megoldás a modern körülmények között, így a GTX 1080 teljesen logikusan kapta 8 GB memóriát, és ez a kötet elég ahhoz, hogy minden 3D-s alkalmazást bármilyen minőségi beállításokkal kezdje el.

A GeForce GTX 1080 nyomtatott áramköri kártya nyilvánvaló okok miatt a vállalat korábbi PCB-jétől függetlenül különbözik. Az újdonság tipikus innovációjának értéke 180 W - kissé magasabb, mint a GTX 980, de észrevehetően alacsonyabb, mint a kevésbé termelékeny TITAN X és GTX 980 TI. A Reference Board ismerős csatlakozókészülékkel rendelkezik a képkimeneti eszközök csatlakoztatásához: egy Dual-Link DVI, egy HDMI és három displayport.

Referencia tervezési alapítók kiadás

A GeForce GTX 1080 bejelentése május elején az alapítói kiadású videokártya speciális kiadását jelentették be, amely magasabb árat tartalmaz a cég partnerei hagyományos videokártyáihoz képest. Lényegében ez a kiadvány egy referencia-tervezési kártya és hűtőrendszer, és az Nvidia készül. Különösen kapcsolódhat a videokártyák ilyen változatainak, hanem a vállalat referenciatervezésének mérnökei, és a kiváló minőségű komponensekkel előállított tervezés saját rajongóival rendelkezik.

De hogy néhány ezer rubel többet adnak az NVIDIA videokártyájához - ez egy kérdés, a válasz, amelyre csak a gyakorlat adhat. Mindenesetre először eladja, hogy az NVIDIA-ból származó referencia-videokártyák megnövekedett áron jelennek meg, és nem különbözik különösen semmitől - ez minden bejelentéssel történik, de a referencia GeForce GTX 1080-at jellemez Tervezik az egész életében, a következő generációs megoldások felszabadításáig.

Az NVIDIA úgy véli, hogy ez a kiadvány előnye van még a partnerek legjobb munkái előtt is. Például egy hűvösebb kétoldalas kialakítás lehetővé teszi, hogy könnyen összegyűjtse az erőteljes videokártya alapján, mint egy viszonylag kis formázó tényező, valamint a multimephy video rendszerek (még a munkamentes működés ellenére sem három- és négy órás üzemmódban). GTX 1080 Alapítók Edition van néhány előnye formájában hatékony hűtő alkalmazásával párolgási kamra és egy ventilátort kibocsátó fűtött levegő esetében - ez az első ilyen NVIDIA oldatot, amely kevesebb, mint 250 W energiát.

A vállalat termékeinek korábbi referenciatervezésével összehasonlítva a tápkábelt négyfázisú ötfázisú. Az NVIDIA is beszél az olyan javított komponensekről is, amelyeken az újdonság alapul, az elektromos interferenciát szintén csökkentették a feszültség és a túlhajtási potenciál stabilitásának javítása érdekében. Az összes fejlesztés eredményeképpen a referencia-díj energiahatékonysága 6% -kal nőtt a GeForce GTX 980-hoz képest.

És annak érdekében, hogy eltér a „hagyományos” modell a GeForce GTX 1080 és külsőleg, az Alapítók Edition kifejlesztett egy szokatlan „vágott” eset design. Ez azonban valószínűleg a párologtató kamra és a radiátor alakjának szövődéséhez vezetett (lásd a fotót), amely lehetséges és szolgálja, mint az ilyen különleges kiadás 100 dolláros felár ellenében. Megismételjük, hogy a vásárlók különleges választásának elején az értékesítés elején nem lesz, de a jövőben mind a megoldást is választhat saját designjával a vállalat egyik partnere közül, és maga az NVIDIA.

Pascal grafikai építészet új generációja

A GeForce GTX 1080 videokártya az NVIDIA grafikus építészet - Pascal új generációján alapuló GP104 chip első megoldása lett. Bár az új architektúra a döntésen alapult, Maxwellben dolgozott, fontos funkcionális különbségek vannak, amelyeket írunk. A globális szempontból a fő változás az új technológiai folyamat volt, amelyhez új grafikus processzort végeztünk.

A használata a technikai folyamat 16 Nm FinFET a termelés GP104 grafikus processzorok a TSMC TSMC gyár lehetővé tette, hogy jelentősen növeli a komplexitás a chip, miközben a viszonylag kis területen és a költség. Hasonlítsa össze a tranzisztorok és a GP104 és GM204 zsetonterületek számát - közel vannak a területen (az újdonságok kristálya még kevésbé fizikailag), de a Pascal Architecture Chip észrevehetően több tranzisztorral rendelkezik, és ennek megfelelően executive blokkok, beleértve az új funkciókat.

Építészeti szempontból az első játék Pascal nagyon hasonlít a Maxwell architektúra hasonló megoldásaihoz, bár vannak különbségek. Mint Maxwell, Pascal építészet processzorok más lesz a grafikus feldolgozás klaszter (GPC) számítástechnikai fürtbeállító, streaming multiprocesszorok Streaming többprocesszoros (SM) és a memória vezérlő. Az SM Multiprocessor egy nagy párhuzamos multiprocesszor, amely a Cuda-mag és más Executive Blocks-on a Cuda-mag és más végrehajtó blokkokat tervezi és futtatja. Részletes adatok az összes ilyen blokkok eszközéről A Nvidia korábbi megoldásai közül található.

Mind a multiprocesszorok SM permetezzük polimorf Engine motor, amely feldolgozza textúra minták mozaik, átalakítása, telepítése vertex attribútumok és a perspektíva korrekció. A cég korábbi megoldásaitól eltérően a GP104 chip polimorf motorja is tartalmaz egy új, egyidejű többrétegű többprocesszálóegységet, amelyet még mindig beszélünk. Az SM többprocesszoros kombináció egy polimorf motor motorral hagyományos Nvidia, az úgynevezett TPC - textúra processzor klaszter.

A GeForce GTX 1080 teljes GP104 chipje négy GPC-klasztert és 20 SM multiprocesszort tartalmaz, valamint nyolc memóriaszabályozót tartalmaz, kombinálva a ROP blokkok mennyiségében 64 darab. Minden GPC-klaszternek van egy dedikált útválasztó motorja, és öt SM többprocesszort tartalmaz. Minden egyes többprocesszor viszont 128 Cuda-magból áll, 256 kb a regiszterfájl, 96 CB megosztott memória, 48 kB az első szint gyorsítótár és nyolc TMU textúra blokk. Vagyis a teljes GP104 2560 Cuda-magot és 160 tmu blokkot tartalmaz.

Ezenkívül a GeForce GTX 1080 videokártyán alapuló grafikus processzor nyolc 32 bites (ellentétben a 64 bites korábban használt memóriavezérlőkkel, amelyek végső 256 bites memóriát biztosítanak. A memóriavezérlők mindegyike nyolc rop és 256 kb a második szint gyorsítótárból van kötve. Azaz, a teljes GP104 chip tartalmazza a 64 ROP blokkok és 2048 KB másodszintű gyorsítótárat.

Az építészeti optimalizálásnak és az új technikai folyamatnak köszönhetően az első játék Pascal mindenkor a leginkább energiatakarékos grafikus processzorvá vált. Ezenkívül a hozzájárulás mind a 16 nm-es finfet egyik legfejlettebb technológiai folyamatából, mind pedig az építészet optimalizálásából a Pascal-ban, a Maxwellhez képest. Az NVIDIA képes volt növelni az órafrekvenciát még akkor is, mint azokat, mint azokat, amikor új technikai folyamatot váltottak ki. A GP104 nagyobb gyakorisággal működik, mint a hipotetikus GM204-et, amelyet 17 nm-es folyamat alkalmazásával szabadítanak fel. Ehhez az NVIDIA mérnökeinek alaposan meg kellett vizsgálniuk és optimalizálniuk kell az előző megoldások összes szűk keresztmetszetét, és nem engedik, hogy felgyorsuljanak egy bizonyos küszöbérték felett. Ennek eredményeképpen az új GeForce GTX 1080 modell több mint 40% -kal nagyobb gyakorisággal működik, szemben a GeForce GTX 980-hoz képest. De ez nem minden változás a GPU működésének gyakoriságához kapcsolódó változás.

GPU Boost 3.0 technológia

Amint azt az NVIDIA videokártyák szerint jól ismerjük, grafikus processzoraikban, a GPU Boost hardver technológiájukat használják, amelynek célja a GPU munkaköri gyakoriságának növelése a módokban, amikor még nem érte el az energiafogyasztás és a hőtermelés korlátait. Az elmúlt években ez az algoritmus sok változáson ment keresztül, és a technológia harmadik generációját már használják a Pascal Architecture Video Chip - GPU Boost 3.0-ban, amelynek fő innovációja a turbófrekvenciák finomabb telepítésének lett a feszültségen.

Ha emlékeztet a technológia korábbi verzióinak működésének elvére, akkor az alapfrekvencia közötti különbség (a garantált minimális frekvenciaérték alatt van, amely alatt a GPU nem esik legalább játékban), és a turbófrekvenciát rögzítették. Ez az, hogy a turbófrekvencia mindig is volt egy bizonyos számú megahertz az alap. A GPU Boost 3.0 képes külön-külön telepíteni az egyes feszültségekre vonatkozó turbófrekvenciás elmozdulásokat. A legegyszerűbb módja annak, hogy megértsék:

A bal oldalon a második változat GPU lendülete, a jobb oldalon - a harmadik, amely Pascalban jelent meg. Az alap- és turbófrekvenciák közötti rögzített különbség nem engedélyezte, hogy a GPU képességeit teljesen nyilvánosságra hozza, egyes esetekben a korábbi generációk grafikus feldolgozói gyorsabban működhetnek a beépített feszültségen, de a turbófrekvencia rögzített feleslege nem engedélyezte ezt . A GPU Boost 3.0-ban ez a funkció megjelent, és az egyes feszültségértékek mindegyikére telepíthető a turbófrekvencia, amely teljesen összeszorítja a GPU összes gyümölcslevét.

A gyorsulás ellenőrzése és a Turbo-frekvencia görbe létrehozása érdekében kényelmes segédprogramok szükségesek. NVIDIA önmagában nem teszi ezt, hanem segíti partnereit, hogy hozzon létre hasonló célokra az enyhítésére tuningolás (ésszerű határokon belül, természetesen). Például az új GPU Boost 3.0 alkalmassága már leírt EVGA Precision Xoc, mely tartalmaz egy speciális gyorsítás szkenner automatikusan keres és telepít egy nemlineáris különbség a frekvencia és a turbo frekvencia különböző feszültség értékeket a start-up Teljesítmény és stabilitási teszt. Ennek eredményeképpen a felhasználó kiderül egy turbófrekvenciás görbét, ideális esetben megfelel az adott chip képességeinek. Melyek, a kézi üzemmódban valahogy módosíthatók.

Amint azt a segédprogram képernyőképén láthatja, a GPU-ről és a rendszerről szóló információkon kívül is vannak olyan beállítások a túlcsorduláshoz: Teljesítménycél (a szokásos energiafogyasztást határozza meg a gyorsítás során, a szabvány százalékában), GPU Temp Target (engedélyezett kernel hőmérséklet), GPU Clock Offset (túllépése az alap frekvencia minden feszültség értékek), Memory Offset (video memória frekvencia meghaladja az alapértelmezett érték), túlfeszültség (további teljesítmény növelése feszültség).

A precíziós XOC segédprogram három gyorsítási módot tartalmaz: a fő, lineáris lineáris és kézi kézikönyv. A fő üzemmódban egyetlen frekvencia meghaladhatja az értéket (rögzített turbófrekvencia) az alapvető, mint az előző GPU-k esetében. A lineáris mód lehetővé teszi, hogy a frekvencián lineáris változást állítsa be a GPU maximális feszültségértékekig. Nos, kézi üzemmódban egyedi GPU frekvenciaértékeket állíthat be a grafikon minden feszültségpontjához.

A segédprogram részeként az automatikus overclocking speciális szkenner is van. Telepítheti saját frekvenciaszintjét, vagy lehetővé tegye a precíziós XOC segédprogramot a GPU-t az összes feszültségen, és megtalálja a legstabilabb frekvenciákat a feszültséggörbe és a frekvencia minden egyes pontjához. A szkennelés folyamatában a precíziós XOC fokozatosan növeli a GPU gyakoriságát, és ellenőrzi a műtárgyak stabilitását vagy megjelenését, a frekvenciák és a feszültségek tökéletes görbéjét, amely minden egyes specifikus chip számára egyedi lesz.

Ez a szkenner saját követelményei alatt konfigurálható, az egyes feszültségérték, a minimális és maximális frekvencia ellenőrzése időszegmense, valamint annak lépése. Nyilvánvaló, hogy a stabil eredmények elérése jobb lesz egy kis lépés és a tesztelés tisztességes időtartama. A tesztelés folyamatában egy instabil videofelszerelés és rendszer előfordulhat, de ha a szkenner nem függ, visszaállítja a munkát, és továbbra is megtalálja az optimális frekvenciákat.

Új típusú video memória GDDR5X és továbbfejlesztett tömörítés

Tehát a grafikus processzor ereje észrevehetően nőtt, és a memória busz csak 256 bites maradt - nem lesz memória sávszélesség, amely korlátozza az általános teljesítményt, és mit lehet tenni vele? Úgy tűnik, hogy a második generáció ígéretes HBM emléke még mindig túl sok a termelésben, ezért más lehetőségeket kellett keresnem. A 2009-es GDDR5-memória megjelenése pillanatában az NVIDIA mérnökei megvizsgálták az új típusú memóriák használatának lehetőségeit. Ennek eredményeképpen a fejlesztés egy új GDDR5X memória standard bevezetésére jött - a legösszetettebb és fejlett szabványt, amely 10 Gbps átviteli sebességet ad.

Az Nvidia érdekes példát mutat arra, hogy milyen gyorsan van. A továbbított bitek között csak 100 picoszekundum van - egy ilyen idő alatt a fénysugár csak egy hüvelyk (kb. 2,5 cm) lesz. És ha GDDR5x memória, a vétel lánc az adatátvitel kisebbnek kell lennie, mint a fele ebben az időben, válassza ki az értéket a továbbított kicsit, mielőtt a következő küldik, ez csak, hogy érti, amit a modern technológiák elérték.

A munka sebességének elérése érdekében az I / O adatrendszer új architektúráját kellett kifejleszteni, amely több éves közös fejlesztést igényelt a memória chip gyártókkal. Amellett, hogy a megnövekedett adatátviteli sebességet, az energiahatékonyság nőtt - a GDDR5x szabványos memória chipek használni csökkentett feszültséget 1,35 V és szerint előállított új technológiák, amely ugyanolyan energiafelhasználás 43% -kal több frekvencia.

A cég mérnökei kellett recycle adatátviteli vonalak között a GPU mag és a memória chipek, nagyobb figyelmet fordítanak, hogy megakadályozzák elvesztését és lebontása a jel az egész memóriát memória GPU és vissza. Így a fenti ábra egy nagy szimmetrikus "szem" formájában rögzített jelet mutat, amely a teljes lánc jó optimalizálását és az adatok relatív könnyedségét jelzi a jelből. Ezenkívül a fent leírt változások nemcsak a GDDR5X 10 GHz-es használatának lehetőségét eredményezték, hanem segíteniük kell a magas PSP-nek a jövőbeni termékeket a legismertebb GDDR5 memóriával.

Nos, a PSP növekedésének több mint 40% -a az új memória alkalmazásából. De nem elég? Az NVIDIA memória sávszélességének hatékonyságának további növelése érdekében továbbra is javítják a korábbi architektúrákban mellékelt fejlett adatokat. A GeForce GTX 1080 memória alrendszere javult, és több új technikát alkalmaz a veszteség nélküli adatok tömörítésére, amelynek célja a PSP követelményeinek csökkentése - az intrakipikus tömörítés negyedik generációja.

Algoritmusok a memóriában lévő adatok tömörítéséhez azonnal több pozitív pillanatot hoznak. Amely csökkenti a rögzített adatok a memóriába, ugyanez vonatkozik a küldött adatokat a videomemória a második szintű cache memória, amely javítja a hatékonyságot az L2 cache, mivel a tömörített csempe (blokk több keret pixel) kisebb méretű, mint a tömörítetlen. Csökkenti a különböző pontok, például a TMU textúra modul és a frameBuffer között elküldött adatok mennyiségét is.

A GPU adatgyűjtő szállítószalag több algoritmust használ, amelyeket az adatok "összenyomhatósága" függvényében határoztak meg - számukra a rendelkezésre álló algoritmusok közül választhat. Az egyik legfontosabb a pixel színadatok delta kódolásának algoritmusa (delta színes tömörítés). Ez a tömörítési módszer adatokat kódol az adatok helyett a szekvenciális értékek közötti különbség formájában. A GPU kiszámítja a blokkban lévő pixelek (csempe) képpontok közötti különbséget, és a blokkot bizonyos átlagolt színként menti a teljes blokkhoz, valamint az egyes pixelek értékének különbségét. A grafikus adatok esetében ez a módszer általában jól illeszkedik, mivel a kis csempe összes pixelre történő színe gyakran nem más.

A GP104 grafikus processzor a GeForce GTX 1080 részeként több tömörítési algoritmusokat támogat a korábbi Maxwell építész chipekhez képest. Így a 2: 1 tömörítési algoritmus hatékonyabbá vált, és két új algoritmus megjelent: 4: 1 tömörítési mód, alkalmas esetekben, amikor a blokk pixel színének különbsége nagyon kicsi, és a mód 8: 1, az állandó algoritmus tömörítését kombinálva 4: 1 blokk 2 × 2 pixel arányával, kettős tömörítéssel a blokkok között. Ha a tömörítés nem teljesen lehetetlen, akkor nem használják.

Azonban a valóságban az utóbbi nagyon ritka. Ez látható a Project Cars játék képernyőképeinek példáival, amely az NVIDIA-t vezette a Pascal fokozott tömörítési arányának illusztrálására. A lila illusztrációkon a személyzet puffer csempe festett, ami egy grafikus processzort préselhet, és a nem veszteségmentes tömörítés maradt az eredeti színnel (felülről - Maxwell, Pascal).

Amint láthatja, az új tömörítési algoritmusok a GP104-ben nagyon sokkal jobban működnek, mint a Maxwellben. Bár a régi építészet tömörítheti a legtöbb csempét a jelenetben, nagyszámú fű és fák a széleken, valamint az autó részei nem érintik az elavult tömörítési algoritmusok számára. De amikor lehetővé teszi az új technikákat Pascalban, a kép nagyon kevés képe továbbra is tömörítetlen - a jobb hatékonyság nyilvánvaló.

A továbbfejlesztett adatgyűjtés eredményeképpen a GeForce GTX 1080 jelentősen csökkentheti az egyes keretekben küldött adatok számát. Ha a számokról beszélünk, akkor a továbbfejlesztett tömörítés további mintegy 20% -át takarít meg a hatékony memória sávszélességének további 20% -át. A GEFORRE GTX 1080-ban a GEFORCE GTX 1080-ban a GEFORCE GTX 1080-ban való megnövekedett PSP több mint 40% -ánál a GDDR5X memória használatából származó GTX 980-hoz viszonyítva a hatékony PSP növekedésének körülbelül 70% -át teszi ki, szemben a múlt generáció modelljével .

Async kiszámítja az aszinkron számítástechnikai támogatást

A legtöbb modern játék komplex számításokat használ a grafika mellett. Például a fizikai testek viselkedésének kiszámításánál számítások nem végezhetők el grafikus számítások előtt, de egyszerre, mivel ezek nem kapcsolódnak egymáshoz, és nem függenek egymástól egy kereten belül. Emellett egy példa a már rendezett személyzet utólagos feldolgozására és audió adatok feldolgozására is, amelyet a rendereléssel párhuzamosan is végrehajthatunk.

A funkcionalitás egy másik élénk példája a virtuális valóságos rendszerekben használt aszinkron idő torzítás (aszinkron időbeli lánc), hogy a kimeneti keretet a játékos fejmozgásának megfelelően változtassa meg közvetlenül a kimenete előtt, megszakítja a következő megjelenítését. A GPU-kapacitások ilyen aszinkron terhelése lehetővé teszi a végrehajtó blokkok használatának hatékonyságának növelését.

Az ilyen terhelések két új GPU-felhasználási forgatókönyvet hoznak létre. Ezek közül az első magában egymásra letöltések, a sokféle feladat nem használja a képességeit grafikus processzorok teljesen és részben a források tétlen. Ilyen esetekben egyszerűen két különböző feladatot futtathat egy GPU-n, elválasztva végrehajtó blokkjait, hogy hatékonyabb felhasználást kapjon - például a 3D keret-rendereléssel együtt futó Physx hatásai.

Hogy javítsa a munka ennek a forgatókönyvnek, a dinamikus terhelés kiegyenlítő megjelent a Pascal építészet (Dynamic terheléselosztás). Az előző Maxwell architektúrában az átfedő terheléseket a GPU erőforrások statikus elosztásaként végeztük grafikus és számítástechnikai. Ez a megközelítés hatékony, feltéve, hogy a két terhelés közötti egyensúly megközelítőleg megfelel az erőforrások szétválasztásának és a feladatoknak egyformán időben. Ha az illiteraphikus számítások hosszabbak, mint a grafika, és mindkettő várja az általános munka befejezését, akkor a GPU-ről fennmaradó idő része feláll, amely csökkenti az általános termelékenységet, és csökkenti az összes előnyöket. A hardver dinamikus terheléselosztása lehetővé teszi, hogy azonnal használhassa a kiadott GPU erőforrásokat, mivel elérhetővé válnak - megérteni az illusztrációt.

A végrehajtási idő által kritikus feladatok is vannak, és ez az aszinkron számítástechnika második forgatókönyve. Például, a kivitelezés egy aszinkron idő torzulás algoritmus VR kell töltenie, mielőtt a szkennelés (Scan Out), vagy a keret kell dobni. Ebben az esetben a GPU-nak támogatnia kell a feladat nagyon gyors megszakítását, és átkapcsolnia kell a másikra, hogy megszüntesse a kevésbé kritikus feladatot a GPU végrehajtásából, felszabadítja a kritikus feladatokra vonatkozó erőforrásait - ez a feltételezésnek nevezik.

A játékmotor egyik renderelő csapata több száz hívást tartalmazhat a rajzfunkciókhoz, mindegyik felhíváshívás viszont több száz feldolgozott háromszöget tartalmaz, amelyek mindegyike több száz képpontot tartalmaz, amelyeket ki kell számítani és megtagadni. A hagyományos megközelítésben a GPU csak magas szinten használja a feladatok megszakítását, és a grafikus szállítószalag kénytelen várni az összes munka befejezését megelőzően, mielőtt a feladat, ami nagyon nagy késéseket eredményez.

Ennek megoldásához a Pascal architektúra először a képesség, hogy szakítsa meg a feladatot a pixel szinten - Pixel szint Preemption. A Pascal Graphics processzor végrehajtó blokkjai folyamatosan figyelemmel kísérhetik a renderelési feladatok elvégzésének előrehaladását, és amikor a megszakítás kérte, leállíthatja a végrehajtást a további befejezéshez, gyorsan átkapcsolva egy másik feladatra.

A számítástechnikai műveletek áramlási szintjének megszakítása és átkapcsolása hasonló a grafikus számítások pixelszintjének megszakításához. A számítástechnikai terhelés több rácsból áll, amelyek mindegyike számos szálat tartalmaz. Amikor a megszakítási kérelem beérkezett, a többprocesszoron végzett folyamatok befejezték a végrehajtást. Más blokkok megtartják saját államukat, hogy a jövőben ugyanabban a pillanatban folyik, és a GPU egy másik feladatra vált. A teljes feladatkapcsolási folyamat kevesebb mint 100 mikroszketvont vesz igénybe, miután az áramlások befejeződése befejeződött.

A játékterheléseknél a grafikus képpontos szintű megszakítások kombinációja, valamint a számítástechnikai feladatok streaming szintjén megszakadása a PASCAL architektúra grafikus processzoraival, azzal a képességgel, hogy gyorsan átkapcsolhatunk a minimális idővesztéssel rendelkező feladatok között. És a CUDA-ra vonatkozó számítástechnikai feladatokra is lehetőség van a minimális granulációval - az oktatási szinten. Ebben az üzemmódban az összes adatfolyam azonnal leállítja a végrehajtást, azonnal áttérve egy másik feladatra. Ez a megközelítés az egyes áramlások valamennyi nyilvántartásának állapotáról további információk fenntartását igényli, de bizonyos esetekben nem bánat számítások esetén teljesen indokolt.

A grafikai és számítástechnikai feladatok gyors megszakítási és váltási feladatainak felhasználásával a PASCAL architektúrához kerültek a grafikus architektúrához, hogy grafikus és írástudatlan feladatok megszakadjanak az egyes utasítások szintjén, és ne az egész patakok, mivel Maxwellben és Keplerben volt. Ezek a technológiák képesek javítani a különböző terhelések aszinkron végrehajtását a grafikus processzoron, és javíthatják az érzékenységet, miközben egyidejűleg több feladatot végeznek. Az NVIDIA esemény megmutatta az aszinkron számítások munkájának bemutatását a fizikai hatások kiszámításának példáján. Ha nem aszinkron számítások, a teljesítmény volt 77-79 FPS, akkor a felvétel a képességek, a keret ráta 93-94 fps.

Már megadtunk egy példát az egyik lehetőségnek a funkcionalitás használatának lehetőségét az aszinkron idő torzítás formájában a VR-ben. Az illusztráció bemutatja a technológia munkáját egy hagyományos megszakítással (kb.) És egy gyors. Az első esetben az aszinkron idő torzításának folyamata a lehető legkésőbb, de a kép frissítése előtt próbálkozik. De az algoritmus munkáját a GPU-ban több milliszekundum végrehajtására kell elvégezni, mivel gyors megszakítás nélkül a megfelelő pillanatban nem lehet pontosan elvégezni a megfelelő pillanatban, és a GPU egy ideig tétlen.

Abban az esetben, pontos megszakítás szintjén pixel és áramlások (az ábrán a jobb oldalon), egy ilyen lehetőséget ad pontosabban meghatározni a pillanatban megszakítható, és az aszinkron idő torzulás lehet indítani jelentősen később bizalommal leállításkor előtt Az információk frissítése a kijelzőn. És a GPU egy ideig az első esetben letölthető néhány további grafikus munka.

Többprocessző technológia egyidejű több vetület

Az új GP104 grafikus processzor megjelent támogatja az új többprocesszoros technológia (egyszerre több vetítés - SMP), amely lehetővé teszi, hogy a GPU felhívni adatokat modern képkimenethez rendszerek hatékonyabban. Az SMP lehetővé teszi, hogy a videó nyilatkozat egyszerre jelenítse meg az adatokat több előrejelzésre, amelyre szükség volt egy új hardverblokk beírása a GPU-ba a geometriai szállítószalag végén a geometriai szállítószalag végén a geometriai szállítószalag végén. Ez az egység felelős az egyetlen geometriai áramlás több vetületének munkájáért.

A multiprocating motor a geometriai adatokat ugyanabban az időben feldolgozza, amelyek 16 előfeltételes előrejelzést tartalmaznak, amelyek kombinálják a vetítési pontot (kamerákat), ezek a vetítések egymástól függetlenül vagy döntéshozhatók. Mivel minden egyes geometriai primitív egyidejűleg több előrejelzésben jelenhet meg, az SMP motor olyan funkcionalitást biztosít, amely lehetővé teszi az alkalmazás számára, hogy a videojelzési utasításokat 32-szerese (16 előrejelzési központban) replikálja a geometriát (két vetítési központban) további feldolgozás nélkül.

A teljes feldolgozási folyamatot speedingly felgyorsult, és mivel multiprocying munkálatok után geometriai motor, akkor nem kell megismételni többször a feldolgozás minden szakaszában geometria. A mentett erőforrások fontosak a renderelési sebesség korlátozásának feltételei között a geometria feldolgozásának teljesítményével, például a tessellációval, ha ugyanazt a geometriai munkát többször is elvégzik az egyes vetületeknél. Ennek megfelelően a csúcs esetében a többszörösen csökkentheti a geometria feldolgozásának szükségességét 32-szer.

De miért szükséges ez? Számos jó példa van, ahol a többprocessziós technológia hasznos lehet. Például egy három domailáris rendszer három kijelzőre van felszerelve egymáshoz közel a felhasználóhoz (surround konfiguráció). Egy tipikus helyzetben a jelenetet egy vetületben húzzák le, ami geometriai torzulásokhoz és a geometria helytelen visszaváltásához vezet. A helyes út az egyes monitorok mindegyikének három különböző előrejelzése, az általuk elhelyezkedő szögnek megfelelően.

A PASCAL architektúrán lévő videokártya segítségével ez a geometria egy átadásában történhet, amely három különböző előrejelzést jelez, mindegyiknek a monitorára. És a felhasználó így képesek lesznek változtatni a szög, amelyben a monitorok helyezkednek egymáshoz nem csak fizikailag, hanem virtuálisan is - fordult előrejelzések oldalsó monitorok, hogy a helyes perspektívát a 3D-s jelenet egy csodálatosan szélesebb látószög (FOV) . Igaz, van egy korlátozás - az ilyen támogatás, az alkalmazás lehetővé kell tenni, hogy dolgozzon egy jelenet, széles látómező és használata SMP SMP Speciális felhívja a telepítéshez. Vagyis minden játékban nem fogod ezt megtenni, különleges támogatásra van szükséged.

Mindenesetre az egyetlen vetítés ideje az egyetlen lapos monitoron, most sok többkomponensű konfiguráció és ívelt kijelző, amely szintén használható ez a technológia. Nem is beszélve a virtuális valóságos rendszerekről, amelyek speciális lencséket használnak a képernyők és a felhasználó szemei \u200b\u200bközött, amely új technikákat igényel a 3D képek 2D képre történő kivetéséhez. Sok ilyen technológiák és technikák még mindig a fejlődés elején vannak, a fő dolog az, hogy a régi GPU-k nem tudnak hatékonyan használni egynél több lapos vetületet. Ezek több renderelést igényelnek, ugyanazon geometria ismétlődő kezelése stb.

A Maxwell építész chipjei korlátozott, többfelbontású támogatást nyújtottak, amelyek segítenek a hatékonyság növelésében, de az SMP Pascalban sokkal több lehet. Maxwell 90 fokos kubikus kártyákkal (kocka leképezés) vagy különböző engedéllyel rendelkezhet a vetítéshez, de csak az alkalmazások korlátozott körében hasznos volt, mint a VXGI.

Más SMP alkalmazásokból megjegyezzük a rajzot különböző felbontással és egylépcsős sztereemberekkel. Például a különböző felbontású (multi-res árnyékolás) rajzolható a teljesítmény optimalizálási játékokban. Ha használjuk, nagyobb felbontást alkalmaznak a keret közepén, és a perifériára csökken, hogy magasabb renderelési sebességet kapjon.

A VR-ben egylépcsős sztereírói alkalmazást használnak, már hozzá lett adva a VRWorks csomaghoz, és a multiproycation lehetőségeit használja a VR-renderelés által megkövetelt geometriai munka mennyiségének csökkentésére. A funkció használatával a GeForce GTX 1080 grafikus processzor csak egyszer feldolgozza a jelenet geometriáját, amely egyszerre két előrejelzést generál minden szemre, ami megduplázta a GPU geometriai terhelését, és csökkenti a vezető és az operációs rendszer elvesztését is .

A VR-renderelés hatékonyságának javítására szolgáló, még fejlettebb módszer, amely az objektív árnyékolás, amikor a VR-rendereléssel szükséges geometriai torzulásokat több előrejelzéssel szimulálják. Ez a módszer a 3D-jel jelenetének felületre történő megjelenítését használja, amely megközelítőleg hasonló a beállított lencséhez, amikor a VR-sisak kimenetére mutat, ami lehetővé teszi, hogy ne rajzoljon sok szükségtelen képpontot a perifériára, amelyet el kell dobni. A legegyszerűbb megérteni a módszer lényegét az ábrán - minden szem előtt, négy kissé telepített vetületet használnak (Pascal mindegyik szeméhez 16 előrejelzéshez is használható - az ívelt lencse pontosabb utánzására) egy:

Egy ilyen megközelítés képes megtakarítani a teljesítményt. Tehát egy tipikus kép az Oculus Rift számára minden szem számára 1,1 megapixeles. De a vetületek különbségének köszönhetően az eredeti képet 2,1 megapixeles - 86% -kal kell használni! A Pascal architektúrába beágyazott többprocesszáló többprocesszió használata lehetővé teszi a rajzolt kép feloldását 1,4 megapixeles, miután megkapta a pixel feldolgozási sebességét, és menti a memória sávszélességet is.

És a geometria feldolgozási sebességének kétszeres megtakarításával együtt a GeForce GTX 1080 grafikus processzora a GeForce GTX 1080 grafikus processzora képes arra, hogy jelentős növekedést biztosítson a VR-renderelés, a nagyon igényes és a geometria feldolgozásának sebességével inkább - a pixel feldolgozáshoz.

A video kimeneti és feldolgozó blokkok javítása

A 3D-s rendereléssel kapcsolatos teljesítmény és új funkcionalitás mellett jó szintet kell fenntartani, valamint a kép kiadásának lehetőségét, valamint a dekódolás és a videoadat kódolását. És az első Pascal Architecture Graphics processzor nem okozott csalódást - támogatja az összes modern szabványt ebben az értelemben, beleértve a HEVC hardver dekódolását, amely szükséges a 4K videók megtekintéséhez a számítógépen. Továbbá a GeForce GTX 1080 videokártyák jövőbeli tulajdonosai gyorsan élvezhetik a Streaming 4K videó lejátszását a Netflix és más szolgáltatók a rendszereikről.

A szempontból a kép kimenet jelenik meg, GeForce GTX 1080 támogatja a HDMI 2.0B HDCP 2.2, valamint a DisplayPort. Eddig a DP 1.2 verziója hitelesített, de a GPU készen áll az újabb szabványok tanúsítására: DP 1.3 READY ÉS DP 1.4 Kész. Ez utóbbi lehetővé teszi, hogy a képet 4K képernyőkön 120 Hz-es megújítási frekvencián és 5K- és 8K-kijelzőn - 60 Hz-en használja a DisplayPort 1.3 kábelpárral. Ha GTX 980 a maximálisan támogatott felbontás 5120 × 3200, 60 Hz, akkor az új GTX 1080 modell, emelkedett 7680 × 4320 azonos 60 Hz. Referencia GeForce GTX 1080 három DisplayPort kimenet, egy HDMI 2.0B és egy digitális Dual-Link DVI.

Az új NVIDIA videokártya modell szintén javított video dekódolóegységet és videoadat kódolást kapott. Így a GP104 chip megfelel a magas színvonalú PlayReady 3.0 (SL3000) játszani streaming video, amely lehetővé teszi, hogy bízik abban, hogy játszik a magas minőségű tartalom jól ismert beszállítók, mint a Netflix, lesz olyan jó minőségű és energiatakarékos. Részletek a támogatást különböző videó formátumokat, amikor kódoló és dekódoló jelennek meg a táblázatban, az újdonság egyértelműen eltér a korábbi megoldások a jobb:

De még érdekesebb újdonságot nevezhetünk az úgynevezett nagy dinamikus tartományon (nagy dinamikus tartomány - HDR), amely a piacon elterjedt. A televíziókat már 2016-ban értékesítik (és csak egy év alatt tervezik, hogy négymillió HDR-TV-t értékesítenek), és a monitorok a következők. A HDR a legnagyobb áttörés a megjelenítési technológiákban sok éven át, ez a formátum megduplázta a színes árnyalatokat (a látható spektrum 75% -a, az RGB 33% -ával ellentétben), világosabb kijelzők (1000 NIT) nagyobb kontraszttal (10 000: 1) és telített színek.

A nagyobb fényerő és a gazdag színek nagyobb különbségével rendelkező tartalom reprodukciójának megjelenése a képre a valóságra vezeti a képet, a fekete szín mélyebb lesz, a fényes fény vak lesz, mint a valós világban. Ennek megfelelően a felhasználók részletesebb részleteket látnak a képek fényes és sötét képeiben, összehasonlítva a szabványos monitorok és a TV-k.

A HDR kijelzők támogatása érdekében a GeForce GTX 1080 mindent meg kell tennie, amire szüksége van - a 12 bites szín, a BT.2020 és az SMPTE 2084 szabványok támogatása, valamint a HDMI 2.0B 10/12 bites kép kimenete HDR 4K felbontásban, amely és Maxwell volt. Ezenkívül a Pascal egy 4K felbontású HEVC formátumot támogatott, 60 Hz-es és 10 vagy 12 bites színű dekódolással, amelyet HDR videóhoz használnak, valamint ugyanolyan formátumú kódolással, ugyanolyan paraméterekkel, de csak a 10-bit a HDR videó vagy a streaming rögzítéséhez. Emellett az újdonság készen áll a Displayport 1.4 szabványosítására, hogy továbbítsa a HDR adatokat a csatlakozóhoz.

By the way, a jövőben a HDR videó kódolása szükséges a jövőben annak érdekében, hogy ilyen adatokat továbbítsák egy otthoni számítógépről a pajzs-játékkonzolra, amely 10 bites HEVC-t játszhat. Vagyis a felhasználó képes lesz arra, hogy a játékot számítógéppel közvetítse a HDR formátumban. Állj meg, és hol játszhatsz ilyen támogatással? Az NVIDIA folyamatosan működik a játékfejlesztőkkel az ilyen támogatás végrehajtásához, mindent, amire szüksége van (támogatja a vezető, kód példákat stb.) A meglévő kijelzőkkel kompatibilis HDR kép megfelelő megjelenítéséhez.

A videokártya kibocsátásának időpontjában a GeForce GTX 1080, a HDR kimenet támogatása olyan játékokkal rendelkezik, mint az Obduction, a Tanú, az Lawbreakers, a Tomb Raider, Paragon, Talos elv és árnyékharcos emelése 2. De a közeljövőben Jövőben várhatóan feltölti ezt a listát..

Változások az SLI többszörös renderelésben

Volt néhány változás a többszörös renderelés SLI vállalati technológiájához, bár senki sem várt. Az SLI-t a PC-Games rajongók használják, hogy növeljék a teljesítményt vagy a szélsőséges értékeket, beállítva a legerősebb egyfajta videokártyákat a tandemben, vagy annak érdekében, hogy egy nagyon magas képsebességet kapjunk, néhány közepes szinten korlátozva megoldások, amelyek néha olcsóbbak, mint egy felső (a döntés ellentmondásos, de tegye meg). Ha 4k-os monitor van, a játékosok szinte nincsenek más lehetőségek, kivéve a videokamp pár telepítését, mivel még a legmagasabb modellek gyakran nem tudnak kényelmes játékot biztosítani az ilyen körülmények között.

Az NVIDIA SLI egyik fontos összetevője a videokártyákat összekötő hidak egy közös videó adóba és alkalmazottakba, hogy szervezzenek egy digitális adatátviteli csatornát. A GeForce videokártyákon a kettős SLI csatlakozókat hagyományosan telepítették, amely két vagy négy videokártya közötti összeköttetéshez szolgált a 3. és a 4-utas SLI konfigurációkban. A videokártyák mindegyikét mindegyikhez kellett volna csatlakoztatni, mivel az összes GPU-k keretet küldtek a Fő grafikus processzorba, ezért két interfészre volt szükség az egyes táblákon.

A GeForce GTX 1080 modelltől kezdődően, a Pascal architektúrán alapuló összes NVIDIA videokártyáról két SLI interfész kapcsolódik össze, hogy növelje az adatátviteli teljesítményt a videokártyák között, és egy ilyen új kétcsatornás SLI mód lehetővé teszi a termelékenység javítását és Kényelem, amikor vizuális információt jelenít meg a nagyon nagy felbontású kijelzőkön vagy többkomponensű rendszereken.

Ilyen módban szükség volt az SLI HB nevű új hidakra. Kombinálják a pár GeForce GTX 1080 videokártyát egyszerre két SLI csatornán, bár az új videokártyák is kompatibilisek a régi hidakkal. 1920 × 1080 és 2560 × 1440 képpontos felbontás esetén a 60 Hz-es frissítés gyakoriságában szabványos hidakat használhat, de igényesebb módokban (4k, 5k és multimatoriális rendszerek) a sima keretváltozás legjobb eredményei Új hidak, bár a régi fog működni, de némileg rosszabb.

A SLI HB hidak használatakor a GeForce GTX 1080 adatátviteli interfész 650 MHz-en működik, szemben a hagyományos SLI hidakkal a régi GPU-kban. Ráadásul a merev régi hidak esetében a PASCAL architektúra video zsetonjainak nagyobb gyakorisága is rendelkezésre áll. A növekvő adatátvitel növekvő sebességével a GPU egy dupla SLI interfészen egy megnövekedett munkafrekvenciával, egy sima keretkimenet van megadva a képernyőhöz, az előző megoldásokhoz képest:

Azt is meg kell jegyezni, hogy a DirectX 12-ben a többszörös renderelés támogatása kissé eltér a korábban ismert attól. A grafikus API legújabb verziójában a Microsoft számos változtatást tett az ilyen video rendszerek munkájához. A DX12-es szoftverfejlesztők számára a több GPU használatának két lehetősége áll rendelkezésre: Multi Display Adapter (MDA) Módok és kapcsolt megjelenítési adapter (LDA).

Ezenkívül az LDA módnak két formája van: implicit LDA (amely az SLI-hez használt NVIDIA-t használ) és explicit LDA (amikor a játékfejlesztő vállalja a renderelési irányítási feladatok kezelésének feladatát. Az MDA-t és az explicit LDA módokat a DirectX 12-ben hajtották végre A játékfejlesztők nagyobb szabadság és lehetőségek, multimeview video rendszerek használata esetén. A módok közötti különbség jól látható a következő táblázatban:

LDA üzemmódban minden GPU-memória társulhat egy másik memóriájához, és nagy mennyiségű térfogat formájában jelenik meg, természetesen, minden teljesítménykorlátozással, amikor az adatok valaki más memóriájából származik. Az MDA módban minden GPU memória külön működik, és a különböző GPU-k nem férhetnek hozzá közvetlenül az adatokhoz egy másik grafikus processzor emlékére. Az LDA módot a hasonló teljesítményű többszörös tisztaságú rendszerekhez tervezték, és az MDA módnak kevesebb korlátozása van, és diszkrét és integrált GPU-k vagy diszkrét megoldások a különböző gyártók zsetonjaival együtt dolgozhatnak. De ez a mód azt is megköveteli, hogy a fejlesztők nagyobb figyelmet és munkát végezzenek, amikor a programozási együttműködést annak érdekében, hogy a GPU információt cseréljen egymással.

Alapértelmezés szerint a GeForce GTX 1080 kártyákon alapuló SLI rendszer csak két GPU-t támogat, és a három- és négy méretű konfigurációk nem ajánlottak hivatalosan is használatra, mint a modern játékoknál, hogy egyre nehezebbé válik, hogy a termelékenység növelése a a harmadik és a negyedik grafikus processzor. Például sok játék a rendszer központi processzorjának a többszörös tisztasági video rendszerek működtetése során, az időbeli (ideiglenes) technikák az előző keretek adataival az új játékokban egyre inkább használják, ahol több GPU hatékony munkája egyszerre egyszerűen lehetetlen.

Azonban a rendszerek működése más (nem SLI) multimációs rendszerekben továbbra is lehetséges, mivel az MDA vagy az LDA explicit módjai a DirectX 12 vagy két típusú SLI rendszerben egy dedikált harmadik GPU-val a fizikai hatásaihoz. De mi a helyzet a referenciaértékek rekordokkal, valójában Nvidia-ban elutasítja őket egyáltalán? Nem, természetesen, de mivel az ilyen rendszerek keresletet igényelnek a világon, majdnem egységek a felhasználók, akkor az ilyen ultartuzúzok számára, a lelkes kulcs különleges kulcsa, amely letölthető az NVIDIA honlapján, és kinyitja ezt a lehetőséget. Ehhez először egyedi GPU-azonosítót kell kapnia egy speciális alkalmazás futtatásával, majd kérjen egy lelkes billentyűt a weboldalon, és töltse le a rendszert, állítsa a kulcsot a rendszerhez, és kinyitja a 3. és a 4-utas SLI konfigurációt.

Gyors szinkron szinkronizálási technológia

Néhány változás történt a szinkronizációs technológiákban, amikor a kijelzőn megjelenő információk megjelenítése. Értékelés előre, semmi új nem jelent meg a G-Sync-ben, mivel az adaptív szinkronizálási adaptív szinkronizációs technológia nem támogatott. De Nvidia úgy döntött, hogy javítja a teljesítmény simaságát és szinkronizálását, amelyek nagyon nagy teljesítményt mutatnak, ha a képsebesség jelentősen meghaladja a monitor frissítési sebességét. Ez különösen fontos a játék csak minimális késések és a gyors választ, és amelyen a multiplayer csaták és a verseny kerül megrendezésre.

A Fast Sync egy új alternatíva a függőleges szinkronizáláshoz, amely nem rendelkezik vizuális tárgyakkal a képen lévő kép szüneteinek formájában, és nem kötődik egy rögzített frissítési frekvenciához, ami növeli a késedelmeket. Mi a problémája a függőleges szinkronizálásban, mint a Counter-Strike: Globális támadás? Ez a játék az erőteljes modern GPU-nál több száz képkocka másodpercenként működik, és a játékosnak van választása: függőleges szinkronizálás vagy sem.

A multiplayer játékokban a leggyakrabban a minimális késések és a VSYNC leválasztás, jól látható rések a képen, rendkívül kellemetlen és nagy képsebességgel. Ha függőleges szinkronizálással rendelkezik, a lejátszó jelentősen növeli a késedelmeket a cselekvései és a képen lévő kép között, amikor a grafikus szállítószalag lassítja a monitor frissítési frekvenciáját.

Tehát a hagyományos szállítószalag működik. De az NVIDIA úgy döntött, hogy megosztja a renderelési folyamatot, és a képet gyorsan szinkronizálási technológiával jeleníti meg. Ez lehetővé teszi, hogy folytassa a GPU részének leghatékonyabb munkáját, amely teljes körűen megjeleníti a keretet, miközben ezeket a keretet egy speciális utolsó rendű pufferben ideiglenes pufferben tartja fenn.

Ez a módszer lehetővé teszi, hogy megváltoztassa a kimeneti kimenetet a képernyőre, és a legjobbat a VSYNC ON és VSYNC OFF OFF MODES-től az alacsony késések fogadásával, de kép nélkül. Gyors szinkronizálással nincs keretvezérlés, a játékmotor a szinkronizálási mód módban működik, és nem mondja meg, hogy várjon a következő rajzot, ezért a késedelmek majdnem olyan alacsonyak, mint a VSYNC OFF mód. De mivel a gyors szinkron kiválasztja a puffert, hogy kimenjen a képernyőre, és megjeleníti az egész keretet, akkor nincs szünet a képen.

A gyors szinkronizálás során három különböző puffert használnak, amelyek közül kettőt ugyanúgy használnak, mint a klasszikus szállítószalag kettős pufferelését. Az elsődleges puffer (első puffer - fb) puffer, amelyről a kijelzőn megjelenik, teljesen rajzolt keret. A másodlagos puffer (hátsó puffer - bb) olyan puffer, amely információval rendelkezik a renderelés során.

Ha a függőleges szinkronizálást magas keret körülmények között használja, akkor a játék várja a kijelzőn (frissítési intervallum) frissítésének pillanatát, hogy az elsődleges puffert a másodlagos, hogy megjelenítse az egyrészes képet a képernyőn. Ez lelassítja a folyamatot, és további pufferek hozzáadásával, mivel a hagyományos hármas pufferelés csak késleltetést tesz lehetővé.

A gyors szinkronizálás használatával a harmadik utolsó renderelt puffer puffer (LRB) kerül hozzáadásra, amelyet az összes keret tárolására használunk, amelyet éppen a másodlagos pufferben rendeztek. A puffer neve önmagában beszél, az utolsó teljesen áthúzott keret másolatát tartalmazza. És ha az elsődleges puffer frissítésének pillanatát eljön, akkor ez az LRB puffer teljesen átmásolja az elsődleges, és nem az alkatrészek, a másodlagos, amikor a függőleges szinkronizálás ki van kapcsolva. Mivel a pufferekről történő információ másolása nem hatékony, egyszerűen megváltoztatják a helyeket (vagy átnevezték, mivel kényelmesebb lesz a megértéshez), és a GP104-ben megjelenő új puffer megváltoztatja ezt a folyamatot.

A gyakorlatban az új gyors szinkronizációs szinkronizációs módszer felvétele enyhén nagy késéssel rendelkezik, szemben a függőleges szinkronizálással teljesen lebontva - átlagosan 8 ms, de megjeleníti a kereteket a teljes monitoron, anélkül, hogy kellemetlen tárgyakat észlel a képernyőn kép. Egy új módszer engedélyezhető az NVIDIA kezelőpanel grafikai beállításaitól a függőleges szinkronizációs vezérlő szakaszban. Azonban az alapértelmezett érték az alkalmazás kezelése, és a gyors szinkronizálás egyszerűen nem szükséges az összes 3D alkalmazásban, jobb, ha nem szükséges kiválasztani ezt a módszert kifejezetten a magas FPS játékokhoz.

Virtuális valóság Technologies Nvidia VRWorks

Többször is érintettük a virtuális valóság forró témáját a cikkben, de ez többnyire a személyzet gyakoriságának növeléséről és az alacsony késedelmekről, nagyon fontos a VR. Mindez nagyon fontos, és az előrehaladás valóban ott van, de az eddig VR játékok messze sokkal lenyűgözőek, mint a "rendes" modern 3D-s játékok közül. Így kiderül, nem csak azért, mert VR alkalmazások vezető játékfejlesztők nem különösebben részt, hanem azért is, mert a nagyobb VR követeli a frame rate, amely nem teszi lehetővé számos, a szokásos módszerekkel, például játékok miatt magas igényeket.

Annak érdekében, hogy csökkentsék a különbség a minőség között VR játékok és közönséges, NVIDIA úgy döntött, hogy kiadja a teljes csomag lényeges VRWorks technológiák, köztük számos API, könyvtárak, motorok és technológiák, amelyek lehetővé teszik jelentősen javítják a minőséget és a teljesítményt VR- Alkalmazások. Hogyan vonatkozik ez az első játék megoldásának bejelentésére a Pascal-on? Nagyon egyszerű - egyes technológiák bevezették bele, segítve a termelékenységet és a minőség javítását, és már írtunk róluk.

És bár nem csak a grafika, először mondd el nekem egy kicsit. A VRWorks Graphics Technology Set tartalmazza a korábban említett technológiákat, például a lencse illeszkedését, a GeForce GTX 1080-ban megjelenő lehetőség többszöröse. Az újdonság lehetővé teszi, hogy 1,5-2-szeres termelékenységnövekedést kapjon olyan döntések tekintetében, amelyek nem rendelkeznek ilyenek támogatás. Azt is megemlítettük más technológiákat is, mint például az árnyékolás, amelyet a keret közepén és a perifériáján eltérő felbontással rendeltek.

De sokkal több váratlan volt a VRWorks Audio Technology bejelentése, amelyet kiváló minőségű hangszóró adat CCD 3D jelenetekben, különösen fontos a virtuális valóság rendszerekben. A rendes motoroknál a virtuális környezetben a hangforrások elhelyezése meglehetősen helyesen van kiszámításra, ha az ellenség jobbra hajtja, akkor a hang hangosabban hangosabb az audio rendszer ezen oldalán, és ez a számítás nem túl igényes számítási teljesítmény.

De valójában a hangok nemcsak a játékos, hanem minden irányban, és tükröződnek a különböző anyagoktól, hasonlóan, hogy a fénysugarak tükröződjenek. A valóságban halljuk ezeket a gondolatokat, bár nem olyan jellegzetesen, mint az egyenes hanghullámok. Ezek a közvetett visszaverődő hangok általában szimulált különleges reverb effektek, de ez egy nagyon primitív megközelítés a feladat.

A VRWorks Audio csomagban a hanghullámok elszámolása hasonló a sugár nyomon követéséhez, amikor a fénysugár útját a virtuális jelenetben lévő objektumok több visszaverődéséhez nyomja meg. A VRWorks Audio szintén utánozza a hanghullámok terjedését a környezetben, amikor egyenes és visszaverődő hullámokat figyelnek meg, attól függően, hogy a fényvisszaverő anyagok csökkenésének és tulajdonságainak szöge. Munkája során VRWORKS AUDIO használja a nagy teljesítményű NVIDIA Optix nagy teljesítményű NVIDIA motor tervezték, hogy nyoma sugarak szerinti grafikai feladatokat. Optix használható különböző feladatokhoz, például a közvetett világítás kiszámításához és a világító kártyák előkészítéséhez, és most a VRWorks audió hanghullámának nyomon követésére.

Az NVIDIA beágyazta a hanghullámok pontos számítását a VR Funouse demonstrációs programba, több ezer sugarakat használ, és legfeljebb 12 tükröződésre számít. És annak érdekében, hogy hozzá előnyeit technológia érthető például, javasoljuk, hogy egy videót a munkáját technológia oroszul:

Fontos, hogy az NVIDIA a megközelítés eltér a hagyományos hang-motorokban, beleértve a hardveresen gyorsított egy speciális blokk a GPU módszer a fő versenytárs. Mindezek a módszerek csak a hangforrások pontos pozícionálását biztosítják, de nem számolják ki a hanghullámok visszaverődését a 3D-s jelenetben lévő objektumokból származó hanghullámok tükrözésében, bár ezt a reverberációs hatás segítségével szimulálhatják. Mindazonáltal a Ray Tracing Technology használata sokkal reálisabb lehet, hiszen csak egy ilyen megközelítés biztosítja a különböző hangok pontos utánzását, figyelembe véve a helyszínen lévő tárgyak méretét, formáit és anyagait. Nehéz megmondani, hogy ilyen pontosságra van szükség-e egy tipikus játékos számára, de biztosan elmondható: VR-ben a leginkább realisztikus felhasználókat adhat hozzá, ami nem elég a szokásos játékokhoz.

Nos, csak a VR SLI technológiáról beszéltünk, az OpenGL-ben és a DirectX-ben. Elve rendkívül egyszerű: a VR alkalmazás két processzor video rendszere úgy működik, hogy minden szem különálló GPU-t osztanak ki, ellentétben az AFR-rendereléssel, amely ismeri az SLI konfigurációit. Ez nagymértékben javítja az általános teljesítményt, olyan fontos a virtuális valóságrendszerek számára. Elméletileg több GPU-t használhat, de mennyisége egyenletesnek kell lennie.

Ilyen megközelítésre volt szükség, mert az AFR gyengén alkalmas VR-re, hiszen az első GPU mindkét szem számára egyenletes keretet fog rajzolni, a második pedig páratlan, ami nem csökkenti a virtuális valóság rendszerét. Bár a keretek gyakorisága elég magas lesz. Tehát a VR SLI-vel, az egyes kereteken végzett munka két GPU-ra oszlik - a bal szemének kereténél dolgozik, a második pedig jobbra van, majd ezek a félkeretek egy egészbe kerülnek.

A grafikus processzorok közötti ilyen munkamegosztás szinte kétszoros teljesítménynövekedést eredményez, amely lehetővé teszi a képsebesség növelését és a késedelmek csökkentését egy videokártyán alapuló rendszerekhez képest. Igaz, a VR SLI használata különleges támogatást igényel az alkalmazásból a skálázási módszer használatához. De a VR SLI technológiát már ilyen demonstrációs VR alkalmazásokba építették, mint a szelep és a tatoin az Ilmxlab-ból, és ez csak a kezdet - Nvidia ígéretét ígéri más alkalmazások megjelenését, valamint a technológia bevezetését az Unreal Engine 4 játékmotorokba , Az egység és a maxplay.

Ansel Game Screenshots létrehozó platform

A szoftverrel kapcsolatos egyik legérdekesebb közlemény volt a kiváló minőségű screenshot technológiák előállítása az egyik híres fotós - Ansel nevű játékalkalmazásokban. A játékok már régóta nem csak játékok, hanem a játékosok helyének helye a különböző kreatív személyiségekre. Valaki megváltoztatja a szkripteket a játékokba, valaki kiváló minőségű textúrákat állít elő a játékokhoz, és valaki - gyönyörű képernyőképeket készít.

Az NVIDIA úgy döntött, hogy segít az utóbbinak, új platformot nyújt be (ez a teremtés, mert ez nem olyan egyszerű folyamat) kiváló minőségű képek a játékokból. Úgy vélik, hogy Ansel segíthet új típusú modern művészetet teremteni. Végtére is nagyon sok művész van, akik a legtöbb életet a PC-nek töltik, gyönyörű képernyőképeket hoztak létre a játékokból, és még mindig nem rendelkeztek kényelmes eszközzel.

Anss lehetővé teszi, hogy ne csak a képet rögzítse a játékban, hanem módosítsa, mivel meg kell teremteni. Ezzel a technológiával a fényképezőgépet a színpadon mozgathatja, forgassa el és dőltesse bármilyen irányba, hogy megkapja a kívánt keretkészítményt. Például, például az ilyen játékokban, mint az első személy lövöldözők, akkor csak a játékos mozgathatod, hogy semmi többet nem fog megváltoztatni, így minden képernyőkép elég monoton. Az ANSEL INGYENES kamerával kijuthatsz a játékkamraból, és ilyen szöget választhat, amely a sikeres képhez szükséges, vagy a teljes körű 360 fokos sztereó rögzítéséhez a kívánt ponttól és nagy felbontású A VR-sisak későbbi megtekintéséhez.

Az Ansel egyszerűen működik - az Nvidia különleges könyvtárával ez a platform bevezetésre kerül a játékkódba. Ehhez a fejlesztőnek csak egy kis kódot kell hozzáadnia a projekthez, hogy lehetővé tegye az NVIDIA Video Drive-t, hogy elfogja a pufferadatokat és az árnyékolókat. Egy kicsit ott dolgozik, az Ansel bevezetése a játékban kevesebb, mint egy napot igényel. Tehát ennek a lehetőségnek a felvétele a játékban a tanú a kód mintegy 40 sorát foglalta el, és a 3-as boszorkányban 3 - körülbelül 150 kódot.

Az Ansel nyílt fejlesztési csomaggal fog megjelenni - SDK. A fő dolog, hogy a felhasználó egy szabványos beállítási készletet kap vele, lehetővé teszi, hogy megváltoztassa a fényképezőgép helyzetét és szögét, effektusokat adjon hozzá, stb. Az Ansel platform így működik: Lehetővé teszi a keret megváltoztatását a kívánt nézetre, a felvételi eredmény a rendszeres képernyőkép formájában, 360 fokos pillanatkép, sztereó párok vagy csak óriási engedélyezett panoráma.

Az egyetlen megjegyzés: Nem minden játék fog kapni támogatást az Ansel játék screenshots összes funkciójához. Néhány játékfejlesztő egy okból, vagy egy másik oknál fogva nem akarnak teljesen szabad kamrát bevonni a játékukban - például annak köszönhetően, hogy ezt a funkciót csalókkal használják. Vagy azt akarják korlátozni a változást a felülvizsgálati szögben ugyanezen okból - hogy senki sem kapott tisztességtelen előnyt. Nos, vagy hogy a felhasználók nem látják a nyomorúságos spriteket a háttérben. Mindez eléggé a játékok alkotói szokásos vágya.

Ansel egyik legérdekesebb tulajdonsága a screenshotok létrehozása, csak egy hatalmas engedély. Nem számít, hogy a játék támogatja a 4K-ig, például a felhasználó monitorját és a teljes HD-t. A képernyőkép eltávolító platform használatával sokkal magasabb minőségű képet rögzíthet a meghajtó hangerejével és teljesítményével. A platform könnyen rögzíti a képernyőképeket akár 4,5 gigapixel felbontással, 3,600 darabnyi varrással!

Nyilvánvaló, hogy az ilyen képeknél az összes részletet figyelembe véve az újságokról szóló szöveget, ha egy ilyen részletességet elvben elvileg a játék - Ansel képes kezelni és kiegyenlíteni a részletességi szintet, A maximális szint kitüntetése a legjobb minőségű kép eléréséhez. De még mindig bekapcsolhatja a szuper bemutatót. Mindez lehetővé teszi, hogy olyan játékokat hozzon létre, amelyek biztonságosan gépelhetnek a nagy bannereken, és nyugodtak a minőségükért.

Érdekes, hogy a CUDA-n alapuló speciális hardveres gyorsított kódot használják nagy képek öltésére. Végtére is, egyetlen videokártya sem lesz képes lassítani az egész többnapos képet, de meg tudja csinálni olyan darabokban, amiket csak akkor kell, ha ezt követned kell, a lehetséges különbség a világítás, a szín és más dolgok.

Az ilyen panorámák varrása után egy speciális utófeldolgozást használnak a teljes kerethez, a GPU-n is felgyorsult. És a képek megnövekedett dinamikus tartományban történő rögzítéséhez speciális képformátumot használhat - exr, nyitott szabvány az ipari fénytől és a mágiából, amelynek színértékei 16 bites lebegőpontos formátumban vannak rögzítve ( FP16).

Ez a formátum lehetővé teszi, hogy megváltoztassa a kép fényerejét és dinamikus tartományát utófeldolgozással, ami ugyanúgy vezeti a kívánt kijelzőt, amint azt a fényképezőgép nyers formátumával végezzük. Igen, és az utófeldolgozó szűrők későbbi felhasználására képfeldolgozó programokban ez a formátum nagyon hasznos, mivel sokkal több adatot tartalmaz, mint a szokásos formátumok.

De az Ansel platform és maga sok szűrőt tartalmaz a poszt-feldolgozáshoz, ami különösen fontos, mert nemcsak a végső képhez, hanem a játék által használt minden pufferhez is hozzáférhet, amikor a renderelés, amely nagyon érdekes hatások esetén használható, mint a mező mélysége. Ehhez Anelnek van egy speciális API-je az utófeldolgozásra, és a hatások bármelyike \u200b\u200bszerepelhet a játékban a platform támogatásával.

A hozzászólás szűri Ansel magában foglalja az ilyen szűrők, mint például: Color Curves, Színtér, átalakítás, deszaturációhoz, fényerő / kontraszt, Film Grain, Bloom, lens flare, Anamorphic ragyogás, Distortion, Heathaze, halszem, Színeltérés, Tone Mapping, Lens Dirt, Lightshafts , Matrica, gamma korrekció, konvolúció, élesítés, élmegjelölés, elmosódás, szépia, denoise, fxaa és mások.

Ami a játékok támogatását illeti, akkor egy kicsit meg kell várnia, amíg a fejlesztők végrehajtásra kerülnek és tesztelik. De NVIDIA ígéri a megjelenése ilyen támogatás olyan híres játékok The Division, a The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man „S Sky, Unreal Tournament és mások.

A 16 nm-es finfet és architektúra optimalizálás új technológiai folyamata lehetővé tette a GeForce GTX 1080 videokártyát a GP104 grafikus processzoron alapuló, 1,6-1,7 GHz-es nagyméretű óriásfrekvencia eléréséhez, még a referencia formában is, és a játékok maximális frekvenciáján dolgozik garantálja az új generációt. GPU Boost technológia. A végrehajtó blokkok megnövekedett számával együtt ezek a fejlesztések az újdonságot nem csak a legmagasabb teljesítményű egyetlen tisztasági videokártyát tettek, hanem a piacon a leginkább energiatakarékos megoldás is.

A GeForce GTX 1080 modell lett az első videokártya, amely új típusú GDDR5X grafikus memóriát hordoz - egy új generációs nagysebességű zseton, amely lehetővé tette egy nagyon nagy adatátviteli frekvencia elérését. A GeForce GTX 1080 módosítása esetén ez a memória 10 GHz-es hatásos gyakorisággal működik. A kiemelt információs tömörítési algoritmusokkal kombinálva 1,7-szerese a grafikus processzor hatékony memória sávszélességének növekedéséhez vezetett, szemben a GeForce GTX 980 felületének közvetlen elődjével.

NVIDIA körültekintően döntött, hogy nem mentesít egy gyökeresen új architektúra egy teljesen új technikai eljárást magát annak érdekében, hogy ne találkozik extra problémákat fejlesztésével és gyártásával foglalkozik. Ehelyett komolyan javultak, és olyan jó és nagyon hatékony Maxwell építészet, néhány lehetőséget adva. Ennek eredményeképpen az új GPU termelésével minden rendben van, és a GeForce GTX 1080-as modellje esetében a mérnökök nagyon nagy frekvenciájú potenciált érnek el - a partnerek túlhajtott lehetőségeit, a GPU-gyakoriság várhatóan 2-re várható GHz! Az ilyen lenyűgöző frekvencia valódi köszönhetően a tökéletes folyamatnak és az NVIDIA mérnököknek a Pascal grafikus processzor kialakítása során.

És bár Pascal vált közvetlen követője Maxwell, és ezeket grafikus architektúra alapján a saját túl sokban különbözik egymástól, NVIDIA vezetett be sok változások és fejlesztések, beleértve a képességét, hogy kijelző képeket jelenít kódoló motor és videó Dekódoló motor, javított aszinkron A GPU különböző típusú számítások végrehajtása, megváltoztatta a multimele-renderelést, és új szinkronizálási módszert hajtott végre a gyors szinkronizáláshoz.

Lehetetlen, hogy ne emeljük ki az egyidejű, többrétegű multiproying technológiát, amely segíti a virtuális valóságrendszerek termelékenységének növelését, a multimuláris rendszerek pontosabb megjelenítését, és új teljesítményoptimalizálási technikákat alkalmaznak. De a legnagyobb sebességnövekedés kap egy VR-alkalmazást, ha a többszörös profilos technológiát támogatják, ami segít a GPU erőforrásainak megmentéséhez a geometriai adatok feldolgozása és másfélszer - pixelszámítással.

A tiszta szoftverváltozások közül a platform különösen kiemelve a screenshotok létrehozására az Ansel nevű játékokban - Próbálja ki az ügyben, nemcsak sok játék, hanem csak a kiváló minőségű 3D-s grafika is érdekel. Az újdonság lehetővé teszi, hogy elősegítse a képernyőképek létrehozásának és retusálásának művészetét egy új szintre. Nos, ilyen a csomagokat a játékfejlesztők, mint Gameworks és VrWorks, NVIDIA egyszerűen tovább javul, lépésről lépésre - így az utóbbi volt egy érdekes lehetőség, a kiváló minőségű hangkártya hang, figyelembe véve számos reflexiók hanghullámok A sugarak hardverkövetése.

Általánosságban elmondható, hogy NVIDIA GeForce GTX 1080 videokártya, egy igazi vezető szerepet kapott a piacra, amelynek minden szükséges tulajdonsága van ehhez: nagy teljesítmény és széles körű funkciók, valamint az új funkciók és algoritmusok támogatása. Az első vásárlók a videokártya képes lesz értékelni sok ilyen előnyök azonnal, és egyéb lehetőségek megoldások felfedi egy kicsit később, amikor már széles körű támogatást a szoftver. A fő dolog az, hogy a GeForce GTX 1080 nagyon gyors és hatékonynak bizonyult, és néhány probléma helyet (ugyanazt az aszinkron számításokat), ahogy reméljük, hogy Nvidia sikerült javítani.

GeForce GTX 1070 grafikus gyorsító

ParaméterÉrték
Kódnév chip.Gp104.
Gyártástechnológia16 nm finfet.
A tranzisztorok száma7,2 milliárd
Square nucleus314 mm²
ÉpítészetEgységes, közös processzorok tömbjével a számos adattípus streameléséhez: csúcsok, képpontok stb.
Hardver támogatás DirectXDirectX 12, támogatással a 12_1
Memória busz.256 bites: nyolc független 32 bites memória vezérlők, amelyek támogatják a GDDR5 és a GDDR5X memóriát
A grafikus processzor gyakorisága1506 (1683) MHz
Számítógépes blokkok15 aktív (20-tól Chip) Streaming Multiprocesszorok, amelyek 1920-at (2560-ból származnak) Scalar Alu az IEEE 754-2008 szabvány szerinti lebegőpontos számításokhoz;
Texturing blokkok120 aktív (160-ból a chipen) Textúra-blokkok címzése és szűrése FP16- és FP32 komponens-hordozóval Textúrák és hordozható Trilinári és anizotróp szűréshez minden texturális formátumhoz
Raszterműveletek blokkjai (ROP)8 Széles rop blokk (64 képpont) különböző simítási módok, beleértve a programozható és az FP16 vagy FP32 keretformátumot. A blokkok a konfigurálható Alu tömbjéből állnak, és felelősek a generációért és a mélység összehasonlításáért, a multisampling és a keverésért
Figyeli a támogatástIntegrált támogatás Legfeljebb négy monitor csatlakoztatva a kettős összekötő DVI interfészekhez, a HDMI 2.0B és DisplayPort 1.2 (1.3 / 1.4 kész)

A referencia-videokártya előírásai GeForce GTX 1070
ParaméterÉrték
A mag gyakorisága1506 (1683) MHz
Univerzális processzorok száma1920
A texturális blokkok száma120
A hibás blokkok száma64
Hatékony memóriafrekvencia8000 (4 × 2000) MHz
Memória típusaGddr5
Memória busz.256-bit
Memória méret8 GB
Memória sávszélesség256 GB / s
Számítástechnikai teljesítmény (FP32)körülbelül 6,5 teraflops
Elméleti maximális tormális sebesség96 gigapixel / with
Elméleti mintavételi minta textúrák181 Gigalexels / with
GumiPCI Express 3.0
CsatlakozókEgy kettős kapcsolat DVI csatlakozó, egy HDMI és három displayport
Energia fogyasztáslegfeljebb 150 W.
További táplálékEgy 8 PIN csatlakozó
A rendszerkumulátorban elfoglalt rések száma2
Ajánlott ár$ 379-449 (USA), 34 990 (Oroszország)

A GeForce GTX 1070 videokártya olyan logikai nevet is kapott, amely hasonló az előző GeForce sorozat azonos megoldásához. Ez eltér a közvetlen elődjétől GeForce GTX 970 csak módosított generációtól. Az újdonság a vállalat jelenlegi sorában, hogy lépjen alá a jelenlegi Legjobb megoldás GeForce GTX 1080, amely az új sorozat ideiglenes kiemelkedő lett a GPU megoldások felszabadításához még nagyobb teljesítmény.

Az új Nvidia Top Video Holiday ajánlott árai 379 dollár és 449 dollár az NVIDIA partnerek szokásos verzióira és az alapítók kiadásának különleges kiadására. A felső modellhez képest nagyon jó ár, mivel a GTX 1070 a legrosszabb esetben 25% -kal alacsonyabb. És a bejelentés idején, és a GTX 1070 kiadása a legjobb megoldás az osztályában. A GeForce GTX 1080-hoz hasonlóan a GTX 1070 modellnek nincs közvetlen versenytársai az AMD-től, és lehet összehasonlítani, kivéve Radeon R9 390x-t és dühöt.

A GP104 grafikus processzor a GeForce GTX 1070 módosításban úgy döntött, hogy egy teljes 256 bites memóriabuszt hagy el, bár nem új típusú GDDR5X memóriát alkalmaz, de nagyon gyors GDDR5, amely magas 8 GHz-es frekvencián működik. A memória videokártya ilyen gumiabroncsdal 4 vagy 8 GB-nak lehet, és biztosítja a maximális megoldás maximális teljesítményét nagy beállításokban és renderelési felbontásban, a GeForce GTX 1070 videokártya modellje 8 GB-os Videó memória, mint az idősebb nővére. Ez a kötet elegendő ahhoz, hogy több éven át bármilyen 3D-s alkalmazást indítson el.

Speciális Edition GeForce GTX 1070 alapítói kiadás

A GeForce GTX 1080 bejelentése májusban az alapítói kiadás nevű videokártya különleges kiadása, amely magasabb áron, a vállalat partnerei hagyományos videokártyájához képest. Ugyanez vonatkozik az újdonságra is. Ebben az anyagban ismét elmondjuk a GeForce GTX 1070 videokártya különleges kiadását az alapítói kiadásnak. Mint a régebbi modell esetében az NVIDIA úgy döntött, hogy a gyártó referencia-videokártyájának ezt a verzióját magasabb áron engedje el. Azt állítják, hogy sok játékos és rajongó vásárol drága felső szintű videokártyákat, amelyek egy megfelelő "prémium" fajokkal és érzéssel rendelkeznek.

Ennek megfelelően, éppen az ilyen felhasználók számára, hogy a piac, a GeForce GTX 1070 Alapítók Edition videokártya fog megjelenni, amelyet arra terveztek és készítettek NVIDIA mérnökei kiváló minőségű anyagok és alkatrészek, mint például az alumínium GEFORCE GTX 1070 Alapítók Edition burkolatot, mivel valamint alacsony profilú hátsó lemez, amely a nyomtatott áramköri kártya gyökér oldalát lefedi, és nagyon népszerű a rajongók körében.

Amint láthatja az igazgatótanács fényképeit, a GeForce GTX 1070 alapítói kiadás pontosan ugyanazt az ipari tervezést örökölte a Geforce GTX 1080 alapítói kiadás referenciaverziójában. Mindkét modellben radiális ventilátorot használnak, kifelé dobva a fűtött levegőt, amely nagyon hasznos mind kis esetekben, mind multimeri SLI konfigurációkban, korlátozott fizikailag térben. A fűtött levegőt kívülre fújja, ahelyett, hogy a vérkeringése az esetben a hőmérséklet-terhelést csökkenti, növeli a túlcsordulás eredményeit és kiterjeszti a rendszerkomponensek élettartamát.

A referenciahűtő rendszer fedele alatt a GeForce GTX 1070 alumínium speciális alakú radiátorral van elrejtve, három beépített hőcsövekkel a rézből, eltávolítja a hőt a grafikus processzorból. A hőcsövek által felosztott hő, majd eloszlik egy alumínium radiátor alkalmazásával. Nos, az alacsony profilú fémlemez a tábla hátulján is tervezték, hogy jobb hőmérsékleti jellemzőket biztosítson. A SLI konfigurációban több videokártya közötti jobb levegőmozgáshoz is visszahúzható szakasza is van.

Ami az áramellátó rendszert illeti, a GeForce GTX 1070 alapítói kiadás négyfázisú táplálkozási rendszerrel rendelkezik egy stabil energiaellátáshoz. Az NVIDIA biztosítja, hogy a GTX 1070 alapítói kiadásban speciális összetevők használata lehetővé tette a tápellátás hatékonyságának, stabilitásának és megbízhatóságának növelését a GeForce GTX 970-hez képest, jobb teljesítményt nyújtva a gyorsulás során. A vállalat saját tesztjeiben a GeForce GTX 1070 kártyák könnyen jobbak, mint az 1,9 GHz, ami közel van az idősebb GTX 1080 modell eredményéhez.

Az NVIDIA GeForce GTX 1070 videokártya június 10-től kezdődő kiskereskedelmi üzletekben lesz elérhető. A GeForce GTX 1070 alapítói számára ajánlott árak eltérőek, és ez a különleges kiadvány legfontosabb kérdése. Ha az NVIDIA partnerek értékesítik a GeForce GTX 1070 videokártyáikat áron, 379 dollárból (az amerikai piacon), az NVIDIA referencia kialakításának alapítói 449 dollárba kerülnek. Vannak sok rajongó, készen áll a túlfizetésre, mondjuk egyenes, kétes előnye a referencia opció? Az idő meg fogja mondani, de úgy véljük, hogy a referencia díja sokkal érdekesebb, mint egy olyan lehetőség, amely az értékesítés kezdetén vásárolható, és később megszerzése (akár nagy áron is!) Ez már nullára csökken.

Továbbra is hozzá kell adnia, hogy a Referencia GeForce GTX 1070 referencia díja hasonló a régebbi videokártyához, és mindkettő különbözik a vállalat korábbi tábláitól. Az újdonság tipikus innovációjának értéke 150 W, ami kevesebb, mint a GTX 1080 értéke közel 20% -kal, közel 20% -kal, az előző generációs GeForce GTX 970 energiafogyasztásához. Az NVIDIA referencia-kártya már ismerős csatlakozókészülékkel rendelkezik A képkimeneti eszközök csatlakoztatásához: egy Dual-Link DVI, egy HDMI és három displayport. Ezenkívül megjelent a HDMI és Displayport új verzióinak támogatása, amelyet a GTX 1080 modell áttekintéséről írtunk.

Építészeti változások

A GeForce GTX 1070 videokártya a GP104 chipen alapul, az NVIDIA grafikus építészet új generációjának első ágyán - Pascal. Ez az architektúra olyan megoldáson alapult, amely még Maxwell-ben töltött, de olyan funkcionális különbségeket is tartalmaz, amelyekről részletesen részletesen írtunk - a Topboard GeForce GTX 1080 videokártyára szentelt részben.

Az új architektúra fő változása volt a technológiai folyamat, amelyen minden új grafikus feldolgozó elvégezhető. Az alkalmazás a technikai folyamat 16 nm FinFET a termelés GP104 lehetővé tette, hogy jelentősen növeli a komplexitás a chip, miközben a viszonylag kis területen és a költségek, és az első Pascal architektúra chip egy érezhetően végrehajtó egységek, ideértve az Új funkcionalitás, a Maxwell Chips hasonló pozícionálásához képest.

A GP104 video chip a készülékén hasonló a Maxwell architektúra hasonló megoldásaihoz, és részletes adatok a modern GPU-k eszközein megtalálható Nvidia korábbi megoldásai közül. Az előző grafikus processzorokhoz hasonlóan az új architektúra-chipek eltérőek lesznek a grafikus feldolgozó klaszterszámítógép-számítástechnikai klaszter klaszter, streaming többprocesszorok streaming többprocesszor (SM) és memóriavezérlők, valamint a GeForce GTX 1070 néhány változás történt - a chip része blokkolt és inaktív (kiemelt szürke):

Bár a GP104 grafikus processzor négy GPC-klasztert és 20 SM többprocesszort tartalmaz, a GeForce GTX 1070 verziójában, egy GPC-klaszter által letiltott hardverrel ellátott vágott módosítást kapott. Mivel minden GPC-klaszternek van egy dedikált raszterizáló motorja, és öt SM multiprocesszorot tartalmaz, és minden egyes többprocesszor 128 Cuda-mag és nyolc TMU textúra blokkból áll, majd a GP104 1920 Cuda-nucleei és a 120 TMU blokkok 2560 streaming processzoraiból és 160 fizikailag meglévő texturális blokkok.

A GeForce GTX 1070 videokártyán alapuló grafikus processzor nyolc 32 bites memória vezérlőket tartalmaz, amelyek összesen 256 bites memóriabuszt biztosítanak - pontosan az idősebb GTX 1080 modell esetében. A memória alrendszer nem volt A GDDRI GTX 1070-es GDDR5 memória használatának feltétele érdekében elegendő nagy sávszélességű memória biztosítása érdekében a memóriablokkok mindegyikéhez a második szintű gyorsítótárhoz kapcsolódik, így a GP104 chip, így a GP104 chip 256 kb A módosítás 64 ROP-t és 2048 kb-os készpénzmemória blokkot tartalmaz.

Az építészeti optimalizálásnak és az új folyamatnak köszönhetően a GP104 grafikus processzor jelenleg a leginkább energiatakarékos grafikus processzor lett. Az NVIDIA mérnökei jobban tudták növelni az órajel-frekvenciát, mint amennyit egy új technikai folyamatba való áttéréskor kiszámították, amelyhez jól kellett dolgozniuk, alaposan ellenőrizni és optimalizálni az olyan korábbi megoldások szűk keresztmetszetét, amelyek nem teszik lehetővé, hogy nagyobb gyakorisággal működjenek . Ennek megfelelően a GeForce GTX 1070 szintén nagyon nagy gyakorisággal működik, több mint 40% -kal magasabb, mint a GeForce GTX 970 referenciaértékei.

Mivel a GeForce GTX 1070 modell lényegében csak egy kicsit kevésbé produktív GTX 1080 a GDDR5 memóriával, az előző szakaszban feltüntetett összes technológiát támogatja. A Pascal Architecture-ről, valamint az informatikai technológiák, például az informatikai technológiák, például a kimeneti blokkok és a videoadatok feldolgozása, az aszinkron számítástechnika támogatása, az aszinkron számítástechnika Async kiszámítása, egyidejű többrétegű többprocessző technológia, az SLI többszörös renderelés változásai és a Új típusú szinkronizálás gyors szinkronizálása, érdemes megismerni a GTX 1080 részt.

Nagy teljesítményű GDDR5 memória és hatékony felhasználása

A GP104 grafikus processzoron lévő memória alrendszer változásairól írtunk, amely a GEFORCE GTX 1080 és a GTX 1070 modelleken alapul - a GPU összetételének memória vezérlőként új típusú GDDR5X video memória, amely A GTX 1080 felülvizsgálatában részletesen írta. és a régi jó GDDR5-memória, amelyet több éve ismert.

Annak érdekében, hogy ne veszítsen túl sokat a memória sávszélességben a Younger Model GTX 1070-ben, összehasonlítva a régebbi GTX 1080-hoz képest, mind a nyolc 32 bites memóriavezérlő aktív volt, miután teljes körű 256 bites közös video memória interfészt kapott. Ezenkívül a videokártya fel van szerelve a legmagasabb sebességű GDDR5-memóriával, amely csak a piacon áll rendelkezésre - hatékony 8 GHz-es munkafolyamattal. Mindezek a 256 GB / s-nél a 320 GB / s-nél eltérő PS-k, 320 GB / s-vel ellentétben egy vezető megoldásnál - ugyanazon az összeg és a számítási képességek csökkentették, így az egyensúlyt figyelték meg.

Ne felejtsük el, hogy bár a csúcs elméleti sávszélessége fontos a grafikus processzorok teljesítményéhez, figyelmet kell fordítania a használat hatékonyságára. A renderelés folyamatában sok különböző szűk keresztmetszet korlátozhat az általános teljesítményt anélkül, hogy az összes rendelkezésre álló PSP használatát hagyná. A keskeny ülések számának minimalizálása érdekében a grafikus processzorok a veszteség nélküli információk speciális tömörítését használják, javítva az olvasási és írási műveletek hatékonyságát.

A Pascal architektúrában a pufferinformáció delta-tömörítésének negyedik generációját vezették be, így a GPU hatékonyabban használja a rendelkezésre álló video memória gumiabroncs-képességeket. A GeForce GTX 1070 és a GTX 1080 memória alrendszere javítja a régi és több új adatgyűjtési technikát veszteség nélkül, amely csökkenti a PSP követelményeinek csökkentését. Ez csökkenti a memóriában rögzített adatok számát, javítja az L2 gyorsítótár használatának hatékonyságát, és csökkenti a különböző GPU pontok közötti adatokat, mint például a TMU és a Fresimbuple.

GPU Boost 3.0 és gyorsítási funkciók

A legtöbb NVIDIA partnerei már bejelentette a gyár alapuló döntések GeForce GTX 1080 GTX 1070. És sok a videokártya gyártó is készít speciális overclocking közművek, hogy az új GPU Boost 3.0 technológia alkalmassága. Az ilyen segédprogramok egyik példája az EVGA Precision Xoc, amely magában foglalja az automatikus szkennert, hogy meghatározza a feszültség arányát és a frekvencia görbét - ebben a módban mindegyik üzemmódban a Stabilitási Teszt indítással rendelkező feszültségértékek esetében stabil frekvencia van a GPU-nál növeli a teljesítményt. Azonban ez a görbe manuálisan módosítható.

Ismerjük a GPU Boost technológiát az előző NVIDIA videokártyákon. A grafikai processzoraiban ezt a hardveres funkciót használják, amelynek célja a GPU munkaköri gyakoriságának növelése a módokban, amikor még nem érte el az energiafogyasztást és a hőengedményeket. Pascal grafikus processzoraiban ez az algoritmus több változáson ment keresztül, amelynek fő része a feszültségtől függően a turbófrekvenciák finomabb települése lett.

Ha korábban az alapfrekvencia és a turbófrekvencia közötti különbség van rögzítve, akkor a GPU Boost 3.0-ban a Turbo frekvencia elmozdulásokat külön-külön telepíthetjük. Most a turbófrekvencia telepíthető az egyes feszültségértékek mindegyikére, amely lehetővé teszi, hogy teljes mértékben összenyomja a GPU-tól való túlcsordulás lehetőségeit. Írtunk részletesen erről a lehetőségről, a GeForce GTX 1080 áttekintés, és erre akkor a EVGA Precision Xoc és MSI Afterburner közművek.

Mivel a GPU Boost 3.0 támogatásával rendelkező videokártyák felszabadításának módja során néhány részlet megváltozott, az NVIDIAnek további magyarázatot kellett tennie az új termékek túlcsordulásának utasításaiban. Különböző gyorsítási technikák vannak különböző változókkal, amelyek befolyásolják a végeredményt. Minden egyes rendszer esetében jobb lehet egy bizonyos módszerhez közelíteni, de az alap mindig ugyanaz.

A rendszer stabilitásának ellenőrzése érdekében a rendszer stabilitását ellenőrizze, hogy az Unigine Heaven 4,0 benchmarkot használja, amely tökéletesen betölti a grafikus processzort a munkával, rugalmas beállításokkal rendelkezik, és az ablak üzemmódban futtatható a közüzemi ablakban a túlcsorduláshoz és a nyomon követéshez, mint az EVGA Precíziós vagy MSI Websburner. Azonban az ilyen ellenőrzés csak az első támadásokhoz elegendő, és a túlhajtás stabilitásának erős megerősítéséhez több játék alkalmazásban ellenőrizni kell, mert a különböző játékok különböző terhelést sugallják a különböző GPU funkcionális blokkoknál: matematikai, texturális, geometriai . A Heaven 4,0 benchmark is kényelmes a túlcsordulás feladata, mert van egy lombos működési módja, amelyben kényelmes megváltoztatni a túlhajtási beállításokat, és van egy referenciaérték a sebesség sebességének értékeléséhez.

NVIDIA azt tanácsolja, ha tuningolás új GeForce GTX 1080 GTX 1070 videokártyák futtatni a HEAVEN 4.0 és EVGA Precision XOC ablakok együtt. Először is tanácsos azonnal növelni a ventilátor forgását. És egy komoly túlcsordulás esetén azonnal beállíthatja a sebesség értékét 100% -kal, ami a videokártyát nagyon hangos, de a GPU maximális hűtése és a videokártya fennmaradó összetevői csökkentik, csökkentve a hőmérsékletet A lehető legalacsonyabb szint, a trotting megelőzése (a GPU hőmérséklet-növekedés miatti frekvenciák csökkentése bizonyos érték felett).

Ezután telepítenie kell a célteljesítményértéket (teljesítménycél) is. Ez a beállítás grafikus processzort biztosít az energia maximális mennyiségével, növelve az energiafogyasztás szintjét és a cél GPU hőmérsékletét (GPU Temp Target). Bizonyos célokra a második értéket elválaszthatjuk a teljesítménycél megváltoztatásától, majd ezek a beállítások egyedileg konfigurálhatók - például a video chip kisebb melegítéséhez.

A következő lépés az, hogy növelje a video chip frekvencia-nyeresége értékét (GPU óra eltolás) - ez azt jelenti, hogy milyen nagy a turbófrekvencia, amikor dolgozik. Ez az érték növeli az összes feszültségérték gyakoriságát, és nagyobb teljesítményt eredményez. A szokásos módon, amikor a túlhajtás során ellenőriznie kell a stabilitást, amikor növeli a GPU frekvenciáját kis lépésekben - 10 MHz-től 50 MHz-ig egy lépéssel, mielőtt lógna, az illesztőprogram hibája vagy alkalmazása, vagy akár vizuális tárgyak. Ha ilyen korlátot érünk el, akkor csökkenteni kell a frekvenciaértéket, hogy leállítsa és ellenőrizze a stabilitást és a teljesítményt, amikor túllépi.

A GPU frekvencián kívül növelheti a video memória frekvenciáját (memóriakártya-offset), amely különösen fontos a GEFORRE GTX 1070 esetében, amely GDDR5-memóriával felszerelt, ami általában felgyorsul. Az eljárás abban az esetben a frekvencia memória pontosan megismételjük, mi történik, amikor megállapította, stabil GPU frekvencia, az egyetlen különbség az, hogy a következő lépéseket lehet tenni a nagyobb - hozzá 50-100 MHz egyszerre alapfrekvencia.

A fent leírt lépések mellett növelheti a feszültségkorlátot (túlfeszültség), mivel a grafikus processzor nagyobb frekvenciája gyakran megnövekedett feszültséggel érhető el, ha a GPU instabil részei a további teljesítményt kapják. Igaz, ennek az értéknek a potenciális hátránya a videó chip és a gyorsított hiba károsodásának lehetősége, ezért rendkívül óvatosan kell használni a feszültséget.

A túlcsordulás szerelmeseinek több különböző technikát használnak, a paraméterek megváltoztatását különböző sorrendben. Például néhány overclockers megosztja a kísérleteket a stabil GPU frekvenciájának és memóriájának megtalálásában, hogy ne zavarják egymást, majd teszteljék a kombinált overclocking és video chipet és a memória chipeket, de ezek az egyéni megközelítés irreleváns részletei.

A fórumok és a cikkek megjegyzései alapján egyes felhasználók úgy tűntek, hogy egyes felhasználók úgy tűntek, hogy megkóstolták az új GPU Boost 3.0 algoritmust, amikor a GPU frekvencia először nagyon magas, gyakran magasabb, mint a turbófrekvencia, hanem a hatása alatt GPU hőmérséklet vagy megnövekedett energiafogyasztás a határ felett, ez jelentősen kisebb értékekre eshet. Ez egyszerűen a frissített algoritmus sajátosságai, meg kell adnod a dinamikusan változó GPU-gyakoriság új viselkedését, de nem hordoz semmilyen negatív következményeket.

A GeForce GTX 1070 videokártya a GTX 1080 modell után változik az NVIDIA új sorában, a Pascal grafikus processzorok alapján. Az új technológiai folyamat 16 Nm FinFET és optimalizálása architektúra lehetővé tette a videokártya képviselte, hogy magas órajel, amelyben segít az új generációs GPU Boost technológiát. Még a streaming processzorok és a texturális modulok formájában lévő funkcionális blokkok díszített mennyiségének ellenére, számuk elegendő ahhoz, hogy a GTX 1070 a leginkább jövedelmezőbb és energiatakarékos megoldássá váljon.

Telepítés a fiatalabb pár megjelent modellek NVIDIA videokártyák a GDDR5 memória GP104 GP104 chip, ellentétben az új GDDR5X típusú, amelyet az jellemez, GTX 1080, nem akadályozza meg, hogy nagy teljesítményt mutatók. Először is, az NVIDIA úgy döntött, nem vágja a memória busz a GeForce GTX 1070 modell, másrészt, ez volt telepítve a leggyorsabb GDDR5 memória effektív frekvenciája 8 GHz, ami alatt 10 GHz GDDR5X régebbi modell. Figyelembe véve a javított delta tömörítési algoritmusok, az effektív sávszélesség kapacitása a grafikus processzor vált felett ugyanaz a paraméter egy hasonló modellt az előző generációs GeForce GTX 970.

A GeForce GTX 1070 jó, mivel nagyon nagy teljesítményt és támogatást nyújt az új funkciók és algoritmusok számára, amelyek jelentősen kevesebb áron vannak, szemben a régebbi modellt egy kicsit korábban bejelentették. Ha az 55.000 GTX 1080-as beszerzése önmagában is lehetővé teszi a rajongók egységeit, akkor csak egy negyedévben 35 000-et helyez el, kevésbé produktív döntés, ugyanazokkal a lehetőségekkel, amelyek ugyanazokkal a lehetőségekkel rendelkeznek, amelyek már sokkal nagyobb a potenciális vásárlók lehetnek. Ez egy viszonylag alacsony ár és nagy teljesítményű GeForce GTX 1070 kombinációja, talán a felszabadulás időpontjában a leginkább nyereséges megszerzést.

GeForce GTX 1060 Grafikus gyorsító

ParaméterÉrték
Kódnév chip.GP106.
Gyártástechnológia16 nm finfet.
A tranzisztorok száma4,4 milliárd
Square nucleus200 mm²
ÉpítészetEgységes, közös processzorok tömbjével a számos adattípus streameléséhez: csúcsok, képpontok stb.
Hardver támogatás DirectXDirectX 12, támogatással a 12_1
Memória busz.192 bites: hat független 32 bites memóriavezérlők GDDR5 memória támogatással
A grafikus processzor gyakorisága1506 (1708) MHz
Számítógépes blokkok10 streaming multiprocesszorok, amelyek 1280 Scalar Alu-t tartalmaznak az IEEE 754-2008 szabványban lebegő pontosvolonokhoz;
Texturing blokkok80 Textúra-blokkok, és szűrjük az FP16- és FP32 komponens-hordozót Textúrákban és Trilinári és anizotróp szűréshez az összes texturális formátumhoz
Raszterműveletek blokkjai (ROP)6 Széles rop blokk (48 képpont) különböző simítási módok, beleértve a programozható és az FP16 vagy az FP32 keret puffer formátumát. A blokkok a konfigurálható Alu tömbjéből állnak, és felelősek a generációért és a mélység összehasonlításáért, a multisampling és a keverésért
Figyeli a támogatástIntegrált támogatás Legfeljebb négy monitor csatlakoztatva a kettős összekötő DVI interfészekhez, a HDMI 2.0B és DisplayPort 1.2 (1.3 / 1.4 kész)

GeForce GTX 1060 Referencia videokártya Műszaki adatok
ParaméterÉrték
A mag gyakorisága1506 (1708) MHz
Univerzális processzorok száma1280
A texturális blokkok száma80
A hibás blokkok száma48
Hatékony memóriafrekvencia8000 (4 × 2000) MHz
Memória típusaGddr5
Memória busz.192-bitek
Memória méret6 GB
Memória sávszélesség192 GB / s
Számítástechnikai teljesítmény (FP32)körülbelül 4 Teraflops.
Elméleti maximális tormális sebesség72 gigapixel / a
Elméleti mintavételi minta textúrák121 Gialexels / with
GumiPCI Express 3.0
CsatlakozókEgy kettős kapcsolat DVI csatlakozó, egy HDMI és három displayport
Tipikus energiafogyasztás120 W.
További táplálékEgy 6 pólusú csatlakozó
A rendszerkumulátorban elfoglalt rések száma2
Ajánlott ár249 $ (299 $) az USA-ban és 18 990-ben Oroszországban

A GeForce GTX 1060 videokártya ugyanúgy megkapta az előző GeForce sorozat azonos megoldásához hasonló nevet, amely különbözik a GeForce GTX 960 közvetlen elődjeinek nevétől, csak egy megváltozott első számjegyű generációval. Az újdonság a vállalat jelenlegi vonalává vált, hogy lépjen be a korábban kiadott GeForce GTX 1070 megoldások alatt, ami az új sorozat átlagos sebessége.

Az NVIDIA új videokártya-társaság ajánlott árai 249 és 299 dollár a vállalat partnerei szokásos verzióira és az alapító kiadásának különleges kiadására szolgálnak. A két vezető modellhez képest ez egy nagyon kedvező ár, mivel az új GTX 1060 modell kevésbé alacsonyabb a felső kifizetéseknél, de nem annyira, mint olcsóbb. A bejelentés idején az újdonság tökéletesen lett a legjobb teljesítmény az osztályában és az egyik leginkább jövedelmező ajánlat ebben az árkategóriában.

Az Nvidia család Nvidia családjának ez a videokártya-modellje kimerült az AMD versenytárs cég legújabb megoldásához, amely egy kicsit korábban kiadta a Radeon RX 480 piacot. Az NVIDIA regényének összehasonlítása ezzel a videokártyával, bár ez az nem teljesen más, mivel még mindig jelentősen eltérőek az áron.. A GeForce GTX 1060 drágább (249-299 $ 199-229 ellen), de nyilvánvalóan egy versenyző gyorsan.

A GP106 grafikus processzornak 192 bites memóriája van, így az ilyen gumiabroncsokkal ellátott videokártyára szerelt memória mennyisége 3 vagy 6 GB lehet. A modern körülmények között kevés értékű, nem elég, és sok játékprojekt még a teljes HD-felbontásban is pihenhet a video memória hiányában, ami komolyan befolyásolja a renderelés simaságát. Az új megoldás maximális teljesítményének biztosítása érdekében a GeForce GTX 1060 videokártya-modell 6 GB video memóriával volt felszerelve, amely elegendő a 3D-s alkalmazások elindításához bármilyen minőségi beállításokkal. Ráadásul ma egyszerűen nincs különbség 6 és 8 GB között, és néhány pénz megment egy ilyen megoldást.

Az újdonság tipikus innovációjának értéke 120 W, ami kevesebb, mint a GTX 1070 értéke 20% -kal, és egyenlő az előző generációs GeForce GTX 960 videokártya energiafogyasztással, amely sokkal kevesebb teljesítményt és képességekkel rendelkezik. A Reference Board ismerős csatlakozókészülékkel rendelkezik a képkimeneti eszközök csatlakoztatásához: egy Dual-Link DVI, egy HDMI és három displayport. Ezenkívül megjelent a HDMI és Displayport új verziói, amelyeket a GTX 1080 modellről írtunk.

A GeForce GTX 1060 hivatkozási díj hossza 9,8 hüvelyk (25 cm), és a különbség a felső lehetőséget, külön figyelembe, hogy a GeForce GTX 1060 nem támogatja a konfiguráció az SLI több megjelenítés, és nem rendelkezik egy speciális csatlakozóval erre. Mivel az igazgatóság kevesebb energiát fogyaszt, mint a régebbi modellek, akkor egy 6 pólusú PCI-E tápegység-csatlakozót telepítettek a díjkor.

GeForce GTX 1060 videokártyák jelent meg a piacon, mivel a bejelentés a cég partnere termékek: ASUS, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. A GeForce GTX 1060 alapítói kiadásának különleges kiadása, amelyet az NVIDIA gyártott, korlátozott számban lesz kiadva, amelyet kizárólag az NVIDIA honlapján 299 dollár áron értékesítenek, és hivatalosan Oroszországban kerülnek bemutatásra. Az alapító kiadását jellemzi, hogy kiváló minőségű anyagokból és komponensekből készül, beleértve az alumínium tokot is, és hatékony hűtőrendszert használnak, valamint alacsony ellenállású tápellátási láncokat és speciális tervezési feszültségszabályozókat használnak.

Építészeti változások

A GeForce GTX 1060 videokártya a GP106 modell teljesen új grafikus processzorán alapul, amely nem funkcionálisan különbözik a Pascal architektúrától a GP104 chip formájában, amely leírja a GeForce GTX 1080 és a GTX 1070 modelleket. Ez építészet alapuló megoldásokat dolgoztak ki még Maxwell, de van néhány funkcionális különbségek amiről írtam korábban már részletesen.

A készülék GP106 video chipje hasonló a Pascal Top Chip és a Maxwell architektúra hasonló megoldásaihoz, és részletes információkat talál a modern GPU eszközről az Nvidia véleményein. Az előző grafikus processzorokhoz hasonlóan az új architektúra chipjei a grafikus feldolgozó klaszter-klaszter klaszter, a streaming többprocesszorok streaming multiprocesszor (SM) és a memóriavezérlők streaming, valamint a memóriavezérlők:

A GP106 grafikus processzor két GPC-klasztert tartalmaz, amelyek 10 streaming többprocesszorból állnak (streaming multiprocesszor - SM), vagyis a meglévő GP104 pontos fele. Mint az idősebb GPU-ban, mindegyik többprocesszorok 128 számítástechnikai magot, 8 TMU textúra blokkot, 256 kb regiszter memóriát, 96 kb megosztott memóriát és 48 kb-t az első szint gyorsítótárból. Ennek eredményeként a GeForce GTX 1060 összesen 1280 számítástechnikai magot és 80 textúra modulot tartalmaz - kétszer kisebb, mint a GTX 1080.

De a GTX 1060 memória alrendszer nem díszítve a felére csökkent képest a felső oldatot, tartalmaz hat 32-bites memória vezérlők, hogy így összesen 192-bites memória busz. A GDDR5-VIDEO memória hatékony gyakoriságával a GeForce GTX 1060, 8 GHz-es, a sávszélesség eléri a 192 GB / s-t, ami nagyon jó megoldani ezt az árszegmenset, különösen a Pascal használatának nagy hatékonyságát. Nyolc a ROP és 256 KB második szintű cache blokkok vannak kötve mind a memória vezérlő, ezért általában a teljes verzió a GP106 grafikus processzor tartalmaz 48 blokkokat a ROP és 1536 CB L2-gyorsítótár.

A Pascal architektúrában rendelkezésre álló Pascal memória sávszélességének és hatékonyabb felhasználásának csökkentése érdekében a veszteség nélküli információk intracepikus tömörítése továbbá javul, amely képes a pufferek adatainak tömörítésére, a hatékonyság és a teljesítmény növelése. Különösen a delta tömörítés új módszerei 4: 1 és 8: 1 arányúak hozzáadásával az új család zsetonjaihoz 4: 1 és 8: 1 arányúak, így további 20% -ot biztosítunk a PSP a Maxwell család korábbi megoldásaihoz képest.

Az új GPU alapfrekvenciája 1506 MHz-vel egyenlő - a frekvenciát nem lehet elvileg elvileg leereszteni. Egy tipikus turbo frekvencia (kiemelés Clock) jóval magasabb, és egyenlő a 1708 MHz-es átlagos értéke a tényleges frekvencia, amelyen a GeForce GTX 1060 grafikus chip fut egy nagy sor játékok és 3D-s alkalmazások. Az igazi fellendülés frekvenciája attól függ, hogy milyen játékot és körülményeket tesztelnek.

A Pascal Családi megoldások többi részében a GeForce GTX 1060 modell nem csak nagy teljesítményű gyakorisággal dolgozik, nagy teljesítményt nyújt, de egy tisztességes árrés, mint az overclocking. Az első kísérletek arról szólnak, hogy a 2 GHz-es rendelés frekvenciáinak elérését szolgálják. Nem meglepő, hogy a vállalat partnereit elkészítik, beleértve a GTX 1060 videokártya gyári diszpergált változatát is.

Tehát a fő változás az új architektúra volt a technológiai folyamat 16 Nm FinFET, amelynek használata a termelés GP106 lehetővé tette, hogy jelentősen növeli a komplexitás a chip, miközben viszonylag alacsony terület 200 mm², így ez a A Pascal Architecture Chip észrevehető nagyobb számú végrehajtó blokkot mutat a Maxwell Chip hasonló pozícionálással, amely a technikai folyamat 28 nm.

Ha a GM206 (GTX 960) 227 mm² területen 3 milliárd tranzisztorral és 1024 ALU, 64 TMU, 32 ROP és 128 bites busz volt, akkor az új GPU már 200 mm²-ben már 4,4 milliárd tranzisztorral rendelkezik, 1280 ALU, 80 TMU és 48 rop, 192 bites busz. Igen, közel egymással és félszer nagyobb gyakorisággal: 1506 (1708) 1126 (1178) MHz ellen. És ez 120 W-os energiafogyasztással van! Ennek eredményeképpen a GP106 grafikus processzor az egyik leginkább energiatakarékos grafikus processzor, a GP104 mellett.

Új Nvidia Technologies

A GeForce GTX 1060 által támogatott vállalat egyik legérdekesebb technológiája és a Pascal család egyéb megoldásai a technológia. NVIDIA egyidejű több vetület. Már írtunk erről a technológiáról a GeForce GTX 1080 felülvizsgálatában, lehetővé teszi, hogy több új technikát használjon az optimalizáláshoz. Különösen egyidejűleg vetítés a VR kép egyszerre két szemet időnként hatékonyságának növelésére használ GPU egy virtuális valóságban.

Az SMP támogatása az összes grafikus processzorban, a Pascal családnak van egy speciális motorja, amely a geometriai szállítószalag végén a geometriai szállítószalag végén található, amely a geometriai szállítószalag végén található. Segítségével, GPU egyszerre vetítenek geometriai primitív több nyúlványok egyik pontról, miközben ezek a nyúlványok lehetnek sztereó (azaz, akár 16 vagy 32 nyúlványok támogatott ugyanabban az időben). Ez a funkció lehetővé teszi a Pascal grafikus processzorok számára, hogy pontosan reprodukáljanak egy ívelt felületet a VR-rendereléshez, és helyesen adják ki a képet a több domailáris rendszerekhez.

Fontos, hogy egyidejűs többprojekt technológia már integrálódjon a népszerű játékmotorokba (Unreal Engine és Unity) és a játékok, és ma a technológia támogatása több mint 30 játékot jelentett a fejlesztésben, beleértve az ilyen jól ismert projekteket is Unreal Tournament, Coloolation VR, Everest VR, Obduction, ADR1FT és RAW adatok. Érdekes módon, bár az Unreal Tournament nem VR játék, de az SMP-ben a jobb kép elérésére és a termelékenység javítására szolgál.

Egy másik régóta várt technológia vált hatékony eszköz a képernyőképek létrehozásához a játékokban Nvidia ansel. Ez az eszköz lehetővé teszi, hogy szokatlan és nagyon magas színvonalú képernyőképeket hozzon létre a játékokból, korábban hozzáférhetetlen képességekkel, nagyon nagy felbontású és kiegészítve különböző hatásokat, és megoszthatja munkáit. Ansel lehetővé teszi, hogy a szó szoros értelmében építeni egy screenshot a művész akar telepíteni a kamerát bármely paraméter bármely pontjára a jelenet szabhat a képre erőteljes utáni szűrők vagy akár egy 360 fokos pillanatfelvétel nézetet a virtuális valóság sisak.

Az NVIDIA szabványosította az Ansel felhasználói felület integrálását a játékhoz, és nagyon egyszerűen hozzáadhatja a kódot több sorba. Nem kell várnod a játékok megjelenését a játékokban, meg tudod becsülni az Ansel képességeit most a Game Mirror Edge: katalizátor, és egy kicsit később lesz elérhető a Witcher 3-ban: Wild Hunt. Ezenkívül a fejlesztésben sok játékprojekt van az Ansel támogatással, beleértve a fortnit, a paragon és az irreális verseny, az obdukció, a tanú, az őrültség, Tom Clancy a divízió, nincs ember ég és mások.

Szintén egy új GeForce GTX 1060 grafikus processzor támogatja a szerszámcsomagot Nvidia vrworks.A fejlesztők támogatják a virtuális valóság lenyűgöző projektjeit. Ez a csomag tartalmaz számos segédprogramok és eszközök a fejlesztők számára, beleértve VRWORKS AUDIO, amely lehetővé teszi, hogy végre egy nagyon pontos kiszámítása a reflexiók hanghullámok a jelenet tárgyak segítségével sugárkövető a GPU. A csomag magában foglalja a VR és a fizikai fizikai hatások integrációját is, hogy biztosítsa a helyszínen lévő tárgyak fizikailag helyes viselkedését.

Az egyik legfényesebb virtuális játék, amely előnyt kapott a VRWorks-tól, a VR Funhouse - egy játék az NVIDIA virtuális valóságában, amely ingyenesen elérhető a szelep Steam szolgáltatásban. Ez a játék az Unreal Engine 4 motoron (Epic Games) alapul, és működik a GeForce GTX 1080, 1070 és 1060 videokártyákon egy kötegben a HTC VIVE VR sisakokkal. Ezenkívül a játék forráskódja nyilvánosan elérhető lesz, amely lehetővé teszi a többi fejlesztő számára, hogy a VR-túrákban már készen állt ötleteket és kódot használjanak. Hidd el nekünk a szót, ez a virtuális valóság lehetőségeinek egyik leginkább lenyűgöző bemutatója.

Beleértve az SMP-t és a VRWorks technológiákat, a GeForce GTX 1060 grafikus processzor VR alkalmazásokban történő felhasználása a kezdeti szinten elégséges termelékenységet biztosít, és a szóban forgó GPU megfelel a minimálisan szükséges hardverszintnek, beleértve a Steamvr-t is, amely az egyik legsikeresebb felvásárlá válik A Hivatalos Támogatással rendelkező rendszerekben VR.

Mivel a GeForce GTX 1060 modell egy GP106 chipen alapul, amely nem rosszabb a GP104 grafikus processzornál, amely a régebbi módosítások alapjává vált, támogatja az összes fent leírt összes technológiát.

A GeForce GTX 1060 videokártya az NVIDIA új vonalának harmadik modelljévé vált, a Pascal grafikus processzorok alapján. Az új technológiai folyamat 16 nm FinFET és optimalizálása építészet engedélyezett minden új videokártyát, hogy magas órajel-frekvencia és tegyük GPU több funkcionális blokk formájában streaming processzorok, szöveti modulok és mások, míg a videó chipek a Előző generáció. Ezért a GTX 1060 modell a leginkább jövedelmezőbb és energiatakarékos megoldássá vált, és az osztályában.

Különösen fontos, hogy a GeForce GTX 1060 ajánlatok kellően nagy teljesítményt és támogatást az új funkciók és algoritmusok szignifikánsan kisebb ár, mint a régebbi megoldás a GP104. Az új modellben használt GP106 grafikus chip a legjobb teljesítményt és energiahatékonyságot biztosítja az osztályban. A GeForce GTX 1060 modell kifejezetten az 1920x1080-as felbontásban nagy és maximális grafikus beállítások mellett tökéletes és tökéletes, és akár teljes képernyős simítással is rendelkezik különböző módszerekkel (FXAA, MFAA vagy MSAA).

És azok számára, akik szeretnének még nagyobb teljesítményt jelenlétében ultra-nagy felbontású kijelzők, NVIDIA GeForce GTX top modellek 1070 és GTX 1080 videokártyák, amelyek szintén nagyon jó a teljesítmény és az energiahatékonyság. Mindazonáltal az alacsony árak és a megfelelő teljesítmény kombinációja nagyon nyereségesen megkülönbözteti a GeForce GTX 1060 a vezető megoldások hátterében. Összehasonlítva a konkurens Radeon RX 480, az NVIDIA megoldás valamivel gyorsabb, kisebb komplexitás és a GPU területen, és jelentősen jobb energiahatékonyságot. Igaz, azt némileg drágább értékesítik, így minden videokártya saját niche.



Tetszett a cikket? Oszd meg