Contacte

Plăci video. Familii de plăci video Nvidia GeForce Informații de referință Descărcați GPU boost 2.0 pentru Nvidia

Revizuirea plăcii video NVIDIA GeForce GTX 780 | GeForce Experience și ShadowPlay

Experiență GeForce

În calitate de pasionați de PC, apreciem combinația diferitelor setări care afectează performanța și calitatea jocurilor. Cel mai simplu mod este să cheltuiți mulți bani pe o nouă placă video și să setați toate setările grafice la maximum. Dar când un parametru se dovedește a fi prea greu pentru card și trebuie redus sau dezactivat, rămâi cu o senzație neplăcută și conștientizarea că jocul ar putea funcționa mult mai bine.

Cu toate acestea, setarea setărilor optime nu este atât de ușoară. Unele setări produc efecte vizuale mai bune decât altele, dar impactul asupra performanței poate varia foarte mult. GeForce Experience este încercarea NVIDIA de a ușura alegerea setărilor de joc, comparând procesorul, GPU-ul și rezoluția cu o bază de date de configurații. A doua parte a utilitarului ajută la determinarea dacă sunt necesare actualizări ale driverelor.

Este posibil ca entuziaștii să continue să aleagă singuri setările și să perceapă negativ programul suplimentar. Cu toate acestea, majoritatea jucătorilor care doresc să instaleze jocul și să înceapă imediat jocul fără a verifica driverele și a parcurge diverse setări cu siguranță vor fi bucuroși de această oportunitate. În orice caz, GeForce Experience de la NVIDIA îi ajută pe oameni să profite la maximum de experiența lor de joc și, prin urmare, este un utilitar util pentru jocurile pe computer.

GeForce Experience a identificat toate cele nouă jocuri instalate pe sistemul nostru de testare. Desigur, nu au păstrat setările implicite, deoarece am aplicat anumite setări în scopuri de testare. Dar este încă interesant cum GeForce Experience ar schimba opțiunile pe care le-am selectat.

Pentru Tomb Raider, GeForce Experience a vrut să dezactiveze tehnologia TressFX, chiar dacă NVIDIA GeForce GTX 780 cu funcția activată, a afișat o medie de 40 de cadre pe secundă. Din anumite motive, programul nu a putut determina configurația Far Cry 3, deși setările sugerate de ea s-au dovedit a fi destul de ridicate. Din motive necunoscute, utilitarul a vrut să dezactiveze FXAA pentru Skyrim.

Este plăcut să obțineți un set de capturi de ecran pentru fiecare joc care descrie impactul unei anumite setări asupra calității imaginii. Din cele nouă exemple pe care le-am analizat, GeForce Experience s-a apropiat de setările optime, după părerea noastră. Cu toate acestea, utilitarul este, de asemenea, părtinitor, favorizând funcțiile specifice NVIDIA, cum ar fi PhysX (pe care programul l-a împins la un nivel înalt în Borderlands 2) și descurajând includerea caracteristicilor AMD (inclusiv TressFX în Tomb Raider). Dezactivarea FXAA în Skyrim nu are deloc sens, deoarece jocul are o medie de 100 FPS. Este posibil ca entuziaștii să dorească să instaleze GeForce Experience odată ce sistemul NVIDIA Shield începe să fie livrat, deoarece caracteristica Game Streaming pare să vină prin aplicația NVIDIA.

ShadowPlay: DVR mereu activ pentru jocuri

Fanii WoW își înregistrează adesea raidurile, dar acest lucru necesită un sistem destul de puternic, Fraps și mult spațiu pe disc.

NVIDIA a anunțat recent o nouă caracteristică numită ShadowPlay care poate face procesul de înregistrare mult mai ușor.

Când este activat, ShadowPlay utilizează decodorul NVENc fix încorporat al GPU-ului Kepler, care înregistrează automat ultimele 20 de minute de joc. Sau puteți porni și opri manual ShadowPlay. Astfel, tehnologia înlocuiește soluții software precum Fraps, care pun o sarcină mai mare asupra procesorului central.

Pentru referință: NVEnc funcționează numai cu codificare H.264 la rezoluții de până la 4096x4096 pixeli. ShadowPlay nu este încă disponibil pe piață, dar NVIDIA spune că va putea înregistra videoclipuri 1080p la până la 30 FPS când va fi lansat în această vară. Ne-am dori să vedem o rezoluție mai mare, deoarece s-a afirmat anterior că codificatorul ar putea să o suporte în hardware.

Revizuirea plăcii video NVIDIA GeForce GTX 780 | GPU Boost 2.0 și posibile probleme de overclocking

GPU Boost 2.0

În revizuire GeForce GTX Titan Nu am reușit să efectuăm teste complete ale tehnologiei NVIDIA GPU Boost de a doua generație, dar acum o avem NVIDIA GeForce GTX 780. Iată o scurtă descriere a acestei tehnologii:

GPU Boost este un mecanism NVIDIA care modifică performanța plăcilor video în funcție de tipul de sarcină procesată. După cum probabil știți, jocurile au cerințe diferite de resurse GPU. Din punct de vedere istoric, frecvența trebuie ajustată pentru a se adapta celui mai rău caz. Dar la procesarea sarcinilor „ușoare”, GPU-ul a fost irosit. GPU Boost monitorizează diverși parametri și crește sau scade frecvențele în funcție de nevoile aplicației și de situația actuală.

Prima implementare a GPU Boost a funcționat sub un anumit prag de putere (170 W în cazul GeForce GTX 680). Cu toate acestea, inginerii companiei au descoperit că pot depăși în siguranță acest nivel dacă temperatura GPU-ului este suficient de scăzută. În acest fel, performanța poate fi optimizată și mai mult.

În practică, GPU Boost 2.0 diferă doar prin faptul că NVIDIA accelerează acum frecvența nu pe baza indicatorului de consum maxim de energie, ci pe o anumită temperatură, care este de 80 de grade Celsius. Aceasta înseamnă că acum vor fi folosite frecvențe și tensiuni mai mari, până la încălzirea cipul până la 80 de grade. Nu uitați că temperatura depinde în principal de profilul și setările ventilatorului: cu cât viteza ventilatorului este mai mare, cu atât temperatura este mai mică și, prin urmare, cu atât valoarea GPU Boost (și nivelul de zgomot, din păcate, este mai mare). Tehnologia încă evaluează situația o dată la 100 de ms, așa că NVIDIA mai are ceva de făcut în versiunile viitoare.

Setările sensibile la temperatură fac testarea și mai dificilă decât prima versiune a GPU Boost. Orice crește sau scade temperatura lui GK110 schimbă frecvența cipului. Prin urmare, este destul de dificil să obțineți rezultate consistente între curse. În condiții de laborator, se poate spera doar la o temperatură ambientală stabilă.

În plus față de cele de mai sus, este de remarcat faptul că puteți crește limita de temperatură. De exemplu, dacă vrei NVIDIA GeForce GTX 780 a scăzut frecvența și tensiunea la 85 sau 90 de grade Celsius, acest lucru poate fi configurat în parametri.

Doriți ca GK110 să fie cât mai departe de limita de temperatură aleasă de dvs.? Curba ventilatorului NVIDIA GeForce GTX 780 Complet reglabil, permițându-vă să personalizați ciclul de funcționare în funcție de valorile temperaturii.

Posibile probleme de overclocking

În timpul cunoașterii noastre cu GeForce GTX Titan Reprezentanții companiei ne-au arătat un utilitar intern care poate citi starea diferiților senzori: în acest fel simplifică procesul de diagnosticare a comportamentului cardului non-standard. Dacă temperatura lui GK110 crește prea mult în timpul overclockării, chiar și la accelerare, aceste informații vor fi înregistrate în jurnal.

Acum compania implementează această funcție prin aplicația Precision X, care lansează un algoritm de avertizare „motive” dacă, în timpul overclockării, apar acțiuni care interferează cu continuarea efectivă a acestuia. Aceasta este o caracteristică excelentă, deoarece nu mai trebuie să ghiciți despre posibilele blocaje. Există, de asemenea, un indicator de limită OV max care vă va anunța dacă ați atins vârful absolut al tensiunii GPU. În acest caz, există riscul arderii cardului. Puteți considera acest lucru drept o sugestie pentru a vă reduce setările de overclocking.

Revizuirea plăcii video NVIDIA GeForce GTX 780 | Banc de testare și benchmark-uri


Configurația bancului de testare
CPU Intel Core i7-3770K (Ivy Bridge) 3,5 GHz @ 4,0 GHz (40 * 100 MHz), LGA 1155, cache L3 partajată de 8 MB, Hyper-Threading activat, Economii de energie activată
Placa de baza Gigabyte Z77X-UD5H (LGA 1155), chipset Z77 Express, BIOS F15q
RAM G.Skill 16 GB (4 x 4 GB) DDR3-1600, F3-12800CL9Q2-32GBZL @ 9-9-9-24 la 1,5 V
Dispozitiv de stocare Crucial m4 SSD 256 GB SATA 6 Gb/s
Plăci video Nvidia GeForce GTX 780 3 GB

AMD Radeon HD 7990 6 GB

AMD Radeon HD 7970 GHz Edition 3 GB

Nvidia GeForce GTX 580 1.5 GB

Nvidia GeForce GTX 680 2 GB

Nvidia GeForce GTX Titan 6 GB

Nvidia GeForce GTX 690 4 GB

unitate de putere Cooler Master UCP-1000W
Software de sistem și drivere
OS Windows 8 Professional pe 64 de biți
DirectX DirectX 11
Grafic. şoferii AMD Catalyst 13.5 (Beta 2)
Nvidia GeForce Versiunea 320.00
Nvidia GeForce Release 320.18 (pentru GeForce GTX 780)

Obținerea valorii corecte a ratei de cadre

Cititorii atenți vor observa că cifrele din paginile următoare sunt mai modeste decât în ​​recenzie AMD Radeon HD 7990, și există un motiv pentru asta. Anterior, am prezentat ratele de cadre sintetice și reale și apoi am arătat variațiile de timp dintre cadre împreună cu cadrele reduse și cele scurte. Cert este că această metodă nu reflectă senzațiile reale ale plăcii video și ar fi nedrept pentru noi să judecăm AMD pe baza indicatorilor sintetici ai întârzierii între cadre.

De aceea, împreună cu fluctuațiile ratei cadrelor, oferim acum valori mai practice pentru ratele dinamice ale cadrelor. Rezultatele nu sunt atât de mari, dar în același timp sunt foarte elocvente în jocurile în care AMD are dificultăți.

Teste și setări
Câmpul de luptă 3 Calitate grafică - Ultra, v-sync dezactivat, 2560x1440, DirectX 11, Going Hunting, 90 de secunde, FCAT
Far Cry 3 Calitate grafică - Ultra, DirectX 11, v-sync dezactivat, 2560x1440, rulați propriul traseu, 50 de secunde, FCAT
Borderlands 2 Calitate grafică - cea mai înaltă, PhysX scăzută, filtrare anizotropă 16x, 2560x1440, rulați propriul traseu, FCAT
Hitman: Absoluție Calitate grafică - Ultra, MSAA dezactivat, 2560x1440, benchmark încorporat, FCAT
The Elder Scrolls V: Skyrim Calitate grafică - Ultra, FXAA activat, 2560x1440, rulați propriul traseu, 25 de secunde, FCAT
3DMark Punct de referință Fire Strike
Bioshock infinit Calitate grafică - Ultra, DirectX 11, adâncime difuză de câmp, 2560x1440, benchmark încorporat, FCAT
Crysis 3 Calitate grafică - foarte înaltă, MSAA: Texturi reduse (2x), rezoluție înaltă, 2560x1440, rulați de-a lungul propriului traseu, 60 de secunde, FCAT
Tomb Raider Calitate grafică - Ultima, FXAA activat, 16x filtrare anizotropă, TressFX Hair, 2560x1440, Execuție personalizată, 45 de secunde, FCAT
LuxMark 2.0 Binar pe 64 de biți, versiunea 2.0, scena Sala
SiSoftware Sandra 2013 Professional Sandra Tech Support (inginer) 2013.SP1, Criptografie, Performanță analiză financiară


CONŢINUT

GPU Boost 2.0

Cu placa grafică NVIDIA GeForce GTX 680 obținem o nouă caracteristică importantă: GPU Boost. Iar noul NVIDIA GeForce GTX Titan face un pas mai departe, extinzând această caracteristică la GPU Boost 2.0. Prima versiune a GPU Boost 1.0 a fost axată pe consumul maxim de energie realizat în cele mai solicitante jocuri moderne. În acest caz, temperatura GPU-ului nu a jucat un rol deosebit, decât dacă s-a apropiat de pragul critic. Frecvența maximă de ceas a fost determinată pe baza tensiunii relative. Dezavantajul era destul de evident: GPU Boost 1.0 nu putea preveni situațiile în care, chiar și la tensiune necritică, temperatura creștea excesiv.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GeForce GTX Titan evaluează deja doi parametri: tensiune și temperatură. Adică, tensiunea relativă (Vref) este determinată pe baza acestor doi parametri. Desigur, se va baza în continuare pe GPU-urile individuale, deoarece există o variabilitate în fabricarea cipurilor, astfel încât fiecare placă grafică va fi diferită de cealaltă. Dar NVIDIA subliniază că, din punct de vedere tehnic, adăugarea temperaturii a permis o medie de overclocking Boost cu 3-7% mai mare. Tehnologia GPU Boost 2.0 ar putea fi teoretic transferată pe plăci video mai vechi, dar acest lucru este puțin probabil să se întâmple.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Să aruncăm o privire mai atentă la GPU Boost 2.0. Utilități precum EVGA Precision Tool sau MSI Afterburner acceptă deja GPU Boost 2.0. Am folosit EVGA Precision Tool versiunea 4.0.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

GPU Boost 2.0 ține cont de temperatură, iar la temperaturi scăzute tehnologia poate crește performanța mai semnificativ. Temperatura țintă (Ttarget) este setată implicit la 80 °C.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Tehnologia GPU Boost 2.0 conține toate funcțiile cunoscute nouă de la prima generație de tehnologie, dar în același timp face posibilă setarea unei tensiuni mai mari și, prin urmare, viteze de ceas mai mari. Pentru overclockeri, este posibilă modificarea setărilor. Puteți activa supratensiune GPU, dar fiți conștienți de potențiala reducere a duratei de viață a plăcii grafice.

NVIDIA GeForce GTX Titan - GPU-Boost 2.0

Overclockerii pot crește Vref și Vmax (OverVoltaging). Asta și-au dorit mulți utilizatori pe GK104, dar NVIDIA nu a avut încredere nici în utilizatori, nici în producători cu o astfel de oportunitate. Iar placa video EVGA GTX 680 Classified pe care am testat-o ​​(testare și revizuire) este doar un exemplu excelent. Această placă video avea un modul special EVGA Evbot care le oferea utilizatorilor control asupra tensiunilor. Dar NVIDIA a cerut urgent ca EVGA să elimine echipamente suplimentare de pe plăcile sale video. Cu GPU Boost 2.0 și OverVoltaging, NVIDIA însăși a făcut un pas în această direcție. Deci, producătorii de plăci video pot lansa mai multe modele GeForce GTX Titan, de exemplu, versiuni standard și versiuni overclockate din fabrică. Activarea OverVoltaging se face printr-un comutator VBIOS (adică, în mod explicit pentru utilizator, astfel încât acesta să fie conștient de posibilele consecințe).

ParametruSens
Numele codului cipuluiGP104
Tehnologia de producție16 nm FinFET
Numărul de tranzistori7,2 miliarde
Zona centrală314 mm²
Arhitectură
Suport hardware DirectX
Autobuz de memorie
1607 (1733) MHz
Blocuri de calcul20 de multiprocesoare de streaming, inclusiv 2560 ALU scalare pentru calcule în virgulă mobilă în cadrul standardului IEEE 754-2008;
Blocuri de texturare160 de unități de adresare și filtrare a texturii cu suport pentru componentele FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Suport monitor
Specificațiile plăcii grafice de referință GeForce GTX 1080
ParametruSens
Frecvența miezului1607 (1733) MHz
2560
Numărul de blocuri de textură160
Numărul de blocuri de amestecare64
Frecvența efectivă a memoriei10000 (4×2500) MHz
Tipul memorieiGDDR5X
Autobuz de memorie256 de biți
Memorie8 GB
320 GB/s
aproximativ 9 teraflopi
103 gigapixeli/s
257 gigatexeli/s
ObosiPCI Express 3.0
Conectori
Consumul de energiepana la 180 W
Mâncare suplimentarăUn conector cu 8 pini
2
Pret recomandat599-699 USD (SUA), 54.990 RUB (Rusia)

Noul model al plăcii video GeForce GTX 1080 a primit un nume care este logic pentru prima soluție a noii serii GeForce - se deosebește de predecesorul său direct doar prin numărul de generație schimbat. Noul produs nu numai că înlocuiește soluțiile de top din linia actuală a companiei, dar a devenit, de ceva timp, flagship-ul noii serii, până când Titan X a fost lansat cu un GPU de o putere și mai mare. Sub acesta în ierarhie se află și modelul deja anunțat GeForce GTX 1070, bazat pe o versiune dezgolită a cipul GP104, pe care o vom lua în considerare mai jos.

Prețurile recomandate pentru noua placă grafică Nvidia sunt de 599 USD și, respectiv, 699 USD pentru versiunile obișnuite și, respectiv, ediția specială Founders Edition (vezi mai jos), iar aceasta este o afacere destul de bună, având în vedere că GTX 1080 este înaintea nu numai GTX 980 Ti. , dar și Titan X. Astăzi, noul produs este cea mai bună soluție de performanță de pe piața plăcilor video cu un singur cip fără întrebări și, în același timp, costă mai puțin decât cele mai productive plăci video din generația anterioară. Până acum, GeForce GTX 1080 nu are în esență niciun concurent de la AMD, așa că Nvidia a reușit să stabilească un preț care să li se potrivească.

Placa video în cauză are la bază cipul GP104, care are o magistrală de memorie de 256 de biți, dar noul tip de memorie GDDR5X rulează la o frecvență efectivă foarte mare de 10 GHz, ceea ce oferă o lățime de bandă de vârf de 320 GB/s. - care este aproape la egalitate cu GTX 980 Ti cu magistrală pe 384 de biți. Volumul de memorie instalat pe o placă video cu o astfel de magistrală ar putea fi egal cu 4 sau 8 GB, dar instalarea unui volum mai mic pentru o soluție atât de puternică în condiții moderne ar fi o prostie, așa că GTX 1080 a primit destul de logic 8 GB de memorie , iar acest volum este suficient pentru a rula orice jocuri 3D, aplicații cu orice setări de calitate pentru câțiva ani de acum încolo.

PCB-ul GeForce GTX 1080 este, din motive evidente, destul de diferit de PCB-urile anterioare ale companiei. Consumul de energie tipic pentru noul produs este de 180 W - acesta este puțin mai mare decât GTX 980, dar vizibil mai mic decât Titan X și GTX 980 Ti, mai puțin productive. Placa de referință are setul obișnuit de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un Dual-Link DVI, unul HDMI și trei DisplayPort.

Design de referință Founders Edition

Chiar și atunci când GeForce GTX 1080 a fost anunțată la începutul lunii mai, a fost anunțată o ediție specială a plăcii video numită Founders Edition, care avea un preț mai mare în comparație cu plăcile video obișnuite de la partenerii companiei. În esență, această ediție este un design de referință al cardului și al sistemului de răcire și este produsă chiar de Nvidia. Puteți avea atitudini diferite față de astfel de opțiuni de plăci video, dar designul de referință dezvoltat de inginerii companiei și fabricat folosind componente de înaltă calitate își are fanii.

Dar dacă vor plăti câteva mii de ruble în plus pentru o placă video de la Nvidia în sine este o întrebare la care se poate răspunde doar prin practică. În orice caz, la început vor fi plăcile video de referință de la Nvidia care vor fi scoase la vânzare la un preț mai mare și nu există prea multe de unde alege - asta se întâmplă cu fiecare anunț, dar referința GeForce GTX 1080 este diferită prin aceea că este planificat să fie vândut în această formă pe toată durata de viață, până la lansarea următoarei generații de soluții.

Nvidia consideră că această publicație are meritele ei chiar și față de cele mai bune lucrări ale partenerilor săi. De exemplu, designul cu slot dublu al coolerului face ușor de construit pe baza acestei plăci video puternice atât PC-uri de gaming cu un factor de formă relativ mic, cât și sisteme video cu mai multe cipuri (chiar în ciuda modului cu trei și patru cipuri de funcționare care nu este recomandată de companie). GeForce GTX 1080 Founders Edition are unele avantaje sub forma unui cooler eficient care folosește o cameră de vapori și un ventilator care împinge aerul încălzit din carcasă - aceasta este prima soluție de acest fel a Nvidia, consumând mai puțin de 250 W de putere.

În comparație cu modelele anterioare de produse de referință ale companiei, circuitul de alimentare a fost modernizat de la patru faze la cinci faze. Nvidia vorbește și despre componente îmbunătățite pe care se bazează noul produs; zgomotul electric a fost, de asemenea, redus, permițând o stabilitate îmbunătățită a tensiunii și un potențial de overclocking. Ca urmare a tuturor îmbunătățirilor, eficiența energetică a plăcii de referință a crescut cu 6% față de GeForce GTX 980.

Și pentru a diferi de modelele „obișnuite” GeForce GTX 1080 în aspect, a fost dezvoltat un design neobișnuit de carcasă „tocat” pentru ediția Founders. Ceea ce, probabil, a dus, totuși, și la o formă mai complicată a camerei de evaporare și a radiatorului (vezi foto), care ar fi putut servi drept unul dintre motivele plății unui plus de 100 de dolari pentru o astfel de ediție specială. Să repetăm ​​că la începutul vânzărilor, cumpărătorii nu vor avea prea multe de ales, dar în viitor vor putea alege fie o soluție cu design propriu de la unul dintre partenerii companiei, fie una realizată chiar de Nvidia.

Noua generație de arhitectură grafică Pascal

Placa video GeForce GTX 1080 a fost prima soluție a companiei bazată pe cipul GP104, care aparține noii generații de arhitectură grafică Pascal a Nvidia. Deși noua arhitectură se bazează pe soluții dezvoltate la Maxwell, are și diferențe funcționale importante, despre care vom scrie mai târziu. Principala schimbare din punct de vedere global a fost noul proces tehnologic prin care a fost realizat noul procesor grafic.

Utilizarea procesului FinFET de 16 nm în producția de procesoare grafice GP104 la fabricile companiei taiwaneze TSMC a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o suprafață și un cost relativ scăzut. Comparați numărul de tranzistori și aria cipurilor GP104 și GM204 - acestea sunt similare ca zonă (cristalul noului produs este chiar puțin mai mic fizic), dar cipul cu arhitectură Pascal are un număr semnificativ mai mare de tranzistori și , în consecință, unități de execuție, inclusiv cele care oferă noi funcționalități.

Din punct de vedere arhitectural, primul Pascal de gaming este foarte asemănător cu soluțiile similare ale arhitecturii Maxwell, deși există unele diferențe. La fel ca Maxwell, procesoarele Pascal vor avea diferite configurații de Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) și controlere de memorie. Multiprocesorul SM este un multiprocesor extrem de paralel care programează și rulează warps (grupuri de 32 fire de instrucțiuni) pe nuclee CUDA și alte unități de execuție din multiprocesor. Puteți găsi informații detaliate despre designul tuturor acestor blocuri în recenziile noastre despre soluțiile Nvidia anterioare.

Fiecare dintre multiprocesoarele SM este asociat cu un motor PolyMorph, care se ocupă de eșantionarea texturii, tesselarea, transformarea, setarea atributelor de vârf și corecția perspectivei. Spre deosebire de soluțiile anterioare ale companiei, PolyMorph Engine din cipul GP104 conține și o nouă unitate multiproiecție, Simultaneous Multi-Projection, despre care vom vorbi mai jos. Combinația unui multiprocesor SM cu un motor Polymorph se numește în mod tradițional TPC - Texture Processor Cluster pentru Nvidia.

În total, cipul GP104 din GeForce GTX 1080 conține patru clustere GPC și 20 de multiprocesoare SM, precum și opt controlere de memorie combinate cu 64 de unități ROP. Fiecare cluster GPC are un motor de rasterizare dedicat și include cinci multiprocesoare SM. Fiecare multiprocesor, la rândul său, constă din 128 de nuclee CUDA, un fișier de registru de 256 KB, 96 KB memorie partajată, 48 KB cache L1 și opt unități de textură TMU. Adică, în total, GP104 conține 2560 de nuclee CUDA și 160 de unități TMU.

De asemenea, procesorul grafic pe care se bazează GeForce GTX 1080 conține opt controlere de memorie pe 32 de biți (spre deosebire de cele de 64 de biți folosite anterior), ceea ce ne oferă o magistrală de memorie finală de 256 de biți. Fiecare controler de memorie are opt blocuri ROP și 256 KB de cache L2. Adică, în total, cipul GP104 conține 64 de blocuri ROP și 2048 KB de cache de nivel al doilea.

Datorită optimizărilor arhitecturale și unei noi tehnologii de proces, primul Pascal pentru jocuri a devenit cel mai eficient GPU din toate timpurile. Mai mult decât atât, există o contribuție la aceasta atât din partea unuia dintre cele mai avansate procese tehnologice FinFET de 16 nm, cât și din optimizările arhitecturii efectuate în Pascal, în comparație cu Maxwell. Nvidia a reușit să crească frecvența ceasului chiar mai mult decât se așteptau atunci când a trecut la o nouă tehnologie de proces. GP104 funcționează la o frecvență mai mare decât ar funcționa un ipotetic GM204 produs folosind procesul de 16 nm. Pentru a face acest lucru, inginerii Nvidia au trebuit să verifice și să optimizeze cu atenție toate blocajele soluțiilor anterioare care împiedicau accelerarea peste un anumit prag. Drept urmare, noul model GeForce GTX 1080 funcționează la o frecvență crescută cu peste 40% față de GeForce GTX 980. Dar acestea nu sunt toate schimbările asociate cu frecvența GPU.

Tehnologia GPU Boost 3.0

După cum bine știm de la plăcile video Nvidia anterioare, în procesoarele lor grafice folosesc tehnologia hardware GPU Boost, menită să mărească viteza ceasului de funcționare a GPU-ului în moduri când acesta nu a atins încă limitele consumului de energie și disipării căldurii. De-a lungul anilor, acest algoritm a suferit multe modificări, iar cipul video cu arhitectură Pascal folosește deja a treia generație a acestei tehnologii - GPU Boost 3.0, a cărei inovație principală este o setare mai fină a frecvențelor turbo, în funcție de tensiune.

Dacă vă amintiți principiul de funcționare al versiunilor anterioare ale tehnologiei, atunci diferența dintre frecvența de bază (valoarea frecvenței minime garantate sub care GPU-ul nu cade, cel puțin în jocuri) și frecvența turbo a fost fixată. Adică frecvența turbo a fost întotdeauna cu un anumit număr de megaherți mai mare decât cea de bază. În GPU Boost 3.0, a devenit posibilă setarea decalajelor de frecvență turbo pentru fiecare tensiune separat. Cel mai simplu mod de a înțelege acest lucru este prin ilustrare:

În stânga este a doua versiune de GPU Boost, în dreapta este a treia, care a apărut în Pascal. Diferența fixă ​​dintre frecvențele de bază și turbo nu a permis dezvăluirea capacităților complete ale GPU-ului; în unele cazuri, GPU-urile generațiilor anterioare puteau funcționa mai repede la tensiunea setată, dar un exces fix al frecvenței turbo nu permitea acest lucru. să fie făcut. În GPU Boost 3.0 a apărut această caracteristică, iar frecvența turbo poate fi setată pentru fiecare dintre valorile individuale ale tensiunii, storcând complet tot sucul din GPU.

Sunt necesare utilități utile pentru a controla overclockarea și a seta curba frecvenței turbo. Nvidia în sine nu face acest lucru, dar își ajută partenerii să creeze utilități similare pentru a face overclockarea mai ușoară (în limite rezonabile, desigur). De exemplu, noua funcționalitate a GPU Boost 3.0 a fost deja dezvăluită în EVGA Precision XOC, care include un scaner dedicat overclock care găsește și setează automat diferența neliniară dintre frecvența de bază și frecvența turbo pentru tensiuni diferite prin rularea unui sistem integrat. test de performanță și stabilitate. Ca rezultat, utilizatorul obține o curbă de frecvență turbo care se potrivește perfect cu capacitățile unui anumit cip. Care, de altfel, poate fi modificată în orice mod manual.

După cum puteți vedea în captura de ecran a utilitarului, pe lângă informațiile despre GPU și sistem, există și setări pentru overclocking: Power Target (definește consumul de energie tipic în timpul overclockării, ca procent din standard), GPU Temp Target (temperatura maximă admisă de bază), GPU Clock Offset (depășește frecvența de bază pentru toate valorile de tensiune), Memory Offset (depășește frecvența memoriei video peste valoarea implicită), Supratensiune (capacitate suplimentară de a crește tensiunea).

Utilitarul Precision XOC include trei moduri de overclocking: Basic, Linear și Manual. În modul principal, puteți seta o singură valoare pentru frecvența în exces (frecvență turbo fixă) deasupra celei de bază, așa cum a fost cazul pentru GPU-urile anterioare. Modul liniar vă permite să setați o schimbare liniară a frecvenței de la valorile minime la maxime ale tensiunii pentru GPU. Ei bine, în modul manual puteți seta valori unice ale frecvenței GPU pentru fiecare punct de tensiune de pe grafic.

Utilitarul include și un scanner special pentru overclocking automat. Puteți fie să vă setați propriile niveluri de frecvență, fie să lăsați Precision XOC să scaneze GPU-ul la toate tensiunile și să găsească cele mai stabile frecvențe pentru fiecare punct de pe curba de tensiune și frecvență complet automat. În timpul procesului de scanare, Precision XOC crește treptat frecvența GPU-ului și verifică funcționarea acestuia pentru stabilitate sau artefacte, construind o curbă ideală de frecvență și tensiune care va fi unică pentru fiecare cip specific.

Acest scaner poate fi personalizat conform propriilor cerințe, setând perioada de timp pentru testarea fiecărei valori de tensiune, frecvența minimă și maximă testată și pasul acestuia. Este clar că pentru a obține rezultate stabile ar fi mai bine să stabiliți un pas mic și o durată decentă de testare. În timpul procesului de testare, poate fi observată funcționarea instabilă a driverului video și a sistemului, dar dacă scanerul nu îngheață, acesta va restabili funcționarea și va continua să găsească frecvențele optime.

Nou tip de memorie video GDDR5X și compresie îmbunătățită

Deci, puterea GPU-ului a crescut semnificativ, dar magistrala de memorie rămâne doar pe 256 de biți - va limita lățimea de bandă a memoriei performanța generală și ce se poate face în acest sens? Se pare că promițătoarea memorie HBM de a doua generație este încă prea scumpă de produs, așa că a trebuit să căutăm alte opțiuni. Încă de la introducerea memoriei GDDR5 în 2009, inginerii Nvidia au explorat posibilitățile de utilizare a noilor tipuri de memorie. Drept urmare, evoluțiile au condus la introducerea unui nou standard de memorie, GDDR5X - cel mai complex și mai avansat standard până în prezent, oferind o viteză de transfer de 10 Gbps.

Nvidia oferă un exemplu interesant despre cât de rapid este acest lucru. Doar 100 de picosecunde trec între biții transmisi - în acest timp un fascicul de lumină va călători pe o distanță de doar un inch (aproximativ 2,5 cm). Și atunci când utilizați memoria GDDR5X, circuitele de transmisie și recepție a datelor trebuie să selecteze valoarea bitului transmis în mai puțin de jumătate din acest timp, înainte ca următorul să fie trimis - asta doar pentru a înțelege la ce a ajuns tehnologia modernă.

Pentru a atinge o astfel de viteză, a fost necesară dezvoltarea unei noi arhitecturi pentru sistemul de intrare/ieșire a datelor, care a necesitat câțiva ani de dezvoltare în comun cu producătorii de cipuri de memorie. Pe lângă viteza crescută de transfer de date, a crescut și eficiența energetică - cipurile de memorie GDDR5X folosesc o tensiune mai mică de 1,35 V și sunt fabricate folosind tehnologii noi, care oferă același consum de energie la o frecvență cu 43% mai mare.

Inginerii companiei au trebuit să refacă liniile de date dintre nucleul GPU și cipurile de memorie, acordând mai multă atenție prevenirii pierderii și degradării semnalului de-a lungul întregii căi de la memorie la GPU și înapoi. Astfel, ilustrația de mai sus arată semnalul captat sub forma unui „ochi” simetric mare, ceea ce indică o bună optimizare a întregului circuit și ușurința relativă a captării datelor din semnal. Mai mult, modificările descrise mai sus au condus nu numai la posibilitatea utilizării GDDR5X la 10 GHz, dar ar trebui să ajute și la obținerea unei lățimi de bandă mari a memoriei pe viitoarele produse folosind memorie GDDR5 mai convențională.

Ei bine, am obținut o creștere de peste 40% a lățimii de bandă din utilizarea noii memorie. Dar nu este suficient? Pentru a crește și mai mult eficiența lățimii de bandă a memoriei, Nvidia a continuat să îmbunătățească compresia avansată a datelor introdusă în arhitecturile anterioare. Subsistemul de memorie din GeForce GTX 1080 folosește tehnici îmbunătățite și noi de comprimare a datelor fără pierderi, concepute pentru a reduce cerințele de lățime de bandă - aceasta este a patra generație de compresie pe cip.

Algoritmii de comprimare a datelor în memorie aduc mai multe aspecte pozitive. Comprimarea reduce cantitatea de date scrise în memorie, același lucru este valabil și pentru datele trimise din memoria video către cache-ul de al doilea nivel, ceea ce îmbunătățește eficiența utilizării cache-ului L2, deoarece o placă comprimată (un bloc de mai mulți pixeli framebuffer) este mai mică decât unul necomprimat. De asemenea, reduce cantitatea de date trimise între diferite puncte, cum ar fi TMU și framebuffer.

Conducta de comprimare a datelor din GPU utilizează mai mulți algoritmi, care sunt determinați în funcție de „compresibilitatea” datelor - pentru ei este selectat cel mai bun algoritm disponibil. Unul dintre cele mai importante este algoritmul de compresie a culorilor delta. Această tehnică de compresie codifică datele ca diferență între valorile succesive în loc de datele în sine. GPU calculează diferența de valori de culoare dintre pixelii dintr-un bloc (tigla) și stochează blocul ca culoare medie pentru întregul bloc plus date despre diferența de valori pentru fiecare pixel. Pentru datele grafice, această metodă este de obicei potrivită, deoarece culoarea din plăci mici pentru toți pixelii adesea nu diferă prea mult.

Procesorul grafic GP104 din GeForce GTX 1080 acceptă mai mulți algoritmi de compresie în comparație cu cipurile de arhitectură Maxwell anterioare. Astfel, algoritmul de compresie 2:1 a devenit mai eficient și, pe lângă acesta, au apărut doi algoritmi noi: un mod de compresie 4:1, potrivit pentru cazurile în care diferența de culoare a pixelilor blocului este foarte mică, și un mod 8:1, combinând un algoritm constant de compresie 4:1 a blocurilor de 2x2 pixeli cu compresie delta de 2x între blocuri. Când compresia este complet imposibilă, nu este utilizată.

Cu toate acestea, în realitate, aceasta din urmă se întâmplă foarte rar. Acest lucru poate fi văzut în exemplele de capturi de ecran din jocul Project CARS pe care Nvidia le-a oferit pentru a ilustra rata de compresie crescută în Pascal. În ilustrații, acele plăci cadru tampon care au putut fi comprimate de GPU sunt vopsite în violet, în timp ce cele care nu pot fi comprimate fără pierderi rămân cu culoarea originală (sus - Maxwell, jos - Pascal).

După cum puteți vedea, noii algoritmi de compresie din GP104 funcționează într-adevăr mult mai bine decât în ​​Maxwell. În timp ce arhitectura mai veche a putut, de asemenea, să comprima majoritatea plăcilor din scenă, cantități mari de iarbă și copaci din jurul marginilor, precum și părțile vehiculului, nu sunt supuse algoritmilor de compresie vechi. Dar când am pus în lucru noi tehnici în Pascal, foarte puține zone ale imaginii au rămas necomprimate - eficiența îmbunătățită este evidentă.

Ca urmare a îmbunătățirilor în compresia datelor, GeForce GTX 1080 este capabilă să reducă semnificativ cantitatea de date trimisă pe cadru. În ceea ce privește cifrele, compresia îmbunătățită economisește încă 20% din lățimea de bandă efectivă a memoriei. Pe lângă creșterea cu peste 40% a lățimii de bandă a memoriei GeForce GTX 1080 față de GTX 980, datorită utilizării memoriei GDDR5X, toate acestea oferă o creștere cu aproximativ 70% a lățimii de bandă efectivă în comparație cu modelul din generația anterioară.

Suport pentru calcul asincron Async Compute

Majoritatea jocurilor moderne folosesc calcule complexe pe lângă grafică. De exemplu, calculele atunci când se calculează comportamentul corpurilor fizice pot fi efectuate nu înainte sau după calculele grafice, ci simultan cu acestea, deoarece nu sunt legate între ele și nu depind unul de celălalt într-un cadru. Un alt exemplu este post-procesarea cadrelor deja randate și procesarea datelor audio, care pot fi efectuate și în paralel cu randarea.

Un alt exemplu proeminent de utilizare a funcționalității este tehnica deformarii în timp asincrone (Asynchronous Time Warp), utilizată în sistemele de realitate virtuală pentru a schimba cadrul de ieșire în conformitate cu mișcarea capului jucătorului chiar înainte de ieșirea acestuia, întrerupând redarea. a celui urmator. O astfel de încărcare asincronă a puterii GPU face posibilă creșterea eficienței utilizării unităților sale de execuție.

Astfel de sarcini de lucru creează două scenarii noi pentru utilizarea GPU-urilor. Prima dintre acestea implică încărcări suprapuse, deoarece multe tipuri de sarcini nu utilizează pe deplin capacitățile GPU-urilor, iar unele resurse sunt inactive. În astfel de cazuri, puteți rula pur și simplu două sarcini diferite pe același GPU, separând unitățile sale de execuție pentru o utilizare mai eficientă - de exemplu, efectele PhysX care rulează împreună cu randarea cadrului 3D.

Pentru a îmbunătăți acest scenariu, arhitectura Pascal a introdus echilibrarea dinamică a sarcinii. În arhitectura anterioară Maxwell, sarcinile de lucru suprapuse au fost implementate prin distribuirea statică a resurselor GPU între grafică și calcul. Această abordare este eficientă cu condiția ca echilibrul dintre cele două sarcini să corespundă aproximativ împărțirii resurselor și sarcinile să fie finalizate în aceeași perioadă de timp. Dacă calculele non-grafice durează mai mult decât cele grafice și ambele așteaptă finalizarea lucrărilor generale, atunci o parte a GPU-ului va fi inactiv pentru timpul rămas, ceea ce va cauza o scădere a performanței generale și va reduce toate beneficiile la nimic. Echilibrarea dinamică a sarcinii hardware vă permite să utilizați resursele GPU eliberate de îndată ce acestea devin disponibile - vom oferi o ilustrare pentru înțelegere.

Există, de asemenea, sarcini care sunt critice pentru timpul de execuție, iar acesta este al doilea scenariu de calcul asincron. De exemplu, algoritmul de distorsiune a timpului asincron în VR trebuie să se finalizeze înainte de scanare, altfel cadrul va fi eliminat. În acest caz, GPU-ul trebuie să suporte întreruperea foarte rapidă a sarcinilor și trecerea la alta pentru a elimina o sarcină mai puțin critică din execuția pe GPU, eliberându-și resursele pentru sarcinile critice - aceasta se numește preempțiune.

O singură comandă de randare dintr-un motor de joc poate conține sute de apeluri de extragere, fiecare apel de extragere conținând la rândul său sute de triunghiuri de procesat, fiecare conținând sute de pixeli care trebuie să fie calculati și desenați. Abordarea tradițională a GPU întrerupe doar sarcinile la un nivel înalt, iar conducta grafică este forțată să aștepte ca toată munca să se termine înainte de a schimba sarcinile, rezultând latențe foarte mari.

Pentru a corecta acest lucru, arhitectura Pascal a introdus pentru prima dată capacitatea de a întrerupe o sarcină la nivel de pixel - Pixel Level Preemption. Unitățile de execuție GPU Pascal pot monitoriza continuu progresul sarcinilor de randare, iar atunci când este solicitată o întrerupere, pot opri execuția, păstrând contextul pentru finalizarea ulterioară, trecând rapid la o altă sarcină.

Întreruperea și comutarea la nivel de fir pentru operațiunile de calcul funcționează în mod similar cu întreruperea la nivel de pixel pentru calculul grafic. Sarcinile de lucru de calcul constau din mai multe grile, fiecare conținând mai multe fire. Când se primește o solicitare de întrerupere, firele de execuție care rulează pe multiprocesor termină execuția. Alte blocuri își salvează propria stare pentru a continua din același punct în viitor, iar GPU-ul trece la o altă sarcină. Întregul proces de schimbare a sarcinilor durează mai puțin de 100 de microsecunde după ieșirea firelor de execuție.

Pentru sarcinile de lucru pentru jocuri, combinația de întreruperi la nivel de pixeli pentru sarcinile de lucru grafice și întreruperi la nivel de fire pentru sarcinile de lucru de calcul oferă GPU-urilor Pascal capacitatea de a comuta rapid între sarcini cu timp de nefuncționare minim. Și pentru sarcinile de calcul pe CUDA, este posibilă și întrerupere cu granularitate minimă - la nivel de instrucție. În acest mod, toate firele de execuție opresc execuția simultan, trecând imediat la o altă sarcină. Această abordare necesită stocarea mai multor informații despre starea tuturor registrelor fiecărui fir, dar în unele cazuri de calcul negrafic este destul de justificat.

Utilizarea întreruperii rapide și a comutării sarcinilor în sarcinile de lucru grafice și de calcul a fost adăugată arhitecturii Pascal, astfel încât sarcinile grafice și non-grafice să poată fi întrerupte la nivel de instrucțiuni individuale, mai degrabă decât fire întregi, așa cum a fost cazul Maxwell și Kepler. . Aceste tehnologii pot îmbunătăți execuția asincronă a diferitelor sarcini de lucru GPU și pot îmbunătăți capacitatea de răspuns atunci când rulează mai multe sarcini simultan. La evenimentul Nvidia, ei au arătat o demonstrație de calcul asincron folosind exemplul de calcul al efectelor fizice. Dacă fără calcul asincron performanța a fost la nivelul de 77-79 FPS, atunci odată cu includerea acestor caracteristici, rata de cadre a crescut la 93-94 FPS.

Am dat deja un exemplu de una dintre posibilitățile de utilizare a acestei funcționalități în jocuri sub formă de distorsiune asincronă a timpului în VR. Ilustrația arată funcționarea acestei tehnologii cu o întrerupere tradițională (preempțiune) și cu una rapidă. În primul caz, încearcă să efectueze procesul de distorsiune a timpului asincron cât mai târziu posibil, dar înainte de începerea actualizării imaginii de pe afișaj. Dar munca algoritmului trebuie trimisă la GPU pentru execuție cu câteva milisecunde mai devreme, deoarece fără o întrerupere rapidă nu există nicio modalitate de a executa lucrarea cu exactitate la momentul potrivit, iar GPU-ul este inactiv de ceva timp.

În cazul întreruperii cu precizie a pixelilor și a firului (prezentată în partea dreaptă), această capacitate permite o mai mare precizie în determinarea momentului în care apare întreruperea, iar distorsiunea asincronă a timpului poate fi începută mult mai târziu, cu încrederea de a finaliza lucrarea înainte de începerea afișajului. actualizare. Iar GPU-ul, care este inactiv de ceva timp în primul caz, poate fi încărcat cu unele lucrări grafice suplimentare.

Tehnologie multiproiecție simultană

Noul GPU GP104 acceptă acum noua tehnologie Simultaneous Multi-Projection (SMP), permițând GPU-ului să redeze mai eficient datele pe sistemele moderne de afișare. SMP permite cipul video să scoată simultan date în mai multe proiecții, ceea ce a necesitat introducerea unui nou bloc hardware în GPU ca parte a motorului PolyMorph la sfârșitul conductei de geometrie înainte de unitatea de rasterizare. Acest bloc este responsabil pentru lucrul cu mai multe proiecții pentru un singur flux de geometrie.

Motorul de proiecție multiplă prelucrează date geometrice simultan pentru 16 proiecții pre-configurate combinând punctul de proiecție (camera), aceste proiecții pot fi rotite sau înclinate independent. Deoarece fiecare primitivă de geometrie poate apărea în mai multe vederi simultan, motorul SMP oferă această funcționalitate permițând aplicației să instruiască GPU-ul să reproducă geometria de până la 32 de ori (16 vizualizări la două centre de proiecție) fără procesare suplimentară.

Întregul proces de procesare este accelerat hardware și, deoarece multiproiecția funcționează după motorul de geometrie, nu este necesar să se repete toate etapele de procesare a geometriei de mai multe ori. Economiile de resurse sunt importante atunci când viteza de redare este limitată de performanța de procesare a geometriei, cum ar fi teselația, unde aceeași lucrare geometrică este efectuată de mai multe ori pentru fiecare proiecție. În consecință, în cazul de vârf, multiproiecția poate reduce nevoia de procesare a geometriei de până la 32 de ori.

Dar de ce este nevoie de toate acestea? Există câteva exemple bune în care tehnologia de proiecție multiplă poate fi utilă. De exemplu, un sistem multi-monitor de trei afișaje instalate într-un unghi unul față de celălalt destul de aproape de utilizator (configurație surround). Într-o situație tipică, scena este redată într-o singură proiecție, ceea ce duce la distorsiuni geometrice și redare incorectă a geometriei. Modul corect este să aveți trei proiecții diferite pentru fiecare dintre monitoare, în funcție de unghiul în care sunt poziționate.

Folosind o placă video pe un cip cu arhitectură Pascal, acest lucru se poate face într-o singură trecere de geometrie, specificând trei proiecții diferite, fiecare pentru propriul monitor. Iar utilizatorul va putea astfel să schimbe unghiul la care sunt amplasate monitoarele unul față de celălalt nu numai fizic, ci și virtual - rotind proiecțiile pentru monitoarele laterale pentru a obține perspectiva corectă în scena 3D cu un unghi de vizualizare vizibil mai larg. (FOV). Cu toate acestea, există o limitare aici - pentru un astfel de suport, aplicația trebuie să poată reda scena cu un FOV larg și să folosească apeluri speciale SMP API pentru ao seta. Adică, nu poți face asta în fiecare joc; ai nevoie de sprijin special.

Oricum ar fi, vremurile unei singure proiecții pe un singur monitor cu ecran plat au trecut, cu multe configurații cu mai multe monitoare și afișaje curbate acum disponibile care pot folosi și această tehnologie. Ca să nu mai vorbim de sistemele de realitate virtuală care folosesc lentile speciale între ecrane și ochii utilizatorului, care necesită noi tehnici de proiectare a unei imagini 3D într-o imagine 2D. Multe dintre aceste tehnologii și tehnici sunt încă în stadiile incipiente de dezvoltare, principalul lucru fiind că GPU-urile mai vechi nu pot folosi în mod eficient mai mult de o vedere plană. Acestea necesită mai multe treceri de randare, prelucrare repetată a aceleiași geometrii etc.

Cipurile de arhitectură Maxwell aveau suport limitat pentru Multi-Resolution pentru a ajuta la îmbunătățirea eficienței, dar SMP-ul Pascal poate face mult mai mult. Maxwell putea roti proiecția cu 90 de grade pentru maparea cuburilor sau diferite rezoluții de proiecție, dar acest lucru a fost util doar în aplicații limitate, cum ar fi VXGI.

Alte posibilități de utilizare a SMP includ randarea multi-rezoluție și redarea stereo cu o singură trecere. De exemplu, Multi-Res Shading poate fi folosit în jocuri pentru a optimiza performanța. La aplicare, se folosește o rezoluție mai mare în centrul cadrului, iar la periferie este redusă pentru a obține o viteză mai mare de redare.

Redarea stereo într-o singură trecere este utilizată în VR, deja adăugată la pachetul VRWorks și folosește capabilități de proiecție multiplă pentru a reduce cantitatea de muncă geometrică necesară în redarea VR. Când este utilizată această caracteristică, GPU-ul GeForce GTX 1080 procesează geometria scenei o singură dată, generând două proiecții pentru fiecare ochi simultan, ceea ce reduce la jumătate sarcina geometrică de pe GPU și, de asemenea, reduce pierderile de la funcționarea driverului și a sistemului de operare.

O metodă și mai avansată pentru creșterea eficienței redării VR este Lens Matched Shading, care utilizează mai multe proiecții pentru a simula distorsiunile geometrice necesare în redarea VR. Această metodă folosește proiecția multiplă pentru a reda o scenă 3D pe o suprafață care aproximează randarea corectată de lentilă pentru redarea căștilor VR, evitând atragerea de mulți pixeli suplimentari la periferie care vor fi aruncați. Cel mai simplu mod de a înțelege esența metodei este din ilustrație - sunt folosite patru proiecții ușor extinse în fața fiecărui ochi (pe Pascal puteți folosi 16 proiecții pentru fiecare ochi - pentru o imitație mai precisă a unei lentile curbate) în loc de unu:

Această abordare poate economisi semnificativ asupra performanței. Astfel, o imagine tipică Oculus Rift pentru fiecare ochi este de 1,1 megapixeli. Dar, din cauza diferenței de proiecție, o imagine sursă de 2,1 megapixeli este folosită pentru a o reda - cu 86% mai mare decât este necesar! Utilizarea multiproiecției, implementată în arhitectura Pascal, vă permite să reduceți rezoluția imaginii redate la 1,4 megapixeli, realizând o economie de o dată și jumătate în viteza de procesare a pixelilor și, de asemenea, economisește lățimea de bandă a memoriei.

Și, alături de o economie dublă a vitezei de procesare a geometriei datorită redării stereo cu o singură trecere, placa grafică GeForce GTX 1080 este capabilă să ofere o creștere semnificativă a performanței de randare VR, care este foarte solicitantă în ceea ce privește viteza de procesare a geometriei și chiar mai mult. deci în procesarea pixelilor.

Îmbunătățiri ale unităților de ieșire și procesare video

Pe lângă performanța și noile funcționalități asociate redării 3D, este necesar să se mențină un nivel bun de capabilități de ieșire a imaginii, precum și decodarea și codificarea video. Și primul GPU cu arhitectură Pascal nu a dezamăgit - acceptă toate standardele moderne în acest sens, inclusiv decodarea hardware a formatului HEVC, necesară pentru vizionarea videoclipurilor 4K pe un PC. De asemenea, viitorii proprietari de plăci video GeForce GTX 1080 se vor putea bucura în curând de redarea în flux video 4K de la Netflix și alți furnizori pe sistemele lor.

În ceea ce privește ieșirea de afișare, GeForce GTX 1080 are suport pentru HDMI 2.0b cu HDCP 2.2, precum și DisplayPort. Până acum, versiunea DP 1.2 a fost certificată, dar GPU-ul este pregătit pentru certificare pentru versiunile mai noi ale standardului: DP 1.3 Ready și DP 1.4 Ready. Acesta din urmă permite afișajelor 4K să fie scoase la o rată de reîmprospătare de 120Hz, iar afișajelor 5K și 8K să ruleze la 60Hz folosind o pereche de cabluri DisplayPort 1.3. Dacă pentru GTX 980 rezoluția maximă acceptată a fost 5120x3200 la 60 Hz, atunci pentru noul model GTX 1080 a crescut la 7680x4320 la același 60 Hz. GeForce GTX 1080 de referință are trei ieșiri DisplayPort, una HDMI 2.0b și una digitală Dual-Link DVI.

Noul model de placă video Nvidia a primit și o unitate îmbunătățită de decodare și codificare a datelor video. Astfel, cipul GP104 îndeplinește standardele înalte ale PlayReady 3.0 (SL3000) pentru redarea în flux video, permițându-vă să fiți sigur că redarea conținutului de înaltă calitate de la furnizori de renume precum Netflix va fi cât mai de înaltă calitate și eficientă energetic. Detalii despre suportul pentru diferite formate video în timpul codificării și decodării sunt oferite în tabel; noul produs diferă în mod clar de soluțiile anterioare în bine:

Dar o nouă caracteristică și mai interesantă este suportul pentru așa-numitele afișaje High Dynamic Range (HDR), care sunt pe cale să se răspândească pe piață. Televizoarele se vând deja în 2016 (și se preconizează că patru milioane de televizoare HDR vor fi vândute în doar un an) și monitoare anul viitor. HDR este cea mai mare descoperire în tehnologia de afișare din ultimii ani, formatul oferă de două ori tonuri de culoare (75% din spectrul vizibil, spre deosebire de 33% pentru RGB), afișaje mai luminoase (1000 nits) cu un contrast mai mare (10.000:1) și culori bogate.

Apariția capacității de a reproduce conținut cu o diferență mai mare de luminozitate și culori mai bogate și mai saturate va aduce imaginea de pe ecran mai aproape de realitate, negrul va deveni mai profund, iar lumina strălucitoare va fi orbitoare, ca în lumea reală. În consecință, utilizatorii vor vedea mai multe detalii în zonele luminoase și întunecate ale imaginilor în comparație cu monitoarele și televizoarele standard.

Pentru a suporta afișaje HDR, GeForce GTX 1080 are tot ce aveți nevoie - capacitatea de a scoate culori pe 12 biți, suport pentru standardele BT.2020 și SMPTE 2084, precum și ieșire în conformitate cu HDMI 2.0b 10/12 biți standard pentru HDR în rezoluție 4K, ceea ce a fost și cazul Maxwell. În plus, Pascal acceptă acum decodarea formatului HEVC în rezoluție 4K la 60 Hz și culoare pe 10 sau 12 biți, care este folosit pentru video HDR, precum și codificarea aceluiași format cu aceiași parametri, dar numai în 10 -bit pentru înregistrarea video HDR sau streaming. Noul produs este, de asemenea, gata să standardizeze DisplayPort 1.4 pentru transmiterea datelor HDR prin acest conector.

Apropo, codificarea video HDR poate fi necesară în viitor pentru a transfera astfel de date de pe un computer de acasă la o consolă de jocuri SHIELD care poate reda HEVC pe 10 biți. Adică, utilizatorul va putea difuza jocul de pe un PC în format HDR. Stai, de unde pot obține jocuri cu astfel de suport? Nvidia lucrează continuu cu dezvoltatorii de jocuri pentru a implementa acest suport, oferindu-le tot ce au nevoie (suport pentru drivere, exemple de cod etc.) pentru a reda corect imaginile HDR compatibile cu afișajele existente.

La momentul lansării plăcii video, GeForce GTX 1080, jocuri precum Obduction, The Witness, Lawbreakers, Rise of the Tomb Raider, Paragon, The Talos Principle și Shadow Warrior 2 acceptă ieșirea HDR. Dar în viitorul apropiat această listă este de așteptat să fie completat.

Modificări ale redării SLI cu mai multe cipuri

Au existat, de asemenea, unele modificări legate de tehnologia de randare SLI multi-cip, deși nimeni nu se aștepta la asta. SLI este folosit de pasionații de jocuri pe computer pentru a împinge performanța fie la niveluri extreme prin împerecherea plăcilor video puternice cu un singur cip în tandem, fie pentru a obține rate de cadre foarte mari, limitându-se la câteva soluții medii care sunt uneori mai ieftine decât un top. -end ( Decizia este controversată, dar ei o fac așa). Cu monitoarele 4K, jucătorii nu au aproape alte opțiuni în afară de instalarea de câteva plăci video, deoarece chiar și modelele de top nu pot oferi adesea jocuri confortabile la setări maxime în astfel de condiții.

Una dintre componentele importante ale Nvidia SLI sunt punțile care conectează plăcile video într-un subsistem video comun și servesc la organizarea unui canal digital pentru transferul de date între ele. Plăcile video GeForce prezentau în mod tradițional conectori duali SLI, care serveau la conectarea a două sau patru plăci video în configurații SLI cu 3 și 4 căi. Fiecare dintre plăcile video trebuia să se conecteze la fiecare, deoarece toate GPU-urile au trimis cadrele pe care le-au randat către GPU-ul principal, motiv pentru care au fost necesare două interfețe pe fiecare dintre plăci.

Începând cu GeForce GTX 1080, toate plăcile grafice Nvidia bazate pe arhitectura Pascal leagă două interfețe SLI împreună pentru a îmbunătăți performanța de transfer inter-GPU, iar acest nou mod SLI dual-link îmbunătățește performanța și experiența vizuală pe ecrane de foarte înaltă rezoluție. sau sisteme cu mai multe monitoare.

Acest mod a necesitat și noi punți, numite SLI HB. Acestea combină o pereche de plăci video GeForce GTX 1080 pe două canale SLI simultan, deși noile plăci video sunt compatibile și cu podurile mai vechi. Pentru rezoluții de 1920×1080 și 2560×1440 pixeli la o rată de reîmprospătare de 60 Hz, puteți utiliza poduri standard, dar în moduri mai solicitante (sisteme 4K, 5K și multi-monitor), doar podurile noi vor oferi cele mai bune rezultate în în ceea ce privește netezimea cadrului, deși cele vechi vor funcționa, dar oarecum mai rău.

De asemenea, atunci când se utilizează poduri SLI HB, interfața de transfer de date GeForce GTX 1080 funcționează la 650 MHz, comparativ cu 400 MHz pentru podurile SLI convenționale pe GPU-urile mai vechi. Mai mult, pentru unele dintre podurile vechi rigide, o frecvență mai mare de transmisie a datelor este disponibilă și cu cipurile video cu arhitectură Pascal. Cu o creștere a ratei de transfer de date între GPU-uri printr-o interfață SLI dublă cu o frecvență de operare crescută, este asigurată o ieșire mai lină a cadrelor pe ecran în comparație cu soluțiile anterioare:

De asemenea, trebuie remarcat faptul că suportul pentru redarea cu mai multe cipuri în DirectX 12 este oarecum diferit de ceea ce era obișnuit înainte. În cea mai recentă versiune a API-ului grafic, Microsoft a făcut multe modificări legate de funcționarea unor astfel de sisteme video. Pentru dezvoltatorii de software, DX12 oferă două opțiuni pentru utilizarea mai multor GPU: modurile Multi Display Adapter (MDA) și Linked Display Adapter (LDA).

Mai mult decât atât, modul LDA are două forme: LDA implicit (pe care Nvidia îl folosește pentru SLI) și LDA explicit (când dezvoltatorul jocului își asumă sarcina de a gestiona randarea multicip. Modurile MDA și LDA explicit au fost introduse în DirectX 12 pentru pentru a oferi dezvoltatorilor de jocuri mai multă libertate și oportunități atunci când folosesc sisteme video cu mai multe cipuri. Diferența dintre moduri este clar vizibilă în următorul tabel:

În modul LDA, memoria fiecărui GPU poate fi legată de memoria altuia și afișată ca un volum total mare, desigur, cu toate limitările de performanță atunci când datele sunt preluate din memorie „străină”. În modul MDA, memoria fiecărui GPU funcționează separat, iar GPU-urile diferite nu pot accesa direct datele din memoria altui GPU. Modul LDA este conceput pentru sisteme cu mai multe cipuri de performanță similară, în timp ce modul MDA are mai puține restricții și poate lucra împreună între GPU-uri discrete și integrate sau soluții discrete cu cipuri de la diferiți producători. Dar acest mod necesită, de asemenea, mai multă gândire și muncă din partea dezvoltatorilor atunci când programează pentru a lucra împreună, astfel încât GPU-urile să poată comunica între ele.

În mod implicit, un sistem SLI bazat pe plăci GeForce GTX 1080 acceptă doar două GPU-uri, iar configurațiile cu trei și patru cipuri nu sunt recomandate oficial pentru utilizare, deoarece în jocurile moderne devine din ce în ce mai dificil să oferi câștiguri de performanță prin adăugarea unui al treilea și al patrulea GPU. De exemplu, multe jocuri se bazează pe capacitățile procesorului central al sistemului atunci când operează sisteme video cu mai multe cipuri; jocurile noi folosesc tot mai mult tehnici temporale care folosesc date din cadrele anterioare, în care funcționarea eficientă a mai multor GPU-uri simultan este pur și simplu imposibilă.

Cu toate acestea, operarea sistemelor în alte sisteme cu mai multe cipuri (non-SLI) rămâne posibilă, cum ar fi modurile explicite MDA sau LDA în DirectX 12 sau un sistem SLI cu două cipuri cu un al treilea GPU dedicat pentru efectele fizice PhysX. Dar înregistrările din benchmark-uri? Nvidia chiar le abandonează complet? Nu, desigur, dar întrucât astfel de sisteme sunt solicitate în lume de aproape câțiva utilizatori, pentru astfel de ultra-entuziaști au venit cu o cheie specială Enthusiast Key, care poate fi descărcată de pe site-ul Nvidia și debloca această caracteristică. Pentru a face acest lucru, trebuie mai întâi să obțineți un identificator unic GPU rulând o aplicație specială, apoi să solicitați Cheia Enthusiast pe site și, după descărcare, să instalați cheia în sistem, deblocând astfel configurațiile SLI cu 3 și 4 căi. .

Tehnologia Fast Sync

Au avut loc unele modificări în tehnologiile de sincronizare la afișarea informațiilor. Privind în viitor, nu a apărut nimic nou în G-Sync și nici tehnologia Adaptive Sync nu este acceptată. Dar Nvidia a decis să îmbunătățească netezimea ieșirii și sincronizarea pentru jocurile care arată performanțe foarte ridicate atunci când rata de cadre este vizibil mai mare decât rata de reîmprospătare a monitorului. Acest lucru este deosebit de important pentru jocurile care necesită o latență minimă și un răspuns rapid și care găzduiesc bătălii și competiții multiplayer.

Sincronizarea rapidă este o nouă alternativă la sincronizarea verticală care nu are artefacte vizuale, cum ar fi ruperea imaginii și nu este legată de o rată de reîmprospătare fixă, ceea ce crește latența. Care este problema cu Vsync în jocuri precum Counter-Strike: Global Offensive? Acest joc rulează la câteva sute de cadre pe secundă pe GPU-uri moderne puternice, iar jucătorul are posibilitatea de a alege dacă să activeze V-sync sau nu.

În jocurile multiplayer, utilizatorii se străduiesc cel mai adesea pentru o latență minimă și dezactivează VSync, rezultând o ruptură clar vizibilă a imaginii, care este extrem de neplăcută chiar și la rate mari de cadre. Dacă activați sincronizarea verticală, jucătorul va experimenta o creștere semnificativă a întârzierilor între acțiunile sale și imaginea de pe ecran atunci când conducta grafică încetinește la rata de reîmprospătare a monitorului.

Așa funcționează un transportor tradițional. Dar Nvidia a decis să separe procesul de randare și afișare a imaginilor pe ecran folosind tehnologia Fast Sync. Acest lucru permite părții din GPU care redă cadre să continue să funcționeze cât mai eficient posibil la viteză maximă, stocând acele cadre într-un buffer temporar special, Last Rendered Buffer.

Această metodă vă permite să schimbați modul în care afișați ecranul și să profitați de cele mai bune moduri VSync On și VSync Off, obținând o latență scăzută, dar fără artefacte de imagine. Cu Fast Sync nu există control al fluxului de cadre, motorul de joc rulează în modul sincronizare dezactivată și nu i se spune să aștepte pentru a reda următorul, așa că latențele sunt aproape la fel de mici ca în modul VSync Off. Dar, deoarece Fast Sync selectează independent un buffer pentru ieșire pe ecran și afișează întregul cadru, nu există întreruperi de imagine.

Sincronizarea rapidă utilizează trei buffer-uri diferite, dintre care primele două funcționează similar cu tamponarea dublă într-o conductă clasică. Bufferul primar (Front Buffer - FB) este tamponul din care sunt afișate informațiile pe afișaj, un cadru complet redat. Bufferul secundar (Back Buffer - BB) este un buffer care primește informații în timpul redării.

Când se utilizează sincronizarea verticală la rate de cadre ridicate, jocul așteaptă până când intervalul de reîmprospătare este atins pentru a schimba bufferul primar cu tamponul secundar pentru a afișa întregul cadru pe ecran. Acest lucru încetinește procesul, iar adăugarea de buffer-uri suplimentare, cum ar fi buferul triplu tradițional, va crește doar întârzierea.

Cu Fast Sync, se adaugă un al treilea buffer, Last Rendered Buffer (LRB), care este folosit pentru a stoca toate cadrele care tocmai au fost redate în bufferul secundar. Numele tamponului vorbește de la sine; conține o copie a ultimului cadru redat complet. Și când vine momentul actualizării bufferului primar, acest buffer LRB este copiat în primar ca întreg, și nu în părți, ca din secundar când sincronizarea verticală este dezactivată. Deoarece copiarea informațiilor din buffer-uri este ineficientă, acestea sunt pur și simplu schimbate (sau redenumite, așa cum va fi mai convenabil de înțeles), iar noua logică pentru schimbarea bufferelor, care a apărut în GP104, gestionează acest proces.

În practică, activarea noii metode de sincronizare Fast Sync oferă încă o întârziere puțin mai mare în comparație cu dezactivarea totală a sincronizării verticale - în medie cu 8 ms mai mult, dar afișează cadrele pe monitor în întregime, fără artefacte neplăcute pe ecran care rupe imagine. Noua metodă poate fi activată din setările grafice ale panoului de control Nvidia din secțiunea de control Vsync. Cu toate acestea, valoarea implicită rămâne controlul aplicației și pur și simplu nu este nevoie să activați Fast Sync în toate aplicațiile 3D; este mai bine să alegeți această metodă special pentru jocurile cu FPS ridicat.

Tehnologii de realitate virtuală Nvidia VRWorks

Am atins subiectul fierbinte al realității virtuale de mai multe ori în articol, dar am vorbit mai ales despre creșterea ratelor de cadre și asigurarea unei latențe scăzute, care sunt foarte importante pentru VR. Toate acestea sunt foarte importante și într-adevăr se fac progrese, dar până acum jocurile VR nu arată nici pe departe la fel de impresionante ca cele mai bune dintre jocurile 3D moderne „obișnuite”. Acest lucru se întâmplă nu numai pentru că dezvoltatorii de jocuri de top nu sunt încă implicați în mod deosebit în aplicațiile VR, ci și pentru că VR este mai pretențios în ceea ce privește ratele de cadre, ceea ce împiedică utilizarea multor tehnici obișnuite în astfel de jocuri datorită cerințelor ridicate.

Pentru a reduce diferența de calitate dintre jocurile VR și cele obișnuite, Nvidia a decis să lanseze un întreg pachet de tehnologii VRWorks relevante, care includea un număr mare de API-uri, biblioteci, motoare și tehnologii care pot îmbunătăți semnificativ atât calitatea, cât și performanța Jocuri VR.aplicații. Cum se leagă acest lucru cu anunțul primei soluții de gaming bazate pe Pascal? Este foarte simplu - au fost introduse unele tehnologii pentru a ajuta la creșterea productivității și la îmbunătățirea calității și am scris deja despre ele.

Și, deși problema nu se referă doar la grafică, mai întâi vom vorbi puțin despre asta. Setul de tehnologii VRWorks Graphics include tehnologii menționate anterior, precum Lens Matched Shading, care folosește caracteristica de multi-proiecție apărută la GeForce GTX 1080. Noul produs vă permite să obțineți o creștere a performanței de 1,5-2 ori față de soluții. care nu au un astfel de sprijin. Am menționat și alte tehnologii, precum MultiRes Shading, concepute pentru randare cu rezoluții diferite în centrul cadrului și la periferia acestuia.

Dar mult mai neașteptat a fost anunțul tehnologiei VRWorks Audio, concepută pentru procesarea de înaltă calitate a datelor audio în scene 3D, care este deosebit de importantă în sistemele de realitate virtuală. În motoarele convenționale, poziționarea surselor de sunet într-un mediu virtual este calculată destul de corect; dacă inamicul trage din dreapta, atunci sunetul este mai puternic din acea parte a sistemului audio, iar un astfel de calcul nu este prea solicitant pentru puterea de calcul. .

Dar, în realitate, sunetele merg nu numai către jucător, ci în toate direcțiile și sunt reflectate din diferite materiale, similar modului în care sunt reflectate razele de lumină. Și, în realitate, auzim aceste reflexii, deși nu la fel de clar ca undele sonore directe. Aceste reflexii indirecte ale sunetului sunt de obicei simulate de efecte speciale de reverb, dar aceasta este o abordare foarte primitivă a sarcinii.

VRWorks Audio utilizează redarea undelor sonore similară cu trasarea razelor în randare, unde calea razelor de lumină este urmărită la reflexii multiple de la obiectele dintr-o scenă virtuală. VRWorks Audio simulează, de asemenea, propagarea undelor sonore în mediu prin urmărirea undelor directe și reflectate în funcție de unghiul lor de incidență și de proprietățile materialelor reflectorizante. În activitatea sa, VRWorks Audio folosește motorul de înaltă performanță Nvidia OptiX, cunoscut pentru sarcinile grafice, conceput pentru ray tracing. OptiX poate fi utilizat pentru o varietate de sarcini, cum ar fi calcularea luminii indirecte și pregătirea hărților de lumină, iar acum pentru urmărirea undelor sonore în VRWorks Audio.

Nvidia a inclus calcule precise ale undelor sonore în demonstrația sa VR Funhouse, care utilizează câteva mii de fascicule și calculează până la 12 reflexii de la obiecte. Și pentru a înțelege avantajele tehnologiei folosind un exemplu clar, vă invităm să vizionați un videoclip despre funcționarea tehnologiei în limba rusă:

Este important că abordarea Nvidia diferă de motoarele de sunet tradiționale, inclusiv hardware accelerat folosind un bloc special în metoda GPU de la principalul său concurent. Toate aceste metode oferă doar poziționarea precisă a surselor de sunet, dar nu calculează reflexia undelor sonore de la obiectele dintr-o scenă 3D, deși pot simula acest lucru folosind efectul de reverberație. Cu toate acestea, utilizarea tehnologiei de urmărire a razelor poate fi mult mai realistă, deoarece numai această abordare va oferi o simulare precisă a diferitelor sunete, ținând cont de dimensiunea, forma și materialele obiectelor din scenă. Este dificil de spus dacă o astfel de precizie de calcul este necesară pentru un jucător obișnuit, dar un lucru este cert: în VR poate adăuga utilizatorilor acel realism care încă lipsește în jocurile obișnuite.

Ei bine, tot ce ne rămâne de vorbit este tehnologia VR SLI, care funcționează atât în ​​OpenGL, cât și în DirectX. Principiul său este extrem de simplu: un sistem video cu dublu procesor într-o aplicație VR va funcționa în așa fel încât fiecărui ochi să i se aloce un GPU separat, spre deosebire de redarea AFR, care este comună pentru configurațiile SLI. Acest lucru îmbunătățește semnificativ performanța generală, ceea ce este atât de important pentru sistemele de realitate virtuală. Teoretic, pot fi folosite mai multe GPU-uri, dar numărul lor trebuie să fie par.

Această abordare a fost necesară deoarece AFR nu este potrivit pentru VR, deoarece cu ajutorul său primul GPU va desena un cadru uniform pentru ambii ochi, iar al doilea - unul ciudat, care nu reduce latența, ceea ce este critic pentru sistemele de realitate virtuală. . Deși frame rate va fi destul de mare. Deci, cu VR SLI, munca pe fiecare cadru este împărțită în două GPU - unul lucrează pe o parte a cadrului pentru ochiul stâng, al doilea - pentru cel drept, iar apoi aceste jumătăți ale cadrului sunt combinate într-un întreg.

Această împărțire a muncii între o pereche de GPU are ca rezultat câștiguri de performanță de aproape două ori, permițând rate de cadre mai mari și o latență mai mică decât sistemele cu un singur GPU. Cu toate acestea, utilizarea VR SLI necesită suport special din partea aplicației pentru a utiliza această metodă de scalare. Dar tehnologia VR SLI este deja încorporată în astfel de aplicații demo VR precum Valve's The Lab și ILMxLAB's Trials on Tatooine, iar acesta este doar începutul - Nvidia promite că vor apărea în curând alte aplicații, precum și implementarea tehnologiei în motoarele de joc Unreal Engine 4 , Unity și MaxPlay.

Platformă de capturi de ecran de jocuri Ansel

Unul dintre cele mai interesante anunțuri legate de software a fost lansarea tehnologiei pentru capturarea de capturi de ecran de înaltă calitate în aplicațiile de jocuri, numită după un fotograf celebru - Ansel. Jocurile au devenit de mult timp nu doar jocuri, ci și un loc pentru utilizarea mâinilor jucăușe pentru diverși indivizi creativi. Unii oameni schimbă scripturile pentru jocuri, unii lansează seturi de texturi de înaltă calitate pentru jocuri, iar alții fac capturi de ecran frumoase.

Nvidia a decis să-i ajute pe acesta din urmă prin introducerea unei noi platforme pentru crearea (și crearea, deoarece acesta nu este un proces atât de simplu) imagini de înaltă calitate din jocuri. Ei cred că Ansel poate ajuta la crearea unui nou tip de artă contemporană. La urma urmei, există deja destul de mulți artiști care își petrec cea mai mare parte a vieții pe un computer, creând capturi de ecran frumoase din jocuri și încă nu au avut un instrument convenabil pentru asta.

Ansel vă permite nu numai să capturați o imagine într-un joc, ci și să o modificați după cum are nevoie creatorul. Folosind această tehnologie, puteți muta camera în jurul scenei, o puteți roti și înclina în orice direcție pentru a obține compoziția dorită a cadrului. De exemplu, în jocuri precum împușcături la persoana întâi, puteți muta doar jucătorul, nu puteți schimba nimic altceva, așa că toate capturile de ecran se dovedesc a fi destul de monotone. Cu o cameră gratuită în Ansel, puteți depăși cu mult limitele camerei de joc, alegând unghiul necesar pentru o imagine de succes sau chiar să captați o imagine stereo completă de 360 ​​de grade din punctul dorit și la rezoluție înaltă pentru vizionare ulterioară într-o cască VR.

Ansel funcționează destul de simplu - folosind o bibliotecă specială de la Nvidia, această platformă este implementată în codul jocului. Pentru a face acest lucru, dezvoltatorul său trebuie doar să adauge o mică bucată de cod la proiectul său pentru a permite driverului video Nvidia să intercepteze datele tampon și shader. Este foarte puțină muncă implicată; implementarea lui Ansel în joc necesită mai puțin de o zi pentru implementare. Astfel, activarea acestei funcții în The Witness a luat aproximativ 40 de linii de cod, iar în The Witcher 3 a fost nevoie de aproximativ 150 de linii de cod.

Ansel va veni cu un SDK open source. Principalul lucru este că utilizatorul primește un set standard de setări cu acesta, permițându-i să schimbe poziția și unghiul camerei, să adauge efecte etc. Platforma Ansel funcționează astfel: întrerupe jocul, pornește camera gratuită. și vă permite să schimbați cadrul la vizualizarea dorită, înregistrând rezultatul sub forma unei capturi de ecran obișnuite, a unei imagini la 360 de grade, a unei perechi stereo sau pur și simplu a unei panorame cu rezoluție uriașă.

Singura avertizare este că nu toate jocurile vor accepta toate caracteristicile platformei de capturi de ecran a jocului Ansel. Unii dezvoltatori de jocuri, dintr-un motiv sau altul, nu doresc să activeze o cameră complet gratuită în jocurile lor - de exemplu, din cauza posibilității ca trișorii să folosească această funcționalitate. Sau vor să limiteze modificarea unghiului de vizualizare din același motiv - astfel încât nimeni să nu obțină un avantaj nedrept. Ei bine, sau pentru ca utilizatorii să nu vadă sprite-urile sărace în fundal. Toate acestea sunt dorințe complet normale ale creatorilor de jocuri.

Una dintre cele mai interesante caracteristici ale lui Ansel este crearea de capturi de ecran cu rezoluție pur și simplu enormă. Nu contează că jocul acceptă rezoluții de până la 4K, de exemplu, iar monitorul utilizatorului este Full HD. Folosind platforma de capturi de ecran, puteți captura o imagine de calitate mult mai mare, care este limitată mai degrabă de capacitatea și performanța unității. Platforma captează cu ușurință capturi de ecran cu o rezoluție de până la 4,5 gigapixeli, împletindu-le din 3600 de bucăți!

Este clar că în astfel de imagini puteți vedea toate detaliile, până la textul de pe ziare care se află în depărtare, dacă un astfel de nivel de detaliu este în principiu prevăzut în joc - Ansel poate controla și nivelul de detaliu, setarea nivelului maxim pentru a obține cea mai bună calitate a imaginii. Dar puteți activa și supraeșantionarea. Toate acestea vă permit să creați imagini din jocuri pe care le puteți imprima în siguranță pe bannere mari și să aveți încredere în calitatea lor.

Interesant este că un cod special accelerat de hardware bazat pe CUDA este folosit pentru a îmbina imagini mari. La urma urmei, nicio placă video nu poate reda o imagine de mai mulți gigapixeli în ansamblu, dar o poate face în bucăți, care pur și simplu trebuie să fie combinate ulterior, ținând cont de posibilele diferențe de iluminare, culoare etc.

După coaserea unor astfel de panorame, se folosește post-procesare specială pentru întregul cadru, accelerată tot pe GPU. Și pentru a captura imagini cu o gamă dinamică crescută, puteți utiliza un format de imagine special - EXR, un standard deschis de la Industrial Light and Magic, ale cărui valori de culoare sunt înregistrate în format virgulă mobilă de 16 biți (FP16) în fiecare canal.

Acest format vă permite să modificați luminozitatea și intervalul dinamic al imaginii prin post-procesare, aducând-o la nivelul dorit pentru fiecare afișaj specific, în același mod ca și cu formatele RAW de la camere. Și pentru utilizarea ulterioară a filtrelor de post-procesare în programele de procesare a imaginilor, acest format este foarte util, deoarece conține mult mai multe date decât formatele de imagine convenționale.

Dar platforma Ansel în sine conține o mulțime de filtre de post-procesare, ceea ce este deosebit de important pentru că are acces nu doar la imaginea finală, ci și la toate bufferele folosite de joc la randare, care pot fi folosite pentru efecte foarte interesante. , precum adâncimea de câmp. Ansel are un API special de post-procesare pentru aceasta, iar oricare dintre efecte poate fi inclus într-un joc care acceptă această platformă.

Filtrele post-Ansel includ următoarele filtre: curbe de culoare, spațiu de culoare, transformare, desaturare, luminozitate/contrast, granulație a filmului, înflorire, strălucire a lentilelor, strălucire anamorfă, distorsiune, heathaze, ochi de pește, aberație de culoare, cartografiere a tonurilor, murdărie a lentilelor, lumini , vignetă, corecție gamma, convoluție, ascuțire, detecție margini, estompare, sepia, denoise, FXAA și altele.

În ceea ce privește apariția suportului Ansel în jocuri, va trebui să așteptați puțin până când dezvoltatorii îl implementează și îl testează. Dar Nvidia promite apariția iminentă a unui astfel de suport în jocuri atât de celebre precum The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, Fortnite, Obduction, No Man's Sky, Unreal Tournament și altele.

Noul proces tehnologic FinFET de 16 nm și optimizarea arhitecturii a permis plăcii video GeForce GTX 1080, bazată pe procesorul grafic GP104, să atingă o frecvență mare de ceas de 1,6-1,7 GHz chiar și în forma de referință, iar noua generație garantează funcționarea la cele mai înalte frecvențe posibile în jocuri Tehnologia GPU Boost. Împreună cu numărul crescut de unități de execuție, aceste îmbunătățiri au făcut ca noul produs nu doar placa video cu un singur cip de cea mai înaltă performanță din toate timpurile, ci și cea mai eficientă soluție energetică de pe piață.

Modelul GeForce GTX 1080 a devenit prima placă video care a transportat un nou tip de memorie grafică GDDR5X - o nouă generație de cipuri de mare viteză care a făcut posibilă atingerea unor rate de transfer de date foarte mari. În cazul modificării GeForce GTX 1080, acest tip de memorie funcționează la o frecvență efectivă de 10 GHz. Combinat cu algoritmi îmbunătățiți de compresie a informațiilor în framebuffer, acest lucru a dus la o creștere a lățimii de bandă efectivă a memoriei pentru acest procesor grafic de 1,7 ori în comparație cu predecesorul său direct, GeForce GTX 980.

Nvidia a decis cu înțelepciune să nu lanseze o arhitectură radical nouă pe un proces tehnologic complet nou, pentru a nu întâmpina probleme inutile în timpul dezvoltării și producției. În schimb, au îmbunătățit serios arhitectura Maxwell deja bună și foarte eficientă, adăugând câteva caracteristici. Drept urmare, totul este în regulă cu producția de noi GPU-uri, iar în cazul modelului GeForce GTX 1080, inginerii au atins un potențial de frecvență foarte mare - în versiunile overclockate de la parteneri, frecvențele GPU sunt de așteptat până la 2 GHz! O astfel de frecvență impresionantă a devenit posibilă datorită procesului tehnic perfect și muncii minuțioase a inginerilor Nvidia la dezvoltarea GPU-ului Pascal.

Și deși Pascal a devenit un succesor direct al lui Maxwell, iar aceste arhitecturi grafice nu sunt fundamental foarte diferite unele de altele, Nvidia a introdus multe modificări și îmbunătățiri, inclusiv capacitatea de a afișa imagini pe ecrane, motorul de codificare și decodare video și asincron îmbunătățit. executarea diferitelor tipuri de calcule pe GPU, a făcut modificări la randarea multi-chip și a introdus o nouă metodă de sincronizare, Fast Sync.

Este imposibil să nu evidențiem tehnologia multiproiecție Simultaneous Multi-Projection, care ajută la îmbunătățirea performanței în sistemele de realitate virtuală, la obținerea unei afișări mai corecte a scenelor pe sisteme cu mai multe monitoare și la introducerea de noi tehnici de optimizare a performanței. Dar aplicațiile VR vor primi cea mai mare creștere a vitezei atunci când acceptă tehnologia de proiecție multiplă, care ajută la economisirea resurselor GPU la jumătate la procesarea datelor geometrice și de o dată și jumătate atunci când se efectuează calcule pixel cu pixel.

Printre modificările pur software, iese în evidență platforma de creare a capturilor de ecran în jocuri numită Ansel - va fi interesant să o încerci nu numai pentru cei care joacă mult, ci și pentru cei pur și simplu interesați de grafica 3D de înaltă calitate. Noul produs vă permite să avansați arta de a crea și retușa capturi de ecran la un nou nivel. Ei bine, Nvidia pur și simplu continuă să-și îmbunătățească pachetele pentru dezvoltatorii de jocuri, cum ar fi GameWorks și VRWorks, pas cu pas - de exemplu, acesta din urmă are o caracteristică interesantă pentru procesarea sunetului de înaltă calitate, ținând cont de numeroasele reflexii ale undelor sonore folosind raze hardware. trasarea.

În general, un adevărat lider a intrat pe piață sub forma plăcii video Nvidia GeForce GTX 1080, având toate calitățile necesare pentru aceasta: performanță ridicată și funcționalitate largă, precum și suport pentru noi caracteristici și algoritmi. Primii cumpărători ai acestei plăci video vor putea aprecia imediat multe dintre avantajele menționate, iar alte posibilități ale soluției vor fi dezvăluite puțin mai târziu, când va apărea un suport larg de software. Principalul lucru este că GeForce GTX 1080 s-a dovedit a fi foarte rapidă și eficientă și sperăm cu adevărat că inginerii Nvidia au reușit să remedieze unele dintre zonele cu probleme (aceleași calcule asincrone).

Accelerator grafic GeForce GTX 1070

ParametruSens
Numele codului cipuluiGP104
Tehnologia de producție16 nm FinFET
Numărul de tranzistori7,2 miliarde
Zona centrală314 mm²
ArhitecturăUnificat, cu o serie de procesoare comune pentru procesarea în flux a numeroase tipuri de date: vârfuri, pixeli etc.
Suport hardware DirectXDirectX 12, cu suport pentru Feature Level 12_1
Autobuz de memorie256 de biți: opt controlere independente de memorie pe 32 de biți care acceptă memoria GDDR5 și GDDR5X
Frecvența GPU1506 (1683) MHz
Blocuri de calcul15 multiprocesoare de streaming active (din 20 din cip), inclusiv 1920 (din 2560) ALU scalare pentru calcule în virgulă mobilă în cadrul standardului IEEE 754-2008;
Blocuri de texturare120 de unități active de adresare și filtrare a texturii (din 160 de pe cip) cu suport pentru componente FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Blocuri de operații raster (ROP)8 blocuri ROP largi (64 pixeli) cu suport pentru diferite moduri de anti-aliasing, inclusiv programabile și cu format de buffer de cadre FP16 sau FP32. Blocurile constau dintr-o serie de ALU configurabile și sunt responsabile pentru generarea și compararea adâncimii, eșantionarea multiplă și amestecarea
Suport monitorSuport integrat pentru până la patru monitoare conectate prin interfețe Dual Link DVI, HDMI 2.0b și DisplayPort 1.2 (1.3/1.4 Ready)

Specificațiile plăcii video de referință GeForce GTX 1070
ParametruSens
Frecvența miezului1506 (1683) MHz
Numărul de procesoare universale1920
Numărul de blocuri de textură120
Numărul de blocuri de amestecare64
Frecvența efectivă a memoriei8000 (4×2000) MHz
Tipul memorieiGDDR5
Autobuz de memorie256 de biți
Memorie8 GB
Lățimea de bandă a memoriei256 GB/s
Performanță de calcul (FP32)aproximativ 6,5 teraflopi
Rata maximă de umplere teoretică96 gigapixeli/s
Rata teoretică de eșantionare a texturii181 gigatexeli/s
ObosiPCI Express 3.0
ConectoriUn Dual Link DVI, un HDMI și trei DisplayPort-uri
Consumul de energiepana la 150 W
Mâncare suplimentarăUn conector cu 8 pini
Numărul de sloturi ocupate în carcasa sistemului2
Pret recomandat379-449 USD (SUA), 34.990 (Rusia)

Placa video GeForce GTX 1070 a primit și un nume logic, similar cu aceeași soluție din seria GeForce anterioară. Se deosebește de predecesorul său direct GeForce GTX 970 doar prin numărul de generație schimbat. Noul produs din linia actuală a companiei este cu un pas mai jos decât soluția actuală de top GeForce GTX 1080, care a devenit emblema temporară a noii serii până la lansarea soluțiilor pe GPU-uri de putere și mai mare.

Prețurile recomandate pentru noua placă grafică de top de la Nvidia sunt de 379 USD și, respectiv, 449 USD pentru versiunile obișnuite ale partenerilor Nvidia și, respectiv, ediția specială Founders. În comparație cu modelul de top, acesta este un preț foarte bun având în vedere că GTX 1070 este cu aproximativ 25% în urmă în cel mai rău caz. Iar la momentul anunțării și lansării, GTX 1070 devine cea mai bună soluție de performanță din clasa sa. La fel ca GeForce GTX 1080, GTX 1070 nu are concurenți direcți de la AMD și poate fi comparat doar cu Radeon R9 390X și Fury.

Procesorul grafic GP104 din modificarea GeForce GTX 1070 a decis să lase o magistrală de memorie completă de 256 de biți, deși nu au folosit noul tip de memorie GDDR5X, ci GDDR5 foarte rapid, care funcționează la o frecvență efectivă mare de 8 GHz. Cantitatea de memorie instalată pe o placă video cu o astfel de magistrală poate fi de 4 sau 8 GB, iar pentru a asigura performanța maximă a noii soluții în setări și rezoluții de randare ridicate, modelul de placă video GeForce GTX 1070 a fost echipat și cu 8 GB de memorie video, ca și sora sa mai mare. Acest volum este suficient pentru a rula orice aplicație 3D cu setări de calitate maximă timp de câțiva ani.

Ediție specială GeForce GTX 1070 Founders Edition

Când GeForce GTX 1080 a fost anunțată la începutul lunii mai, a fost anunțată o ediție specială a plăcii video numită Founders Edition, care avea un preț mai mare în comparație cu plăcile video obișnuite de la partenerii companiei. Același lucru este valabil și pentru noul produs. În acest articol vom vorbi din nou despre o ediție specială a plăcii video GeForce GTX 1070 numită Founders Edition. Ca și în cazul modelului mai vechi, Nvidia a decis să lanseze această versiune a plăcii video de referință a producătorului la un preț mai mare. Ei susțin că mulți jucători și entuziaști care cumpără plăci grafice de ultimă generație și scumpe își doresc un produs cu un aspect și un aspect adecvat „premium”.

În consecință, pentru astfel de utilizatori va fi lansată pe piață placa video GeForce GTX 1070 Founders Edition, care este proiectată și realizată de inginerii Nvidia din materiale și componente premium, cum ar fi capacul de aluminiu GeForce GTX 1070 Founders Edition, precum și ca o placă din spate cu profil redus care acoperă partea din spate a plăcii de circuit imprimat și destul de populară printre entuziaști.

După cum puteți vedea din fotografiile plăcii, GeForce GTX 1070 Founders Edition a moștenit exact același design industrial inerent referinței GeForce GTX 1080 Founders Edition. Ambele modele folosesc un ventilator radial care evacuează aerul încălzit spre exterior, ceea ce este foarte util atât în ​​cazurile mici, cât și în configurațiile SLI multi-cip cu spațiu fizic limitat. Suflarea aerului încălzit în exterior în loc să-l circule în interiorul carcasei reduce stresul termic, îmbunătățește rezultatele overclockării și prelungește durata de viață a componentelor sistemului.

Sub capacul sistemului de răcire de referință GeForce GTX 1070 se află un radiator din aluminiu cu formă specială, cu trei conducte de căldură din cupru încorporate care elimină căldura din GPU-ul în sine. Căldura îndepărtată de conductele de căldură este apoi disipată de un radiator din aluminiu. Ei bine, placa metalică cu profil redus de pe spatele plăcii este, de asemenea, proiectată pentru a oferi caracteristici de temperatură mai bune. De asemenea, are o secțiune retractabilă pentru o mai bună mișcare a aerului între mai multe plăci grafice în configurații SLI.

În ceea ce privește sistemul de alimentare al plăcii, GeForce GTX 1070 Founders Edition are un sistem de alimentare cu patru faze optimizat pentru o alimentare stabilă cu energie. Nvidia susține că utilizarea componentelor speciale în GTX 1070 Founders Edition a îmbunătățit eficiența energetică, stabilitatea și fiabilitatea în comparație cu GeForce GTX 970, oferind performanțe de overclocking mai bune. În testele proprii ale companiei, GPU-urile GeForce GTX 1070 au depășit cu ușurință 1,9 GHz, ceea ce este aproape de rezultatele modelului mai vechi GTX 1080.

Placa grafică Nvidia GeForce GTX 1070 va fi disponibilă în magazinele cu amănuntul începând cu 10 iunie. Prețurile recomandate pentru GeForce GTX 1070 Founders Edition și soluțiile partenere diferă, iar aceasta este cea mai importantă întrebare pentru această ediție specială. Dacă partenerii Nvidia își vând plăcile video GeForce GTX 1070 începând de la 379 USD (pe piața din SUA), atunci ediția fondatoare a designului de referință al Nvidia va costa 449 USD. Sunt mulți pasionați dispuși să plătească în plus pentru, sincer vorbind, avantajele dubioase ale versiunii de referință? Timpul ne va spune, dar credem că placa de referință este mai interesantă ca opțiune disponibilă pentru cumpărare chiar de la începutul vânzărilor, iar ulterior punctul de achiziție (și chiar la un preț mai mare!) este deja redus la zero.

Rămâne de adăugat că placa de circuit imprimat a GeForce GTX 1070 de referință este similară cu cea a plăcii video mai vechi și ambele diferă de designul plăcilor anterioare ale companiei. Consumul de energie tipic pentru noul produs este de 150 W, ceea ce este cu aproape 20% mai mic decât valoarea pentru GTX 1080 și este aproape de consumul de energie al plăcii video din generația anterioară GeForce GTX 970. Placa de referință Nvidia are un set familiar de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un Dual-Link DVI, unul HDMI și trei DisplayPort. Mai mult, există suport pentru noile versiuni de HDMI și DisplayPort, despre care am scris mai sus în recenzia modelului GTX 1080.

Schimbări arhitecturale

Placa video GeForce GTX 1070 se bazează pe cipul GP104, primul născut din noua generație de arhitectură grafică Pascal a Nvidia. Această arhitectură se bazează pe soluții dezvoltate la Maxwell, dar are și unele diferențe funcționale, despre care am scris în detaliu mai sus - în partea dedicată plăcii video de top GeForce GTX 1080.

Principala schimbare în noua arhitectură a fost procesul tehnologic prin care vor fi fabricate toate GPU-urile noi. Utilizarea procesului FinFET de 16 nm în producția GP104 a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o suprafață și un cost relativ scăzute, iar primul cip cu arhitectură Pascal are un număr semnificativ mai mare de unități de execuție, inclusiv cele oferind funcționalități noi, în comparație cu cipurile Maxwell de poziționare similară.

Designul cipului video GP104 este similar cu soluțiile similare de arhitectură Maxwell și puteți găsi informații detaliate despre designul GPU-urilor moderne în recenziile noastre despre soluțiile Nvidia anterioare. La fel ca GPU-urile anterioare, noile cipuri de arhitectură vor avea diferite configurații de Graphics Processing Cluster (GPC), Streaming Multiprocessor (SM) și controlere de memorie, iar GeForce GTX 1070 a suferit deja unele modificări - o parte a cipului a fost blocată și inactivă ( evidențiat cu gri):

Deși GPU-ul GP104 include patru clustere GPC și 20 de multiprocesoare SM, în versiunea pentru GeForce GTX 1070 a primit o modificare redusă cu un cluster GPC dezactivat de hardware. Deoarece fiecare cluster GPC are un motor de rasterizare dedicat și include cinci multiprocesoare SM și fiecare multiprocesor este format din 128 de nuclee CUDA și opt TMU-uri, această versiune a GP104 are 1920 de nuclee CUDA și 120 TMU-uri active din 2560 de procesoare de flux și 160 de blocuri disponibile fizic. .

GPU-ul pe care se bazează GeForce GTX 1070 conține opt controlere de memorie pe 32 de biți, oferind o magistrală de memorie totală de 256 de biți - exact la fel ca modelul mai vechi GTX 1080. Subsistemul de memorie nu a fost tăiat pentru a oferi suficient memorie cu lățime de bandă mare cu condiția utilizării memoriei GDDR5 în GeForce GTX 1070. Fiecare dintre controlerele de memorie este asociat cu opt blocuri ROP și 256 KB de cache de nivel al doilea, astfel încât cipul GP104 din această modificare conține și 64 de blocuri ROP și 2048 KB de nivelul cache al doilea nivel.

Datorită optimizărilor arhitecturale și unei noi tehnologii de proces, GPU-ul GP104 este cel mai eficient GPU din punct de vedere energetic de până acum. Inginerii Nvidia au reușit să mărească viteza ceasului mai mult decât se așteptau atunci când au trecut la o nouă tehnologie de proces, pentru care au fost nevoiți să muncească din greu pentru a verifica și optimiza cu atenție toate blocajele soluțiilor anterioare care nu le permiteau să lucreze la frecvențe mai mari. În consecință, GeForce GTX 1070 funcționează și la o frecvență foarte înaltă, cu peste 40% mai mare decât valoarea de referință pentru GeForce GTX 970.

Întrucât modelul GeForce GTX 1070 este, în esență, doar un GTX 1080 ceva mai puțin puternic cu memorie GDDR5, acceptă absolut toate tehnologiile pe care le-am descris în secțiunea anterioară. Pentru a afla mai multe despre arhitectura Pascal, precum și despre tehnologiile pe care le suportă, cum ar fi unități de procesare și ieșire video îmbunătățite, suport Async Compute, tehnologia Multi-Projection simultană, modificări ale redării SLI cu mai multe cipuri și noul tip de sincronizare rapidă, merită verificat cu o secțiune despre GTX 1080.

Memorie GDDR5 de înaltă performanță și utilizarea eficientă a acesteia

Am scris mai sus despre modificările subsistemului de memorie al procesorului grafic GP104, pe care se bazează GeForce GTX 1080 și GTX 1070 - controlerele de memorie incluse în acest GPU acceptă atât noul tip de memorie video GDDR5X, care este descris în detaliu în recenzia GTX 1080 și și vechea memorie GDDR5, cunoscută nouă de câțiva ani.

Pentru a nu pierde prea mult din lățimea de bandă a memoriei în modelul GTX 1070 mai tânăr în comparație cu GTX 1080 mai vechi, a lăsat active toate cele opt controlere de memorie pe 32 de biți, oferindu-i o interfață de memorie video comună completă de 256 de biți. În plus, placa video era echipată cu cea mai mare viteză de memorie GDDR5 disponibilă pe piață - cu o frecvență efectivă de operare de 8 GHz. Toate acestea au asigurat o lățime de bandă a memoriei de 256 GB/s, spre deosebire de 320 GB/s pentru soluția mai veche - capabilitățile de calcul au fost, de asemenea, reduse cu aproximativ aceeași cantitate, astfel încât echilibrul a fost menținut.

Nu uitați că, deși debitul teoretic de vârf este important pentru performanța GPU-ului, trebuie să acordați atenție și cât de eficient este utilizat. În timpul procesului de randare, multe blocaje diferite pot limita performanța generală, împiedicând utilizarea întregii lățimi de bandă disponibile. Pentru a minimiza aceste blocaje, GPU-urile folosesc compresie specială fără pierderi pentru a îmbunătăți eficiența operațiunilor de citire și scriere a datelor.

Arhitectura Pascal a introdus deja a patra generație de compresie delta a informațiilor tampon, permițând GPU-ului să utilizeze mai eficient capacitățile disponibile ale magistralei de memorie video. Subsistemul de memorie din GeForce GTX 1070 și GTX 1080 utilizează tehnici îmbunătățite de comprimare a datelor, vechi și noi, fără pierderi, concepute pentru a reduce cerințele de lățime de bandă. Acest lucru reduce cantitatea de date scrise în memorie, îmbunătățește eficiența cache-ului L2 și reduce cantitatea de date trimise între diferite puncte de pe GPU, cum ar fi TMU și framebuffer.

GPU Boost 3.0 și funcții de overclocking

Majoritatea partenerilor Nvidia au anunțat deja soluții de overclockare din fabrică bazate pe GeForce GTX 1080 și GTX 1070. Și mulți producători de plăci video creează, de asemenea, utilitare speciale de overclocking care vă permit să utilizați noua funcționalitate a tehnologiei GPU Boost 3.0. Un exemplu de astfel de utilități este EVGA Precision XOC, care include un scaner automat pentru a determina curba tensiune-frecvență - în acest mod, pentru fiecare valoare a tensiunii, prin efectuarea unui test de stabilitate, se găsește o frecvență stabilă la care GPU-ul oferă performanțe crescute. . Cu toate acestea, această curbă poate fi modificată manual.

Cunoaștem bine tehnologia GPU Boost de pe plăcile video Nvidia anterioare. În GPU-urile lor, ei folosesc această caracteristică hardware, concepută pentru a crește viteza ceasului de funcționare a GPU-ului în moduri în care nu a atins încă limitele de consum de energie și disipare a căldurii. În GPU-urile Pascal, acest algoritm a suferit mai multe modificări, principala dintre acestea fiind o setare mai fină a frecvențelor turbo, în funcție de tensiune.

Dacă anterior diferența dintre frecvența de bază și frecvența turbo a fost fixată, atunci în GPU Boost 3.0 a devenit posibilă setarea decalajelor de frecvență turbo pentru fiecare tensiune separat. Acum, frecvența turbo poate fi setată pentru fiecare dintre valorile individuale ale tensiunii, ceea ce vă permite să scoateți pe deplin toate capacitățile de overclock de la GPU. Am scris despre această caracteristică în detaliu în recenzia noastră GeForce GTX 1080 și puteți utiliza utilitarele EVGA Precision XOC și MSI Afterburner pentru a face acest lucru.

Deoarece unele detalii s-au schimbat în metodologia de overclocking odată cu lansarea plăcilor video care acceptă GPU Boost 3.0, Nvidia a trebuit să facă explicații suplimentare în instrucțiunile pentru overclockarea noilor produse. Există diferite tehnici de overclocking cu diferite variabile care afectează rezultatul final. O anumită metodă poate fi mai potrivită pentru fiecare sistem specific, dar elementele de bază sunt întotdeauna aproximativ aceleași.

Mulți overclockeri folosesc benchmark-ul Unigine Heaven 4.0 pentru a verifica stabilitatea sistemului, care încarcă perfect GPU-ul cu lucru, are setări flexibile și pot fi lansate în modul fereastră împreună cu o fereastră de utilitate de overclocking și monitorizare în apropiere, cum ar fi EVGA Precision sau MSI Afterburner. Cu toate acestea, o astfel de verificare este suficientă doar pentru estimările inițiale și, pentru a confirma cu fermitate stabilitatea overclockării, trebuie verificată în mai multe aplicații de jocuri, deoarece diferite jocuri necesită încărcări diferite pe diferite blocuri funcționale ale GPU-ului: matematic, textura, geometric. . Benchmark-ul Heaven 4.0 este convenabil și pentru sarcinile de overclocking, deoarece are un mod de funcționare în buclă, în care este convenabil să schimbi setările de overclocking și există un benchmark pentru evaluarea creșterii vitezei.

Nvidia recomandă să rulați împreună Heaven 4.0 și EVGA Precision XOC atunci când overclockați noile plăci video GeForce GTX 1080 și GTX 1070. În primul rând, este recomandabil să creșteți imediat viteza ventilatorului. Iar pentru overclocking serios, puteți seta imediat valoarea vitezei la 100%, ceea ce va face placa video foarte tare, dar va răci GPU-ul și celelalte componente ale plăcii video cât mai mult posibil, reducând temperatura la cel mai scăzut nivel posibil. , prevenind accelerarea (o scădere a frecvențelor datorită creșterii temperaturii GPU peste o anumită valoare).

Apoi, trebuie să setați și ținta de putere la maxim. Această setare va oferi cantitatea maximă de putere pentru GPU, crescând nivelul de consum de energie și ținta GPU Temp. În unele scopuri, a doua valoare poate fi separată de modificarea țintei de putere, iar apoi aceste setări pot fi ajustate individual - pentru a obține o încălzire mai mică a cipul video, de exemplu.

Următorul pas este creșterea valorii creșterii frecvenței cipului video (GPU Clock Offset) - înseamnă cât de mai mare va fi frecvența turbo în timpul funcționării. Această valoare crește frecvența pentru toate tensiunile și are ca rezultat o performanță mai bună. Ca întotdeauna, atunci când faceți overclock, trebuie să verificați stabilitatea prin creșterea frecvenței GPU-ului în pași mici - de la 10 MHz la 50 MHz pe pas înainte de a observa bâlbâială, erori de driver sau de aplicație sau chiar artefacte vizuale. Când se atinge această limită, ar trebui să reduceți valoarea frecvenței cu un pas mai jos și să verificați din nou stabilitatea și performanța în timpul overclockării.

Pe lângă frecvența GPU, puteți crește și frecvența memoriei video (Memory Clock Offset), lucru deosebit de important în cazul GeForce GTX 1070, echipat cu memorie GDDR5, care de obicei overclockează bine. Procesul în cazul frecvenței de funcționare a memoriei repetă exact ceea ce se face atunci când se găsește o frecvență GPU stabilă, singura diferență este că pașii pot fi măriți - adăugând 50-100 MHz deodată la frecvența de bază.

Pe lângă pașii descriși mai sus, puteți crește și limita de tensiune (supratensiune), deoarece frecvențele mai mari ale GPU sunt adesea obținute la tensiuni mai mari atunci când părțile instabile ale GPU-ului primesc putere suplimentară. Adevărat, un dezavantaj potențial al creșterii acestei valori este posibilitatea de deteriorare a cipul video și defecțiune accelerată, așa că trebuie să utilizați creșterea tensiunii cu precauție extremă.

Pasionații de overclocking folosesc tehnici ușor diferite, schimbând parametrii în ordine diferite. De exemplu, unii overclockeri împărtășesc experimente pentru a găsi o frecvență stabilă a GPU-ului și a memoriei, astfel încât acestea să nu interfereze între ele, apoi testează overclockarea combinată atât a cipul video, cât și a cipurilor de memorie, dar acestea sunt detalii nesemnificative ale unui individ. abordare.

Judecând după opiniile din forumuri și comentariile la articole, unor utilizatori nu le-a plăcut noul algoritm de operare al GPU Boost 3.0, când frecvența GPU-ului crește mai întâi foarte mult, adesea peste frecvența turbo, dar apoi, sub influența creșterii temperaturii GPU-ului sau creșterea consumului de energie peste limita setată, poate scădea la valori semnificativ mai mici. Acesta este doar specificul algoritmului actualizat; trebuie să vă obișnuiți cu noul comportament al frecvenței GPU care se schimbă dinamic, dar nu are consecințe negative.

Placa video GeForce GTX 1070 a devenit al doilea model după GTX 1080 din noua linie Nvidia bazată pe familia de procesoare grafice Pascal. Noua tehnologie de proces FinFET de 16 nm și optimizările arhitecturii au permis plăcii video prezentate să atingă viteze mari de ceas, ceea ce este ajutat și de noua generație de tehnologie GPU Boost. Chiar și în ciuda numărului redus de unități funcționale sub formă de procesoare de flux și module de textură, numărul acestora rămâne suficient pentru ca GTX 1070 să devină cea mai profitabilă și mai eficientă soluție din punct de vedere energetic.

Instalarea memoriei GDDR5 pe cel mai tânăr dintre modelele de plăci video Nvidia lansate pe cipul GP104, spre deosebire de noul tip GDDR5X care distinge GTX 1080, nu îl împiedică să atingă indicatori de performanță ridicată. În primul rând, Nvidia a decis să nu taie magistrala de memorie a modelului GeForce GTX 1070, iar în al doilea rând, a instalat cea mai rapidă memorie GDDR5, cu o frecvență efectivă de 8 GHz, care este doar puțin mai mică decât 10 GHz a GDDR5X folosit în versiunea mai veche. model. Luând în considerare algoritmii de compresie delta îmbunătățiți, lățimea de bandă efectivă a memoriei a GPU-ului a devenit mai mare decât cea a modelului similar al generației anterioare GeForce GTX 970.

GeForce GTX 1070 este bună pentru că oferă performanțe foarte înalte și suport pentru noi caracteristici și algoritmi la un preț semnificativ mai mic în comparație cu modelul mai vechi anunțat puțin mai devreme. Dacă doar câțiva pasionați își pot permite să achiziționeze un GTX 1080 pentru 55.000, atunci un cerc mult mai mare de potențiali cumpărători va putea plăti 35.000 pentru doar un sfert de soluție mai puțin productivă, cu exact aceleași capacități. Combinația dintre prețul relativ scăzut și performanța ridicată a făcut ca GeForce GTX 1070 să fie poate cea mai profitabilă achiziție la momentul lansării sale.

Accelerator grafic GeForce GTX 1060

ParametruSens
Numele codului cipuluiGP106
Tehnologia de producție16 nm FinFET
Numărul de tranzistori4,4 miliarde
Zona centrală200 mm²
ArhitecturăUnificat, cu o serie de procesoare comune pentru procesarea în flux a numeroase tipuri de date: vârfuri, pixeli etc.
Suport hardware DirectXDirectX 12, cu suport pentru Feature Level 12_1
Autobuz de memorie192 de biți: șase controlere independente de memorie pe 32 de biți care acceptă memoria GDDR5
Frecvența GPU1506 (1708) MHz
Blocuri de calcul10 multiprocesoare de streaming, inclusiv 1280 ALU scalare pentru calcule în virgulă mobilă în cadrul standardului IEEE 754-2008;
Blocuri de texturare80 de unități de adresare și filtrare a texturii cu suport pentru componente FP16 și FP32 în texturi și suport pentru filtrare triliniară și anizotropă pentru toate formatele de textură
Blocuri de operații raster (ROP)6 blocuri ROP largi (48 pixeli) cu suport pentru diferite moduri de anti-aliasing, inclusiv programabile și cu format de buffer de cadre FP16 sau FP32. Blocurile constau dintr-o serie de ALU configurabile și sunt responsabile pentru generarea și compararea adâncimii, eșantionarea multiplă și amestecarea
Suport monitorSuport integrat pentru până la patru monitoare conectate prin interfețe Dual Link DVI, HDMI 2.0b și DisplayPort 1.2 (1.3/1.4 Ready)

Specificațiile plăcii grafice de referință GeForce GTX 1060
ParametruSens
Frecvența miezului1506 (1708) MHz
Numărul de procesoare universale1280
Numărul de blocuri de textură80
Numărul de blocuri de amestecare48
Frecvența efectivă a memoriei8000 (4×2000) MHz
Tipul memorieiGDDR5
Autobuz de memorie192 de biți
Memorie6 GB
Lățimea de bandă a memoriei192 GB/s
Performanță de calcul (FP32)aproximativ 4 teraflopi
Rata maximă de umplere teoretică72 gigapixeli/s
Rata teoretică de eșantionare a texturii121 gigatexeli/s
ObosiPCI Express 3.0
ConectoriUn Dual Link DVI, un HDMI și trei DisplayPort-uri
Consumul de energie tipic120 W
Mâncare suplimentarăUn conector cu 6 pini
Numărul de sloturi ocupate în carcasa sistemului2
Pret recomandat249 USD (299 USD) în SUA și 18.990 USD în Rusia

Placa video GeForce GTX 1060 a primit, de asemenea, un nume similar cu aceeași soluție din seria GeForce anterioară, diferind de numele predecesorului său direct GeForce GTX 960 doar în prima cifră schimbată a generației. Noul produs din linia actuală a companiei este cu un pas mai jos decât soluția GeForce GTX 1070 lansată anterior, care este medie ca viteză în noua serie.

Prețurile recomandate pentru noua placă video Nvidia sunt de 249 USD și 299 USD pentru versiunile obișnuite ale partenerilor companiei și, respectiv, pentru Ediția specială pentru Fondator. În comparație cu cele două modele mai vechi, acesta este un preț foarte favorabil, întrucât noul model GTX 1060, deși inferior plăcilor de top, nu este nici pe departe la fel de mult mai ieftin decât ele. La momentul anunțării, noul produs a devenit cu siguranță cea mai performantă soluție din clasa sa și una dintre cele mai avantajoase oferte din această gamă de preț.

Acest model de placă video a familiei Pascal de la Nvidia a ieșit pentru a contracara soluția proaspătă a companiei concurente AMD, care puțin mai devreme a lansat pe piață Radeon RX 480. Puteți compara noul produs Nvidia cu această placă video, deși nu complet direct, deoarece acestea sunt încă destul de diferite ca preț. GeForce GTX 1060 este mai scump (249-299 USD față de 199-229 USD), dar este, de asemenea, în mod clar mai rapid decât concurentul său.

Procesorul grafic GP106 are o magistrală de memorie de 192 de biți, astfel încât cantitatea de memorie instalată pe o placă video cu o astfel de magistrală poate fi de 3 sau 6 GB. O valoare mai mică în condiții moderne, sincer, nu este suficientă, iar multe proiecte de joc, chiar și în rezoluție Full HD, se vor confrunta cu o lipsă de memorie video, ceea ce va afecta serios netezimea redării. Pentru a asigura performanța maximă a noii soluții în setări înalte, modelul de placă video GeForce GTX 1060 a fost echipat cu 6 GB de memorie video, ceea ce este suficient pentru a rula orice aplicație 3D cu orice setări de calitate. Mai mult, astăzi pur și simplu nu există nicio diferență între 6 și 8 GB, iar o astfel de soluție va economisi niște bani.

Consumul de energie tipic pentru noul produs este de 120 W, ceea ce este cu 20% mai mic decât valoarea pentru GTX 1070 și egal cu consumul de energie al plăcii video GeForce GTX 960 din generația anterioară, care are performanțe și capacități mult mai scăzute. Placa de referință are setul obișnuit de conectori pentru conectarea dispozitivelor de ieșire a imaginii: un Dual-Link DVI, unul HDMI și trei DisplayPort. Mai mult, există suport pentru noile versiuni de HDMI și DisplayPort, despre care am scris în recenzia modelului GTX 1080.

Lungimea plăcii de referință GeForce GTX 1060 este de 9,8 inci (25 cm), iar printre diferențele față de versiunile mai vechi, remarcăm separat că GeForce GTX 1060 nu acceptă configurația de randare SLI cu mai multe cipuri și nu are o configurație specială. conector pentru asta. Deoarece placa consumă mai puțină energie decât modelele mai vechi, pe placă a fost instalat un conector de alimentare externă PCI-E cu 6 pini pentru alimentare suplimentară.

Plăcile video GeForce GTX 1060 au apărut pe piață încă din ziua anunțului sub formă de produse de la partenerii companiei: Asus, EVGA, Gainward, Gigabyte, Innovision 3D, MSI, Palit, Zotac. O ediție specială a GeForce GTX 1060 Founder’s Edition, produsă chiar de Nvidia, va fi lansată și în cantități limitate, care vor fi vândute la un preț de 299 USD exclusiv pe site-ul Nvidia și nu vor fi prezentate oficial în Rusia. Ediția Fondatorului conține materiale și componente de înaltă calitate, inclusiv un șasiu din aluminiu, un sistem de răcire eficient, circuite de alimentare cu impedanță scăzută și regulatoare de tensiune proiectate la comandă.

Schimbări arhitecturale

Placa video GeForce GTX 1060 se bazează pe un model de procesor grafic complet nou GP106, care nu diferă funcțional de primul născut al arhitecturii Pascal sub forma cipului GP104, pe care sunt modelele GeForce GTX 1080 și GTX 1070 descrise mai sus. Această arhitectură se bazează pe soluții dezvoltate în Maxwell, dar are și unele diferențe funcționale, despre care am scris în detaliu mai devreme.

Cipul video GP106 este similar ca design cu cipul Pascal de top și cu soluțiile similare de arhitectură Maxwell, iar informații detaliate despre designul GPU-urilor moderne pot fi găsite în recenziile noastre despre soluțiile Nvidia anterioare. La fel ca GPU-urile anterioare, noile cipuri de arhitectură au diferite configurații de clustere de calcul Graphics Processing Cluster (GPC), Streaming Multiprocessors (SM) și controlere de memorie:

Procesorul grafic GP106 include două clustere GPC formate din 10 multiprocesoare de streaming (Streaming Multiprocessor - SM), adică exact jumătate din ceea ce este disponibil în GP104. Ca și în GPU mai vechi, fiecare multiprocesor conține 128 de nuclee de calcul, 8 unități de textură TMU, 256 KB de memorie de registru, 96 KB de memorie partajată și 48 KB de cache de prim nivel. Ca rezultat, GeForce GTX 1060 conține un total de 1280 de nuclee de procesare și 80 de unități de textură - jumătate mai multe decât GTX 1080.

Dar subsistemul de memorie al GeForce GTX 1060 nu a fost redus la jumătate în comparație cu soluția de top; acesta conține șase controlere de memorie pe 32 de biți, oferind o magistrală de memorie finală de 192 de biți. Cu o frecvență efectivă a memoriei video GDDR5 pentru GeForce GTX 1060 egală cu 8 GHz, lățimea de bandă ajunge la 192 GB/s, ceea ce este destul de bun pentru o soluție din acest segment de preț, mai ales având în vedere eficiența ridicată a utilizării acesteia în Pascal. Fiecare controler de memorie are opt blocuri ROP și 256 KB de cache L2 asociate, astfel încât în ​​total versiunea completă a GPU-ului GP106 conține 48 de blocuri ROP și 1536 KB de cache L2.

Pentru a reduce cerințele de lățime de bandă a memoriei și a face o utilizare mai eficientă a arhitecturii Pascal, compresia fără pierderi pe cip a fost îmbunătățită și mai mult, capabilă să comprima datele în buffer-uri pentru câștiguri în eficiență și performanță. În special, noi metode de compresie delta cu un raport de 4:1 și 8:1 au fost adăugate la cipurile noii familii, oferind o eficiență suplimentară de 20% a lățimii de bandă în comparație cu soluțiile anterioare ale familiei Maxwell.

Frecvența de bază a noului GPU este de 1506 MHz - frecvența nu ar trebui să scadă sub acest punct în principiu. Frecvența turbo tipică (Boost Clock) este mult mai mare și este egală cu 1708 MHz - aceasta este valoarea medie a frecvenței reale la care funcționează cipul grafic GeForce GTX 1060 într-o gamă largă de jocuri și aplicații 3D. Frecvența reală de Boost depinde de joc și de condițiile de testare.

Ca și restul familiei Pascal, GeForce GTX 1060 nu numai că funcționează la o viteză mare de ceas, oferind performanțe ridicate, dar are și un spațiu decent de overclocking. Primele experimente indică posibilitatea de a obține frecvențe de aproximativ 2 GHz. Nu este surprinzător că partenerii companiei pregătesc și versiuni overclockate din fabrică ale plăcii video GTX 1060.

Deci, principala schimbare în noua arhitectură a fost procesul tehnologic FinFET de 16 nm, a cărui utilizare în producția de GP106 a făcut posibilă creșterea semnificativă a complexității cipului, menținând în același timp o suprafață relativ scăzută de 200 mm², prin urmare acest cip cu arhitectură Pascal are un număr semnificativ mai mare de unități de execuție în comparație cu un cip Maxwell de poziționare similară, produs folosind tehnologia de proces de 28 nm.

Dacă GM206 (GTX 960) cu o suprafață de 227 mm² avea 3 miliarde de tranzistori și 1024 ALU-uri, 64 TMU-uri, 32 ROP-uri și o magistrală de 128 de biți, atunci noul GPU conținea 4,4 miliarde de tranzistori, 1280 ALU-uri în 200 mm². 80 TMU-uri și 48 ROP-uri cu o magistrală de 192 de biți. Mai mult, la o frecvență de aproape o ori și jumătate mai mare: 1506 (1708) față de 1126 (1178) MHz. Și asta cu același consum de energie de 120 W! Ca urmare, GPU-ul GP106 a devenit unul dintre cele mai eficiente GPU-uri energetice, alături de GP104.

Noi tehnologii Nvidia

Una dintre cele mai interesante tehnologii ale companiei, care este susținută de GeForce GTX 1060 și alte soluții ale familiei Pascal, este tehnologia Multiproiecție simultană Nvidia. Am scris deja despre această tehnologie în recenzia noastră GeForce GTX 1080; vă permite să utilizați mai multe tehnici noi pentru a optimiza randarea. În special, pentru a proiecta simultan o imagine VR pentru ambii ochi simultan, crescând foarte mult eficiența utilizării GPU-ului în realitate virtuală.

Pentru a suporta SMP, toate GPU-urile din familia Pascal au un motor special, care este situat în PolyMorph Engine la sfârșitul conductei de geometrie înainte de unitatea de rasterizare. Cu ajutorul său, GPU-ul poate proiecta simultan o primitivă geometrică pe mai multe proiecții dintr-un singur punct, iar aceste proiecții pot fi stereo (adică sunt acceptate până la 16 sau 32 de proiecții simultan). Această capacitate permite GPU-urilor Pascal să reproducă cu acuratețe suprafețele curbate pentru randarea VR, precum și să afișeze corect pe sisteme cu mai multe monitoare.

Este important ca tehnologia Simultaneous Multi-Projection este deja integrată în motoarele de jocuri populare (Unreal Engine și Unity) și jocuri, iar până în prezent a fost anunțat suport tehnologic pentru mai mult de 30 de jocuri în dezvoltare, inclusiv proiecte binecunoscute precum Unreal. Turneu , Poolnation VR, Everest VR, Obduction, Adr1ft și Raw Data. Interesant este că, deși Unreal Tournament nu este un joc VR, folosește SMP pentru a obține imagini de calitate superioară și a îmbunătăți performanța.

O altă tehnologie mult așteptată este un instrument puternic pentru crearea de capturi de ecran în jocuri. Nvidia Ansel. Acest instrument vă permite să creați capturi de ecran neobișnuite și de foarte înaltă calitate din jocuri, cu funcții indisponibile anterior, salvându-le la rezoluție foarte înaltă și completându-le cu diverse efecte și partajați creațiile dvs. Ansel vă permite să construiți literalmente o captură de ecran așa cum dorește artistul, permițându-vă să instalați o cameră cu orice parametri oriunde în scenă, să aplicați post-filtre puternice imaginii sau chiar să faceți o fotografie la 360 de grade pentru vizualizare într-un cască de realitate virtuală.

Nvidia a standardizat integrarea interfeței de utilizare Ansel în jocuri și este la fel de ușor ca adăugarea de câteva linii de cod. Nu este nevoie să așteptați ca această caracteristică să apară în jocuri; puteți evalua abilitățile lui Ansel chiar acum în jocul Mirror’s Edge: Catalyst, iar puțin mai târziu va deveni disponibil în Witcher 3: Wild Hunt. În plus, există multe proiecte de jocuri în dezvoltare cu suport Ansel, inclusiv jocuri precum Fortnite, Paragon și Unreal Tournament, Obduction, The Witness, Lawbreakers, Tom Clancy's The Division, No Man's Sky și altele.

De asemenea, noul GPU GeForce GTX 1060 acceptă setul de instrumente Nvidia VRWorks, care ajută dezvoltatorii să creeze proiecte impresionante de realitate virtuală. Acest pachet include multe utilități și instrumente pentru dezvoltatori, inclusiv VRWorks Audio, care vă permite să efectuați calcule foarte precise ale reflexiilor undelor sonore de la obiectele din scenă folosind ray tracing pe GPU. Pachetul include, de asemenea, integrarea în efectele fizice VR și PhysX pentru a asigura un comportament fizic corect al obiectelor din scenă.

Unul dintre cele mai interesante jocuri VR de care beneficiază VRWorks este VR Funhouse, propriul joc de realitate virtuală al Nvidia, care este disponibil gratuit pe serviciul Steam al Valve. Acest joc se bazează pe Unreal Engine 4 (Epic Games) și rulează pe plăci grafice GeForce GTX 1080, 1070 și 1060 împreună cu căștile HTC Vive VR. Mai mult, codul sursă al acestui joc va fi disponibil public, ceea ce va permite altor dezvoltatori să folosească idei și coduri gata făcute în atracțiile lor VR. Credeți-ne pe cuvânt, aceasta este una dintre cele mai impresionante demonstrații ale puterii realității virtuale.

Datorită și tehnologiilor SMP și VRWorks, utilizarea procesorului grafic GeForce GTX 1060 în aplicațiile VR oferă performanțe destul de suficiente pentru realitatea virtuală entry-level, iar GPU-ul în cauză îndeplinește nivelul minim necesar de hardware, inclusiv pentru SteamVR, devenind unul dintre cele mai de succes achiziții pentru utilizare în sisteme cu suport oficial VR.

Deoarece modelul GeForce GTX 1060 se bazează pe cipul GP106, care nu este deloc inferior în capacități față de procesorul grafic GP104, care a devenit baza modificărilor mai vechi, acceptă absolut toate tehnologiile descrise mai sus.

Placa video GeForce GTX 1060 a devenit al treilea model din noua linie a Nvidia, bazată pe familia de procesoare grafice Pascal. Noul proces tehnologic FinFET de 16 nm și optimizările arhitecturii au permis tuturor plăcilor video noi să atingă viteze mari de ceas și să găzduiască un număr mai mare de unități funcționale în GPU sub formă de procesoare de flux, module de textură și altele, în comparație cu cipurile video din generația anterioară. De aceea modelul GTX 1060 a devenit cea mai profitabilă și mai eficientă soluție energetic din clasa sa și în general.

Este deosebit de important ca GeForce GTX 1060 să ofere performanțe destul de ridicate și suport pentru noi funcții și algoritmi la un preț semnificativ mai mic în comparație cu soluțiile GP104 mai vechi. Cipul grafic GP106 al noului model oferă performanță și eficiență energetică de vârf. Modelul GeForce GTX 1060 este special conceput și este perfect pentru toate jocurile moderne la setări grafice înalte și maxime la o rezoluție de 1920x1080 și chiar cu antialiasing full-screen activat folosind diverse metode (FXAA, MFAA sau MSAA).

Iar pentru cei care doresc performanțe și mai bune cu afișaje de rezoluție ultra-înaltă, Nvidia are plăcile grafice de top GeForce GTX 1070 și GTX 1080, care sunt, de asemenea, foarte bune în performanță și eficiență energetică. Și totuși, combinația dintre preț scăzut și performanță suficientă distinge GeForce GTX 1060 de soluțiile mai vechi. În comparație cu Radeon RX 480 concurent, soluția Nvidia este puțin mai rapidă, cu mai puțină complexitate și amprentă GPU și are o eficiență energetică semnificativ mai bună. Adevărat, se vinde puțin mai scump, așa că fiecare placă video are propria sa nișă.



Ți-a plăcut articolul? Împărtășește-l