Контакти

Порівняння чіпсетів nvidia. Чіпсети сімейства NVIDIA nForce. Напруга живлення процесора, В

Вбудована графіка нового покоління прийшла першою на платформу AMD. Чому так? Ніякого секрету тут немає.

По-перше, системна логіка для платформи AMD влаштована значно простіше, ніж для платформи Intel. З тієї причини, що найскладніші компоненти вже вбудовані в центральний процесор, а на частку чіпсета материнської плати припадає лише підтримка периферії. Отже, вбудувати більш складне графічне ядро \u200b\u200bв кристал північного моста чіпсета для платформи AMD набагато простіше технічно.

По-друге, корпорація Intel, основний постачальник чіпсетів для своєї платформи, поки не змогла представити гідне графічне ядро, якого слід побоюватися NVIDIA. Не дивно, що керівництво останньої зажадало докласти всіх зусиль для своєчасного випуску нових інтегрованих чіпсетів для платформи AMD. Адже сама AMD, отримавши відділ розробки чіпсетів компанії ATI, стала активно розвивати саме напрямок інтегрованих рішень. І чіпсет з новим графічним ядром, що отримав назву AMD 780G, випустила першої саме вона.

Втім, NVIDIA підтяглася досить швидко. І, судячи за непрямими ознаками, її чіпсет вийшов більш надійним і доведеним до розуму, хоча і більш дорогим. Власне, чіпсет не один - їх ціла лінійка, від найпростіших і дешевих до повнофункціональних з підтримкою Tri-SLI. З них на ринок домашніх медіа-центрів націлені чіпсети GeForce 8000, які призначені для установки на материнські плати з максимальною кількістю мультимедіа-функцій.

Отже, що нам може запропонувати чіпсет GeForce 8200, базовий в згаданій лінійці? Він оснащений урізаним графічним ядром G86, успішно застосованим свого часу в відкритих серії GeForce 8400. Заявлена \u200b\u200bпідтримка DirectX 10 і шейдерів версії 4.0 навряд чи стане в нагоді власникові інтегрованої материнської плати, оскільки зважаючи на деяких "вроджених" особливостей (зокрема, немає локальної пам'яті - тільки системна, доступна через загальний контролер) продуктивність в 3D буде вельми низькою. Але з іншого боку, чіп G86 здатний апаратно обробляти відеопотік, стиснений новими кодеками, прискорюючи тим самим відтворення. При цьому новий чіпсет в повній мірі підтримує інтерфейс HDMI для підключення цифрових телевізорів, дозволяє передавати цифровий багатоканальний звук і відео з одного й того ж інтерфейсу.

Важливою може здатися і нова функція "гібридної" графіки, що дозволяє додавати дискретну відеокарту для спільного з вбудованою обрахунку 3D-графіки (технологія GeForce Boost). Правда, працювати це буде тільки для молодшої моделі на кшталт тієї ж 8400, покупка якої, між нами кажучи, не має ніякого сенсу. Якщо ж оснастити нову плату потужною відеокартою класу 9800 GT, то гібридна технологія може бути застосована для іншого - для відключення цієї відеокарти при роботі в 2D, що дає зниження температури і шуму комп'ютера.

З точки зору підтримки периферії у чіпсетів NVIDIA давно все в порядку - гігабітний Ethernet, RAID аж до рівня 5, 12 портів USB. У новій лінійці реалізована підтримка PCI Express 2.0. Незрозумілою залишається ситуація лише з External SATA: на платах з чіпсетами NVIDIA відповідний роз'єм якщо і зустрічається, то обслуговується додатковим контролером, а не чіпсетом. Але моделі зовнішніх вінчестерів з External SATA вже не рідкість.

Gigabyte M78SM-S2H. Дизайн, функціональність

Незважаючи на те, що чіпсети серії GeForce 8000 практично не поступаються чіпсету AMD 780G, та й інші моделі нового покоління досить непогані, компанія Gigabyte віддає перевагу саме чипсетам AMD 700-ої серії. Пов'язано це, можливо, з високою вартістю мікросхем NVIDIA. Зокрема, на базі чіпсета GeForce 8200 у Gigabyte є (на момент підготовки статті) тільки одна модель - M78SM-S2H.

А модель ця цікава. Почнемо з того, що вона оснащується відразу трьома відеовиходами - аналоговим VGA (з роз'ємом D-Sub) і цифровими DVI і HDMI. При цьому потрібно врахувати, що цифрові порти ділять на двох один CRTC-контролер, тобто виводять однакове зображення, в той час як порт VGA працює незалежно від них. Цей недолік може проявлятися, наприклад, неможливістю реалізувати режим "Театр", коли на телевізор виводиться повноекранне відео, яке на моніторі в той же час відтворюється в вікні.

З іншого боку, відсутня підтримка FireWire (тисяча триста дев'яносто чотири), хоча більшість відеокамер підключаються саме через нього. На панелі портів є урізаний до трьох набір аналогових "джеков", зате виведений електричний S / PDIF.

Виходить, що виробник рекомендує підключати і телевізор, і звук "по цифрі". Аудіокодек Realtek ALC888 - звичайний 8-канальний кодек з підтримкою основних функцій. Мережевий кодек теж Realtek, з підтримкою гігабітних мереж. Інша функціональність, в тому числі з підтримки жорстких дисків, забезпечується чіпсетом NVIDIA.

Детальніше розглянемо дизайн.

Плата виконана у форм-факторі microATX, але по ширині вона урізана майже на 3 см. На жаль, помістилися тільки два слоти DIMM, що було б не критично для плати початкового рівня, але модель Gigabyte аж ніяк не дешева. Набір інших слотів типовий для цього форм-фактора - по одному PCI Express, x16 і x1, плюс два PCI. Всі шість портів Serial ATA розведені, як і всі 12 портів USB (в тому числі 8 через внутрішні Штиркові роз'єми).

Модуль живлення процесора виконаний по 4-фазній схемі, динамічне управління кількістю фаз не реалізоване.

У ланцюгах використані твердотільні конденсатори, але тільки для VRM процесора. Обидва роз'єми живлення розташовані в зручних місцях.

Для охолодження чіпсета, а точніше, одного чіпа MCP78S, з якого і складається GeForce 8200, застосований великий алюмінієвий радіатор, пофарбований "під золото".

Щоб не заважати встановленню карти розширення в слот PCIe x1, який у плати тільки один, радіатор у відповідному місці спиляно.

Всі роз'єми розташовані в зручних місцях, за винятком Front Audio, який винесений ближче до аудіокодек. Особливість останніх моделей Gigabyte, і M78SM-S2H зокрема, полягає в тому, що всі роз'єми не тільки детально розфарбовані, а й забезпечені підписами прямо на колодках (великими і читабельними), а також рамками для надійної фіксації.

Будемо сподіватися, що і інші виробники почнуть ставити такі колодки.

Панель портів у плати нестандартна. Про три відеовиходи і S / PDIF ми вже згадували, як і про 4 порту USB. Тут є також архаїчний порт LPT (важко припустити, навіщо він може знадобитися в домашньому комп'ютері), зате PS / 2 порт для мишки відсутня - на його місці розташовані два USB.

BIOS, настройки

За традицією плата M78SM-S2H забезпечена BIOS фірми Award, до якого внесено деякі фірмові зміни. Наприклад, самі "небезпечні" опції доступні після натискання Ctrl-F1 в головному меню BIOS Setup.

Для підвищення продуктивності і розгону слід заглянути в розділ MB Intelligent Tweaker, оскільки в інших розділах нічого цікавого виявлено не було.

Обсяг налаштувань для розгону дуже невеликий і включає:

  • вибір опорної частоти шини HT, від якої залежить тактова частота процесора (за замовчуванням 200 МГц);
  • вибір множника (для процесорів серії Black Edition);
  • вибір множника (у вигляді частоти) і ширини каналу HT між процесором і чіпсетом;
  • настройка частоти шини PCI Express;
  • зміна напруги на процесорі і модулях пам'яті; для процесора відображається номінальна напруга (так би мовити, для довідки).

У підрозділі управління роботою пам'яті можна вказати бажану її частоту (400, 533, 667, 800 або 1066 МГц), яка не завжди буде збігатися з реальною (зважаючи на особливості тактирования пам'яті у процесорів AMD).

Набір таймингов прихований від користувача, можна змінити лише CAS Latency.

У розділі PC Health Status можна знову ж за традицією вказати поріг температури, після досягнення якого включається "сирена", і активувати попередження про зупинку кулера процесора і вентилятора в корпусі.

Управління обертанням процесорного кулера є, але воно не налаштовується; вентилятор в корпусі не управляємо.

В цілому набір налаштувань плати M78SM-S2H досить скромний для плати домашнього призначення і швидше характерний для плати офісної.

Комплектація

У коробці з платою Gigabyte M78SM-S2H виявлений компакт-диск (драйвери і утиліти для плат на чіпсетах NVIDIA), заглушка для панелі портів, два кабелі Serial ATA, один IDE і один FDD.

Керівництво користувача дуже докладний, є невелика інструкція на французькому і турецькому (мабуть, в цих країнах заборонено продавати товари без інструкції). Ніяких інших аксесуарів, які можуть стати в нагоді користувачеві, в комплекті немає.

тестування

Ми провели тестування плати Gigabyte в складі комп'ютера наступної конфігурації:

  • процесор Athlon 64 X2 5000+ Black Edition (2.6 ГГц);
  • пам'ять DDR2 GoodRAM PRO DDR2-900 2 x 1 Гб;
  • жорсткий диск WD Caviar SE 250 Гб.

Для порівняння наведемо результати тестування конкуруючого продукту - плати Micro-Star на чіпсеті AMD 780G. Дана плата в чомусь поступається M78SM-S2H (немає підтримки RAID і роз'єму DVI), а в чомусь перевершує, в тому числі за вартістю.

продуктивність. У тесті SYSMark 2007 задіяний цілий ряд сучасних додатків, які відпрацьовують той чи інший сценарій - послідовність дій користувача. Ми запускали цей пакет і в Windows XP, і в Windows Vista.

І, судячи з усього, у плати Gigabyte продуктивність на 5-10% вище. Зворотний результат спостерігався тільки в Vista, в сценарії відеомонтажу, в чому винен скоріше сам тест SYSMark 2007.

А ось з продуктивністю вбудованої графіки в 3D-іграх у даній плати (і у всіх аналогів) проблеми.

Розраховувати на играбельность можна лише в іграх типу Quake 4 або Call за Duty 2, та й то при мінімальних налаштуваннях і роздільній здатності нижче 1024х768. У вбудованої графіки чіпсета AMD 780G показники кращі, але теж далекі від бажаного.

розгін. Плата M78SM-S2H здатна працювати при опорній частоті шини HT, рівній 405 МГц (Якщо процесор дозволить, звичайно). Значення вище цього BIOS просто не дозволяє ввести. Що стосується конкретних результатів розгону тестового процесора Athlon 64 X2 5000+, то у нас вийшов результат всього 2.75 ГГц, або 6% приросту. А все тому, що BIOS не дає підвищити напругу Vcore вище 1.55 В.

Плата Gigabyte M78SM-S2H цікава насамперед наявністю відразу трьох виходів на монітор, включаючи HDMI. Її вбудована графіка здатна підтримувати 3D-ігри (нехай і в мінімальному якості), а також апаратно декодувати HD-відео на дисках Blu-ray. У плюси запишемо також підтримку RAID і наявність шести роз'ємів Serial ATA. Разом з тим дана плата не придатна для розгону (по крайней мере, при активованої вбудованої графіку) і не має ніяких додаткових функцій, які покладені оптимальної моделі для домашнього ПК.

плюси:

  • три відеовиходи;
  • практична компоновка, зменшена ширина;
  • 6 портів Serial ATA і 12 USB;
  • твердотільні конденсатори в ланцюгах VRM процесора.

мінуси:

  • всього два слоти DIMM;
  • немає FireWire;
  • не підтримується аналогове підключення акустики 7.1;
  • бідний настройками BIOS.

Дякуємо компанії "ДжетСервіс" за надану материнську плату Gigabyte

Оцінка автора:

Компанія NVIDIA добре відома користувачам ПК як визнаний лідер ринку ігрових відеокарт. Завдяки своїм 3D-прискорювачів GeForce компанії вдалося зайняти практично монопольне становище, оскільки вона відчуває конкуренцію тільки з боку однієї графічної компанії, ATI Technologies. Не зупиняючись на досягнутому, NVIDIA зробила спробу вторгнутися на інший ринок, ринок чіпсетів для материнських плат.

Однак успішної цю спробу назвати ніяк не можна. На мій погляд, повторилася ситуація з запуском графічного бізнесу NVIDIA. Як відомо, компанія дебютувала на ринку з чіпом NV1 - інтегрованим контролером, які суміщають в собі і відео-, і звукову частину. Однак в підсумку довелося відмовитися від звуку і випустити NV2 (він же Riva128) - класичний графічний 3D-прискорювач.

Звичайно, сьогодні все йде не так, як це було на початку. NVIDIA - далеко не новачок в області розробки високотехнологічних продуктів. Однак у чіпсетів для материнських плат є своя специфіка: це не просто підсистема, як у випадку з графічним контроллером, це - найважливіший вузол системи, який виступає в ролі єднальної ланки між усіма іншими компонентами. Від чіпсета багато в чому залежать практично всі параметри системи - продуктивність, сумісність, розширюваність, функціональність, стабільність і т.д. З першого разу випустити продукт, який не поступається за всіма параметрами аналогам фірм, які не одну собаку з'їли на розробках чіпсетів, здається просто нереальним.

Однак треба віддати належне сміливості NVIDIA. Фірма не просто запропонувала свій аналог, вона використовувала найпередовіші і багатообіцяючі технології, зробивши заявку на лідерство як в сегменті продуктивних ПК, так і в сегментах базових (mainstream) і бюджетних (value) систем. На жаль, все йде до того, що спроба в цілому не вдалася. Однак про це - трохи пізніше, а зараз - короткий огляд чіпсетів серії nForce з зіставленням того, що хотіла NVIDIA, і що вийшло насправді.

Чіпсети nForce: 420D, 415D, 220D, 220

Сімейство чіпсетів NVIDIA включає в себе на даний момент чотири базових модифікації: nForce 420D, 415D, 220D і 220 (по спадаючій вартості). Також найближчим часом будуть додані ще два чіпсета - nForce 620D і 615D, які є нічим іншим, як доробленими модифікаціями 420D і 415D відповідно (по крайней мере, такі відомості є на момент написання статті).

Структура чіпсета - класична двухчиповая: сполученням процесора, пам'яті і AGP-відеокарти займається північний міст, а за роботу з периферійними пристроями відповідає південний міст. Північних мостів nForce існує три: IGP-128, IGP-64 і SPP.

"IGP" - це "Integrated Graphics Processor" (інтегрований графічний процесор), північний міст з вбудованим графічним ядром, який NVIDIA називає процесором. Ідеологічно це невірно, тому що обробкою даних він не займається, а тільки комутує потоки даних і команд. Ось його частина, графічне ядро, дійсно є процесором. Варіанти чіпа з індексами -128 і -64 відрізняються сумарною шириною шини пам'яті (про те нижче). Чіп IGP-128 є основою nForce 420D, а IGP-64 - nForce 220D і 220.

"SPP" розшифровується як "System Platform Processor". Фактично це все той же IGP-128, але з відключеним графічним ядром. NVIDIA довелося відмовитися від вбудованої графіки, досить повільної за нинішніми мірками, оскільки сучасним вимогам вона вже не задовольняє. Ринок продуктивних комп'ютерів не прийняв nForce 420D, проте у випадку з nForce 415D (саме цей чіпсет використовує північний міст SPP) ситуація може змінитися докорінно. Щось подібне свого часу сталося з Intel і чіпсетом i815. Мені, наприклад, незрозуміло, чому NVIDIA наступила на ті ж граблі.

Як південний міст NVIDIA пропонує чіп MCP-D або його спрощений варіант MCP. "MCP" розшифровується як "Media and Communication Processor". У його склад входить звуковий контролер NVIDIA "APU" (Audio Processing Unit), контролери USB і ATA, PCI і LPC інтерфейс, мережевий контролер MAC-рівня, SMBus-контролер, інші контролери і дещо незвичайне - тактовий генератор. Зв'язок з північним мостом здійснюється за допомогою шини HyperTransport - фактично це перший масовий продукт, який має підтримку цієї новітньої розробки AMD.

Давайте детально розглянемо особливості архітектури і функціонування чіпів.

Північні мости IGP і SPP: TwinBank, DASP, NV11

Північний міст чіпсета nForce 420D - це чіп, що забезпечує взаємодію процесора, пам'яті, AGP-відеокарти і моста MCP. Він складається з наступних блоків:

  • шинний інтерфейс (підтримка шини EV6 з ефективною частотою 200 і 266 МГц, що використовується процесорами AMD K7);
  • хост-контролер AGP (режими 4x, FastWrites, SBA, частота 66 МГц);
  • контролер шини HyperTransport (для зв'язку з MCP, пропускна здатність - 800 Мб / с);
  • два незалежних контролера пам'яті, підтримка SDRAM і DDR SDRAM, частота - до 133 МГц, обсяг - до 1.5 Гб;
  • вбудоване графічне ядро \u200b\u200bGPU (NV11 GeForce2 MX);
  • інтелектуальний арбітр-комутатор.

Чіпсет nForce підтримує тільки процесори AMD Athlon і Duron. Однак у NVIDIA немає будь-яких технічних проблем з реалізацією підтримки інших процесорів, зокрема, Intel Pentium-4. По ряду причин - маркетингових, юридичних і т.д. - на даний момент існує тільки варіант чіпсета для платформи AMD.

Вбудоване графічне ядро \u200b\u200bповністю еквівалентно чіпу NV11 (GeForce2 MX). Відмінності лише в тактових частотах і інтерфейсі пам'яті. Вбудоване ядро \u200b\u200bкористується системними контролерами, які надають доступ до пам'яті інших компонентів системи (в першу чергу процесору). Графічне ядро \u200b\u200bможе бути відключено, якщо в слот AGP встановлена \u200b\u200bзовнішня відеокарта. Для більшості користувачів, що використовують гри або графічні додатки, можливостей і швидкодії GeForce2 MX буде недостатньо.

Для реалізації виведення на телевізор і цифровий монітор чіпсет підтримує спеціальні плати розширення, що встановлюються в слот AGP. Втім, вони мало поширені, так що скористатися цією можливістю навряд чи вдасться.

Чіп SPP відрізняється від IGP тільки відключеним вбудованим відео.

TwinBank - ключова особливість архітектури nForce, через яку, власне, продуктивність чіпсета повинна була виявитися досить високою. Її суть в тому, що у чіпсета є не один, а два повноцінних незалежних 64-розрядних контролера пам'яті, до яких можуть звертатися всі блоки чіпсета. Кожен з контролерів працює зі своїм набором банків (перший - з DIMM0, другий - з DIMM1 і DIMM2). Дані розташовуються у всіх банках з чергуванням. При послідовному зверненні до пам'яті пристрій буде отримувати дані з обох банків по черзі в режимі конвеєра, що дозволить скоротити затримки, пов'язані з відкриттям / закриттям сторінок, затримками на регенерацію і т.д. Якщо до пам'яті звертатимуться відразу кілька пристроїв, їм не доведеться простоювати в очікуванні, поки контролер закінчить роботу з іншим пристроєм. Тим самим гарантується приріст швидкості роботи з пам'яттю і збільшення її пікової пропускної спроможності до 4.2 Гб / с.

Використання такої архітектури не повинно привести до істотного збільшення швидкодії всієї системи з тієї простої причини, що пропускна здатність процесорної шини EV6 становить всього 2.1 Гб / с - додаткові 2.1 Гб / с їй практично нічого не дадуть. Архітектура TwinBank оптимізована насамперед для потреб вбудованого графічного ядра. Завдяки їй інтегрований GeForce2 MX буде в меншій мірі піддається проблем спільного поділу шини пам'яті з іншими компонентами системи, перш за все з процесором. Якщо ж буде починатися від нуля відеокарта, приріст швидкодії буде мало помітний, тому що прокачування текстур по AGP-каналу зазвичай не так інтенсивна, щоб завантажувати системну пам'ять.

NVIDIA стверджує, що якщо встановити тільки один DIMM-модуль, буде використовуватися тільки один контролер пам'яті. Тому бажано ставити два модуля - один в перший, другий - у другій слот. Так як контролери незалежні, можна ставити різні модулі і конфігурувати їх окремо. За деякими даними, якщо модулі пам'яті не будуть розпізнані як офіційно підтримувані (див. Список сумісних модулів на сайті NVIDIA), буде активований режим "Super Stability Mode", при якому тайминги пам'яті знижені. Таким чином NVIDIA бореться з проблемою низької стабільності свого чіпсета, виявленої відразу ж після появи перших материнських плат на його базі.

Чіп IGP-64 не дозволяє використовувати TwinBank (другий контролер пам'яті відключений), тому його вбудоване відео може теоретично досягти лише рівня GeForce2 MX200. Однак до останнього часу nForce 220D, який базується на чіпі IGP-64, ні затребуваний через занадто високу ціну, невідповідною з його функціональністю і продуктивністю.

Ще одна ключова особливість чіпа IGP (точніше, його арбітра) - аналізатор звернень до пам'яті DASP (Dynamic Adaptive Speculative Pre-Processor). Він відстежує запити на читання, аналізує їх характер і будує шаблони, за допомогою яких можна буде передбачити наступні запити. Після того, як шаблон визначено, DASP-блок починає генерувати запити самостійно, пророкуючи їх і кешіруя отримані дані. Тим самим смуга пропускання пам'яті використовується більш ефективно, а частина даних, правильно передбачена і отримана з пам'яті завчасно, надходить в процесор без звернення до пам'яті. Існуючі чіпсети-аналоги здатні тільки ставити запити в чергу, але не передбачати їх. Тим самим технологія DASP повинна підвищити ефективність TwinBank і забезпечити видачу даних з пам'яті з меншими затримками.

Південний міст MCP: APU

Південний міст NVIDIA MCP підключений до IGP / SPP за допомогою нової універсальної шини HyperTransport, основна перевага якої в даному випадку - висока пропускна здатність (800 Мб / с). Тільки чіпсети SIS мають більш швидкодіючу шину власної розробки - MuTIOL (1 Гб / с), та й та поза чіпів працює вдвічі повільніше.

MCP - типовий сучасний південний міст, що має в своєму складі контролери PCI (до п'яти слотів), LPC (підключення флеш-мікросхеми з ПЗУ і чіпа введення-виведення), USB (до шести портів), ATA / ATAPI (режим UltraATA / 100) , мережевий контролер MAC-рівня і два AC-інтерфейсу для звукових і модемних кодеків. Але є у цього моста і унікальна особливість - вбудований звуковий контролер APU (Audio Processing Unit). Він побудований на базі декількох DSP і здатний апаратно обробляти до 256 потоків 2D-звуку, до 64 потоків 3D-звуку, накладати різні спецефекти, в тому числі застосовувати HRTF-фільтри (для імітації об'ємного звучання). APU підтримує DirectSound3D і нові можливості DirectX8, а також API і алгоритми фірми Sensaura. Крім того, і це реалізовано вперше, звуковий контролер NVIDIA має вбудований блок кодування звуку в цифровий формат Dolby Digital (AC-3), завдяки чому дозволяє ефективно використовувати наявну у користувача цифрову акустику або систему "домашній кінотеатр". Втім, працює цей блок тільки у чіпа MCP-D (nForce420D), а у MCP він відключений.

А в чому проблема?

Добре, скажете ви, чіпсет чудовий - два контролера пам'яті, шина HyperTransport, більш ніж передовий вбудований звук, та й графічне ядро \u200b\u200b- краще на сьогоднішній день. Чому ж тоді ми не завалені платами на чіпсетах nForce?

Причин тому кілька. По-перше, чіпсет дуже дорогий. NVIDIA попросила за нього нереальні гроші, тому виробники материнських плат, що орієнтуються на небагатого користувача, відразу відмовилися від nForce - їх потенційні клієнти просто не зможуть купувати дорогі плати. Сьогодні з NVIDIA співпрацюють лише обрані компанії з позитивною репутацією, що випускають плати верхнього цінового діапазону - ASUS, ABIT, MSI, Leadtek і т.д.

По-друге, чіпсет виявився не надто вдалим. Ось тільки короткий перелік його проблем:

  1. не доведені до готовності BIOS, через що виникають проблеми з сумісністю, швидкодією і стабільністю;
  2. вбудований тактовий генератор не має широких можливостей по налаштуванню, що обмежує придатність плати до розгону;
  3. не передбачено достатніх коштів для настройки чіпсета;
  4. підтримка на рівні драйверів залишає бажати кращого: WinNT, Linux і деякі інші ОС практично не підтримуються, Win98 / ME - тільки частково (наприклад, з горем навпіл працює апаратний звук).

По-третє, чіпсет зовсім не вписався в ту нішу, на яку був націлений. Вбудоване ігрове відео виявилося недоречним при високій ціні - куди важливіше воно для бюджетної машини, але не для дорогої ігрової або робочої станції. На мій погляд, замість nForce420D слід відразу випускати пару nForce 415D + nForce 220D.

Проте, плати на базі nForce 420D після майже року доведення нарешті з'явилися в продажу в достатніх кількостях. Огляду однієї з них буде присвячена одна з наступних статей.

Комплектація.
У барвистій коробці, значних розмірів, крім материнської плати було:
1. SLI містки для 3-Way і звичайної 2-Way SLI режиму.
2. HDMI-to-DVI перехідник.
3. Додатковий вентилятор для материнської плати.
4. Перехідник для підключення вентиляторів.
5. Шлейфи UltraDMA 133/100/66, SATA cables.
6. Кабелі живлення SATA.
7. Додаткова плата з 2 портами USB 2.0 і IEEE 1394a
8. Керівництво до експлуатації.
9. Диск з драйверами і програмами від Asus, 3Dmark06 і, що мене особливо здивувало, з Антивірусом Касперського!
10. Диск з грою Company of Heroes - ліцензійна повна версія. Технічні специфікації.
Для нової материнської плати від Asus заявлені наступні можливості:
1. AMD® Socket AM2 + для процесорів AMD Phenom ™ FX / Phenom / Athlon ™ / Sempron ™
2. AMD Socket AM2 для процесорів AMD Athlon 64 X2 / Athlon 64 FX / Athlon 64 / Sempron
3. AMD Cool "n" Quiet ™ Technology
4. Chipset NVIDIA® nForce 780a SLI
5. System Bus Up to 5200 MT / s; HyperTransport ™ 3.0 interface for AM2 + CPU. 2000/1600 MT / s for AM2 CPU. Як бачимо, тут використовується нова шина, це перша відмінність від матерінчскіх плат попередньої серії.
6. Memory 4 x DIMM, max. 8GB, DDR2 1066/800/667, ECC and non-ECC, un-buffered memory. Тут друга відмінність. Правда це не заслуга нового чіпсета, а заслуга нових процесорів AMD. Завдяки тому, що у нових процесорів контролер пам'яті підтримує пам'ять з частотою 1066Mhz і материнська плата при установці нових процесорів буде її підтримувати.
7. Dual channel memory architecture
8. VGA Integrated graphics. А тут ми бачимо нову тактику Nvidia, коли це було таке: Топова материнська плата з інтегрованим відео? А робиться це все для підтримки нових технологій Hybrid SLI і Hybrid Power.
9. 512MB Maximum shared memory of MB Supports HDMI ™ Technology with HDCP compliant with max. resolution 1920 x 1200
10. Supports D-Sub with max. resolution 1920 × 1440 @ 75 Hz Multi VGA output support: DVI & D-Sub
11. Hybrid SLI Support
12. Слоти розширення 3 x PCIe2.0 x16 support NVIDIA SLI Tech @ dual x16 or [Email protected], X8, x8. Це ще одна відмінність 3-слота Pci-Exp.
13. 2 x PCIe x1, PCIex1_1 (black) is compatible with audio slot 2 x PCI 2.2
14. Storage 6 x SATA 3Gb / s ports with RAID 0, 1, 0 + 1, 5 and JBOD support
15.1 x Ultra DMA 133/100/66/33
16. LAN Dual Gigabit LAN controllers, both featuring AI NET2
16A. High Definition Audio SupremeFX II Audio Card
- ADI 1988B 8-channel High Definition Audio CODEC
- Noise Filter
-Coaxial, Optical S / PDIF out at back I / O
17. IEEE 1394 2 x 1394a ports (1 port at back I / O, 1 port onboard)
18. USB max. 12 USB2.0 / 1.1 ports (6 портів на материнській платі, 6 портів на корпус)
19. ASUS ROG Overclocking Features Extreme Tweaker
20. Нова 8 + 2 фазну система харчування.
21. Програми для розгону:
- CPU Level Up
- AI Overclocking (intelligent CPU frequency tuner)
- ASUS AI Booster Utility
- O.C Profile
22. Система захисту при розгоні:
- COP EX (Component Overheat Protection EX)
- Voltiminder LED
- ASUS C.P.R. (CPU Parameter Recall)
23. ASUS ROG Special Features LCD Poster
24. ROG BIOS Wallpaper
25. Onboard Switches: Power / Reset / Clr CMOS (at rear)
26. Q-Connector
27. ASUS EZ Flash2
28. ASUS CrashFree BIOS2
29. Stack Cool 2
30. ASUS Q-Shield
31. ASUS MyLogo3
32. Використовуються тільки твердотільні конденсатори.

33. Порти вводу-виводу на задній панелі:
1 x HDMI
1 x D-SUB
1 x PS / 2 Keyboard port (purple)
1 x Optical + 1 x Coaxial S / PDIF Output
2 x LAN (RJ45) port
6 x USB 2.0 / 1.1 ports
1 x IEEE1394a port
1 x Clr CMOS switch

34. Внутрішні порти:
3 x USB 2.0 connectors supports additional 6 USB 2.0 ports
1 x Floppy disk drive connector
1 x IDE connector for two devices
6 x SATA connectors
8 x Fan connectors: 1 x CPU / 1 x PWR / 3 x Chassis / 3 x Optional
3 x thermal sensor connectors
1 x IEEE1394a connector
1 x S / PDIF output connector
1 x Chassis Intrusion connector
24-pin ATX Power connector
8-pin ATX 12V Power connector
1 x En / Dis-able Clr CMOS
1 x LCD Poster
1 x ROG light connector
System panel connector

35. BIOS 8Mb Award BIOS, PnP, DMI2.0, WfM2.0, SM BIOS 2.4, ACPI2.0a Multi-Language BIOS
36. Manageability WOL by PME, WOR by PME, Chasis Intrusion, PXE
37. Form Factor ATX Form Factor, 12 "x 9.6" (30.5cm x 24.4cm)

Розгін.
На нову материнську плату, процесору Phenom 9850, без зусиль вдалося підкорити свої заповітні 2, 94 Ггц на номінальній напрузі 1,25 в ..
При підвищенні напруги кулер не справлявся зі своєю функцією, тому було вирішено відмовитися від даної маніпуляції. Тестова конфігурація і результати тестування.

Тестова конфігурація:
1. Asus Crosshair II Formula
2. AMD Phenom 9850 BOX
3. Gainward 8800 GTS 512Mb Blitz
4. 2x1GbSamsung PC6400 DDR800
5. 2xHD WD 250AAJS в Raid 0 масиві.
6. Корпус Colors-it
7. БП FSP 450W
8. Монітор ASUS 222U

Тестування проводилося в наступних тестах:

2. PC mark 2005.
3. 3Dmark 06.

1. Crysis (все на максимум, дозвіл 1280x1024)

Як бачимо, нова шина HyperTransport 3.0 дає свої результати. Новий чіпсет показує гідні результати.

У синтетичному тесті новий чіпсет також демонструє випереджальні результати.

В даному тесті ми також бачимо перевагу нового чіпсета. Відразу повинен обмовиться, - перевага йде за рахунок процесорного тесту.

4. Тест жорсткого диска з пакета Everest Ultimate.


Лінійна швидкість читання з Raid 0 масиву також вище, ніж у попереднього чіпсета.


Час доступу до даних на вінчестерах, також швидше на новому чіпсеті. висновки:
1. Новий чіпсет показує відмінні результати по продуктивності. У всіх тестах він виявляється швидше попередника.
2. Особливо порадувало підвищення швидкодії роботи з жорсткими дисками. Цьому я останнім часом приділяю все більшу увагу, так як вважаю, що в сучасному комп'ютері найслабше місце - це Жорсткі диски.
3. Шкода, але система охолодження процесора не дозволила оцінити всі розгінні якості материнської плати і процесора. Але я впевнений, розгінні характеристики процесора не були б такими ж приголомшливими, як тріумф нового чіпсета.
4. Все вище сказане затьмарюють лише нові процесори від AMD. Так, якщо ви не плануєте розгін - нову материнську плату можна купувати з процесором від AMD. Але з іншого боку варто платити 600 $ за в'язку з материнської плати і процесора. Так, звичайно, можна взяти процесор по дешевше. Але не логічно буде купувати материнську плату за 330 $, а процесор Phenom X3 за 170 $ або Athlon X2 за 100 $.
5. Звідси висновок - дана материнська плата відмінно підходить для Фанатів AMD і не більше.
6. Ми, розважливі користувачі, почекаємо материнські плати на чіпсетах nForce 750a SLI, благо материнські плати на нових чіпсетах nForce 750i SLI вже доступні у продажу.
Стаття підготовлена FireAiD спеціально для Mega Obzor.

Дивіться в цій статті:

Відкрите на базі NVIDIA GeForce RTX 2070, яким присвячений даний матеріал, є молодшими моделями з уже представлених на даних момент графічних адаптерів нового покоління з архітектурою NVIDIA Turing.

Якщо не брати до уваги дуже специфічну NVIDIA Titan RTX вартістю $ 2500, то для користувача відеокарти з архітектурою NVIDIA Turing представлені сімейством NVIDIA GeForce RTX 2080 Ti, RTX 2080 і RTX 2070. Це відеокарти високого класу, а через деякий час планується поява і більш простих пристроїв типу RTX 2060.

Дивимося на характеристики

Графічні процесори для нових відеокарт Turing виконуються по більш «тонкому» 12-нанометровим техпроцесом. Але, за чутками, цей техпроцес не є чимось принципово новим, а являє собою лише трохи доопрацьовану версію 16-нанометрового техпроцесу, який використовується в попередниках.

Для зручності порівняння характеристики нових GeForce RTX 2080 Ti, RTX 2080 і RTX 2070 і попередників GeForce GTX 1080 Ti, GTX 1080 GTX 1070 ми звели їх в одну таблицю.

Від покоління до покоління відеокарт NVIDIA можна спостерігати зростання вартості відеокарт. Але якщо раніше він був досить плавним, то в даному випадку адаптери NVIDIA Turing значно перевершили попередників за ціною.

За що платимо?

Почасти таке підвищення можна пояснити збільшилася складністю нових GPU. Зверніть увагу, що вони мають сильно зросла кількість транзисторів і значно вищу площа кристала. Відповідно, можна припустити, що собівартість таких кристалів виявляється вище.

Є деякі девіації за значеннями частот GPU. Пам'ять тепер нова. Замість GDDR5X і GDDR5 відеокарти RTX отримали GDDR6.

Але примітно, що обсяг пам'яті в новому покоління відеокарт залишився на тому ж рівні, що і у попередників.

Дуже важливо, що з'явилися зовсім нові ядра RT і тензорні ядра. Саме цим обумовлений таке зростання числа транзисторів і площі кристала GPU.

трасування променів

Покоління відеокарт RTX 2080 Ti, RTX 2080, RTX 2070 на базі архітектури Turing сама NVIDIA називає революційної і пов'язує це з апаратною підтримкою трасування променів в реальному часі.

Для цього впроваджено згадуються вище RT-ядра. NVIDIA вважає це настільки важливим, що звичну приставку GTX в нових відкритих навіть замінили на RTX, де RT - Ray Tracing (трасування променів).

Даної технології на презентації відеокарт нового покоління було приділено мало не головну увагу.

Якщо спрощено, то з Ray Tracing пов'язані нові ефекти відображень на об'єктах (в тому числі взаємних), відображень світла і проходження променів крізь об'єкти. При цьому промені можуть мати реалістичне переломлення, накладення і т. Д. Ray Tracing також дозволяє використовувати більш реалістичні пом'якшені тіні і формувати правдоподібне освітлення.

Це дійсно дуже важливе нововведення для індустрії, але, як не парадоксально, саме з технологією Ray Tracing і пов'язують досить холодний прийом нових відеокарт користувачами.

Нові RT-ядра зробили кристал більшим і дорогим, а що користувачі отримують взамін?

На момент виходу відеокарт RTX не було жодної гри, яка б володіла підтримкою Ray Tracing. Зараз ситуація змінюється, але дуже повільно.

Наприклад, спробувати Ray Tracing взагалі в будь-якій грі стало можливо зовсім недавно з виходом Battlefield V.

Як виявилося, картинка в Battlefield V з ефектами змінюється не так і кардинально. Покращення є, але зовсім не скажеш, що отримуєш принципово новий рівень сприйняття.

А ось обчислювальні ресурси Ray Tracing «під'їдають» істотно. При активації трасування променів продуктивність може падаємо більш ніж удвічі.

В результаті, навіть з дорогущей топової NVIDIA GeForce RTX 2080 Ti, рівень FPS при Full HD-дозволі, максимальних налаштуваннях якості з використанням Ray Tracing не завжди зможе задовольнити вимогливого геймера.

А що тоді говорити про більш простих RTX 2080, RTX 2070 і більше високій роздільній здатності?

Виходить що на даний момент ігор з Ray Tracing практично немає, візуально різниця в зображенні з ефектами RT не така кардинальна, а активація трасування призводить до великого падіння рівня FPS.

Для користувачів Ray Tracing в реальному часі поки є лише потенційно перспективною технологією. Подивимося, як буде розвиватися ситуація.

DLSS-згладжування, тензорні ядра і штучний інтелект

До того ж до абсолютно новим RT-ядер в відкритих RTX з'явилися і тензорні ядра, призначені для розрахунків ІІ і нейромереж. Вони працюють в зв'язці c RT-ядрами, але тензорні ядра можуть використовуватися і для інших функцій.

На базі їх роботи реалізований новий метод згладжування - DLSS (Deep Learning Super Sampling). Використовується знижене дозвіл рендеринга, але за рахунок ІІ і тензорних ядер відеокарта перетворює зображення в більш якісне, «додумивая» нові деталі.

Залежно від особливостей реалізації за рахунок цього можна домогтися збільшення продуктивності, підвищення якості зображення або того й іншого одночасно.

Знову-таки, як і в випадку з Ray Tracing, для роботи DLSS необхідна підтримка з боку ігор. Вказується, що кілька десятків готуються до виходу ігор будуть підтримувати DLSS-згладжування.

Одним з небагатьох тестів, де вже зараз можна перевірити DLSS, став бенчмарк Final Fantasy XV Benchmark. Якщо в системі встановлена \u200b\u200bвідеокарта GeForce RTX, в настройках з'являється відповідний пункт, що дозволяє активувати DLSS.

За нашими тестами, активація DLSS привела до істотного збільшення продуктивності.

Якість зображення з використанням DLSS і зі звичайним TAA-згладжуванням в цьому додатку можна порівняти. Ви можете самостійно порівняти кадри з DLSS і з TAA.

DLSS
TAA

Що ще нового?

Продовжує удосконалюватися технологія автоматичного підвищення частоти GPU. У відкритих NVIDIA RTX використовується вже четверте покоління GPU Boost.

Додана можливість ручного коректування алгоритму роботи розгону. Але куди цікавіше, що вперше з'явилася функція автоматичного розгону.

Якщо раніше для визначення граничної частоти GPU потрібно експериментувати, запускати різні ігри, додатки, то зараз процес може бути сильно спрощений.

У додатках типу MSI AfterBurner доступний новий пункт Nvidia Scanner. Натиснувши всього одну кнопку, через хвилин 15 автоматичних тестів ви отримаєте змінену криву частот / напружень GPU, відповідно, з більш високими значеннями частот.

У наших тестах для всіх відеокарт RTX 2070 ми перевіряли такий автоматичний розгін. Звичайно, для отримання ще більш високих результатів оверклокінгу доведеться все ж проводити більш складний розгін «вручну».

До видеокартам RTX можна підключити відразу два монітори з роздільною здатністю 8K. Максимальна кадрова частота становитиме 60 Гц у обох пристроїв виведення зображення.

Порти DisplayPort тепер відповідають версії DisplayPort 1.4a, а HDMI - HDMI 2.0b. Зверніть також увагу на наявність роз'єму USB Type-C прямо на відеокарті. Він призначений для нових VR-шоломів.

Втім, цей порт може використовуватися для будь-яких пристроїв з підтримкою USB Type-C.

Цілком очікувано, що була проведена робота з різними відеокодеками. Наприклад, додана підтримка компресії даних в форматі H.265 (HEVC) в режимі дозволі, а також підвищено якість кодування. З огляду на, що сьогодні відеокарти активно використовуються при відеомонтаж, це дуже актуально.

Можливість об'єднання декількох відеокарт в одній системі тепер доступна тільки в відкритих найвищого класу. NVIDIA GeForce RTX 2070 такої функції позбавлені.

Учасники тесту

В одному тесті нам вдалося зібрати відразу чотири відеокарти на базі NVIDIA GeForce RTX 2070 від різних виробників.

Це моделі ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G, Inno3D GeForce RTX 2070 Gaming OC X2 і MSI GeForce RTX 2070 GAMING Z 8G.

Всі вони мають значні відмінності від референсних RTX 2070, отримали підвищені частоти і використовують фірмові системи охолодження.

Порівняльна таблиця характеристик

Кодовий ідентифікатор моделі ROG-STRIX-RTX2070-O8G-GAMING GV-N2070AORUS X-8GC N20702-08D6X-2511683 -
Постачальник Поставши-під ASUS Поставши-під Gigabyte Поставши-під Inno3D Поставши-під MSI
Ціна, $ 796 742 675 725
результати вимірювань
продуктивність 87,49 87,73 86,21 87,93
100 96,91 98,54 98,79
Проізводітетльнось / Ціна 86,7 93,26 100 95,66
Технічні характеристики
чіпсет NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070 NVIDIA GeForce RTX 2070
Техпроцес чіпсета, нм 12 12 12 12
Тип і обсяг пам'яті, ГБ GDDR6, 8 GDDR6, 8 GDDR6, 8 GDDR6, 8
Конструкція системи охолодження фірмова фірмова фірмова фірмова
Кількість вентиляторів системи охолодження 3 3 2 2
Кількість займаних слотів 3 3 2 3
Суб'єктивна оцінка шумності охолодження відмінно відмінно добре відмінно
Номінальна частота GPU 1410 1410 1410 1410
Boost-частота GPU 1815 1815 1755 1830
Результуюча частота пам'яті, МГц 14000 14142 14000 14000
Шина пам'яті, біт 256 256 256 256
Вимагає додаткового живлення? да да да да
Тип роз'єму доп. харчування 6pin + 8pin 6pin + 8pin 6pin + 8pin 6pin + 8pin
Кількість виходів HDMI / DisplayPort / USB Type-C 2/2/1 3/3/1 1/3/1 2/2/1

ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING)

Представлена \u200b\u200bв тесті ASUSROGStrixGeForceRTX 2070OCedition на даний момент є найпотужнішою, в плані частотиGPU, і просунутої серед всіх відеокартASUS на базіRTX 2070.

Вона має традиційний для ASUS ROG Strix дизайн, який практично не змінився з часів минулого покоління.

Пристрій вийшло досить великим і в системі займе три слота розширення.

Тут використовується модифікована плата з конфігурацією фаз живлення 10 + 2 і фірмова система охолодження з трьома вентиляторами.

Як заявляється, вентилятори мають спеціальну конструкцію, а нутрощі захищені від пилу. До речі, напрямок обертання всіх вентиляторів однакове.

Масивний радіатор СО пронизаний шістьма тепловими трубками. Підошва теплоприемника має особливу обробку, яку ASUS називає технологією MaxContact.

При огляді ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING) з усіх боків виявляються цікаві деталі.

На платі встановлені відразу дві мікросхемиBIOS з трохи зміненими режимами роботи плати. Один з них (Performance) передбачає підвищену ефективність охолодження, що досягається більш високими швидкостями роботи вентиляторів, а другий (Quiet) розрахований на більш тиху експлуатацію. Вибір BIOS здійснюється спеціальним перемикачем.

До речі, повна зупинка вентиляторів при малому навантаженні стає доступна тільки при використанні варіанту BIOS з режимом Quiet.

На торці виведена спеціальна кнопка для швидкого відключення / включення підсвічування. Це непогане рішення, коли треба погасити світіння без використання фірмового ПО.

Також на платі передбачений майданчик для ручного вимірювання напруги RAM, GPU, PLL і набір контактів для підключення світлодіодної стрічки і корпусних вентиляторів. Швидкість обертання цих вентиляторів можна пов'язати з температурою GPU. Це класна функція.

На одній зі сторін ASUS ROG Strix GeForce RTX 2070 OC edition можна помітити контакти для підключення світлодіодної стрічки і корпусних вентиляторів

Частота пам'яті в даній моделі відповідає референсной, а ось Boost-частота GPU підвищена дуже значно - з 1620 до 1815 МГц.

В результаті ASUS ROG Strix GeForce RTX 2070 OC edition знаходиться серед лідерів тесту по продуктивності. Перевершити Gigabyte AORUS GeForce RTX 2070 XTREME 8G і MSI GeForce RTX 2070 GAMING Z 8G по швидкості не вдалося, так як всі три моделі, включаючи ASUS, мають схожі робочі частоти. Вже дуже сильні відеокарти беруть участь в тесті.

Моніторинг роботи ASUS ROG Strix GeForce RTX 2070 OC edition в додатку MSI Afterburner

При роботі під навантаженням в наших умовах температураGPU склала всього 57 °C. Для всіх тестів продуктивності і виміру температури використовувався BIOS з режимом Performance.

З огляду на досить високе енергоспоживання відеокарти, це просто чудовий результат. До слова, це найнижче значення температури серед всіх тестованих відеокарт на базі RTX 2070 в цьому тесті.

Швидкість обертання вентиляторів склала близько 1600 об / хв. При роботі відеокарта не буде створювати шумовий дискомфорт.

При використанні автоматичного розгону з початковими настройками максимальна частота GPU майже досягла позначки 2100 МГц.

ASUS ROG Strix GeForce RTX 2070 OC edition дозволяє збільшити межу енергоспоживання до 125%. Це найвище значення в тесті.

Система підсвічування складається з декількох елементів з RGB-підсвічуванням на передній панелі, що світиться логотипом ASUS ROG по боку і ще одним великим логотипом, виведеним на задню пластину.

Роботою підсвічування, зрозуміло, можна управляти. Доступні ряд ефектів, а також можливість зміни кольору в залежності від температури GPU.

Особливість: колір світіння може змінюватися, але одночасно всі елементи підсвічування мають один і той же колір.

Вельми непогано, але сьогодні вже є і більш просунуті рішення, в тому числі і серед учасників тесту. Підсвічування відеокарт Gigabyte AORUS і MSI виявилася ще більш крутий.

Фірмове ПО ASUS по можливостях приблизно являє собою об'єднання MSI Afterburner і GPU-Z

ASUS ROG Strix GeForce RTX 2070 OC edition - це дуже потужна відеокарта на базі RTX 2070 з просто-таки відмінною по ефективності системою охолодження.

Вона знаходиться серед лідерів по продуктивності, має ряд цікавих додаткових функцій у вигляді двох мікросхем BIOS, контактів для вентиляторів корпусу і світлодіодним стрічки.

Але при всіх своїх перевагах, ASUS ROG Strix GeForce RTX 2070 OC edition має і найвищою вартістю серед інших учасників тесту на базі RTX 2070.

Оцінка ASUS ROG Strix GeForce RTX 2070 OC edition (ROG-STRIX-RTX2070-O8G-GAMING):

Відмінна система охолодження

Межа енергоспоживання вище ніж у інших учасників

подвійний BIOS

Контакти для підключення RGB світлодіодних стрічок і вентиляторів корпусу

- найвища вартість

- великі габарити

- порівняно скромна комплектація

Якщо відеокарти ASUS ROG Strix в новому поколінні виглядають майже так само, як і в попередньому, то MSI свою серію GAMING видозмінила істотно.

Відомий дизайн з переважанням червоного кольору і вставками, що нагадують кігті дракона, вирішили більше не використовувати.

Модель хоч і не така довга, але широка і в системі займе місце трьох слотів розширення.

MSI GeForce RTX 2070 GAMINGZ 8G (Увага на приставку Z в назві) виділяється більш високими частотами в порівнянні з близнюками MSI GeForce RTX 2070 GAMINGX 8G і MSI GeForce RTX 2070 GAMING 8Gі є найшвидшою RTX 2070 у компанії MSI на даний момент.

Плата типово для серії GAMING перероблена. Розпаяна конфігурація фаз живлення 8 + 2. СО складається з двох вентиляторів і потужного радіатора з шістьма тепловими трубками.

Якщо придивитися, то в кожному вентиляторі чергуються лопаті двох видів. Технологія зветься TORX FAN 3.0. У поєднанні з новим дизайном розсіюють пластин радіатора це, за інформацією виробника, сприятиме кращій ефективності.

Система охолодження і справді виявилася дуже ефективною.

Зафіксована температура під навантаженням - 66 ° C. Але здивувало інше. Дана температура тримається при швидкості обертання вентилятора всього 1100 об. / Хв.

В результаті відеокарта працює дуже тихо. Щодо ефективності охолодження MSI перевершила інших учасників крім, мабуть, ASUS ROG Strix GeForce RTX 2070 OC edition. Але з СО ASUS порівнювати складно. З одного боку, у конкурента більш низька температура, а з іншого - це досягається при помітно більш високих обертах вентиляторів.

Boost-частоті GPU відеокарти MSI GeForce RTX 2070 GAMING Z 8G становить 1830 МГц. Це найвище значення серед всіх учасників тесту. Але перевага над ASUS ROG Strix GeForce RTX 2070 OC edition і Gigabyte AORUS GeForce RTX 2070 XTREME 8G зовсім мізерна. У цих відеокарт дане значення становить 1815 МГц.

Частота пам'яті, при цьому, стандартна. Логічно, що RTX 2070 GAMING Z 8G виявилася серед лідерів по продуктивності. При автоматичному розгоні максимальна частота доходить до позначки 2100 МГц.

Криві залежності частоти і напруги графічного процесора Характеристики MSI GeForce RTX 2070 GAMING Z 8G (дані програми GPU-Z) зі стандартними настройками (зверху) і після автоматичного розгону

Доступний ліміт енергоспоживання - 111%.

Дуже порадувала нова система підсвічування даної відеокарти. Світяться ділянками по периметру оточили вентилятори. Підсвічується і логотип на боці.

Вся справа в тому, як тут реалізовані динамічні ефекти. У деяких режимах це, свого роду, колірне шоу. Хоча тут і немає світиться елемента на задній пластині дана підсвічування MSI сподобалася більше, ніж рішення у ASUS.

У комплекті з відеокартою поставляється додаткова планка для більш надійного кріплення відеокарти в корпусі. Відеокарта дійсно важка, але, на наш погляд, великої необхідності в такій планці немає. Ймовірно, вона не завадить, при транспортуванні корпусу.

Планка прикручується в корпусі комп'ютера нижче відеокарти після чого пристрій спирається на цю планку через м'які прокрадкі

MSI GeForce RTX 2070 GAMING Z 8G відрізняється і високим заводським розгоном, і відмінною по ефективності системою охолодження, і цікавою нової підсвічуванням. Хороша вийшла модель.

Оцінка MSI GeForce RTX 2070 GAMING Z 8G:

Відмінна система охолодження

Відключення вентиляторів при низькому навантаженні

Значно підвищені частоти GPU

Просунута система RGB-підсвічування

Додаткова планка кріплення в комплекті

- великі габарити

Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC)

Навіть у порівнянні з іншими великими відеокартами в тесті Gigabyte AORUS GeForce RTX 2070 XTREME 8G виявляється ще масивніше.

Gigabyte AORUS GeForce RTX 2070 XTREME 8G зліва

Але основний внесок в товщину пристрою вносяться не радіатор СО, а досить цікаве розміщення вентиляторів.

Вони розташовані трохи внахлест. За рахунок цього, при помірній довжині, вдалося розмістити відразу три 100-міліметрових вентилятора.

GigabyteAORUSGeForceRTX 2070XTREME 8G є найшвидшоюRTX 2070 у Gigabyte.

Boost частота становить 1815 МГц, що, втім, можна порівняти з тестованими ASUS ROG Strix GeForce RTX 2070 OC edition і MSI GeForce RTX 2070 GAMING Z 8G.

Цікаво, що заводський розгін отримала і пам'ять. У всіх інших відкритих RTX 2070 даного тесту частоти пам'яті соотвествуют референсним.

Але прибавка по пам'яті у випадку з AORUS GeForce RTX 2070 XTREME 8G чисто номінальна і мало впливає на підсумкову продуктивність. Частоту підняли зі стандартною 14 000 до 14 140.

Продуктивність Gigabyte AORUS GeForce RTX 2070 XTREME 8G виявилася на рівні відеокарт MSI і ASUS.

Використовуючи автоматичний розгін максимальне значення частоти GPU склало близько 2100. Що приблизно повторює результати MSI і ASUS.

Криві залежності частоти і напруги графічного процесора Gigabyte AORUS GeForce RTX 2070 XTREME 8G зі стандартними настройками (зверху) і після автоматичного розгону

Доступний для зміни максимальний ліміт енергоспоживання - 109%.

Конфігурація фаз системи живлення - 10 + 2.

На відміну від інших учасників, в конструкції системи охолодження замість полірованої пластини або випарної камери використовується варіант, коли самі теплові трубки стосуються GPU.

Всього теплових трубок п'ять.

Виробник звертає окрему увагу, що центральний вентилятор має інший напрямок обертання в порівнянні з крайніми. Зазначено, що це дозволяє уникнути турбулентності і збільшує ефективність СО.

Вміє модель і зупиняти вентилятори при низькому навантаженні. На бічній панелі, традиційно для Gigabyte, навіть виведена підсвічується напис "Fan Stop", яка спалахує, коли вентилятори не діють.

Як така СО показала себе в справі?

Зафіксовані значення температури і оборотів вентиляторів під навантаженням склали 67 ° C при 1700 об. / Хв. Дуже непогано, але, виходить, що ефективність СО беруть участь в тесті ASUS ROG Strix GeForce RTX 2070 OC edition і MSI GeForce RTX 2070 GAMING Z 8G трохи вище.

Система підсвічування в Gigabyte AORUS GeForce RTX 2070 XTREME 8G влаштована дуже незвично.

На краю однієї з лопатей кожного вентилятора розміщенийRGB-діод. Цей діод може змінювати колір залежно від того, в якому секторі кола він знаходиться при обертанні вентилятора. Отримувані ефекти вражають.

Відеокарта дійсно здатна залучити чимало уваги.

Додатково підсвічуються логотипи, розміщені на лицьовій, зворотному боках і на боці відеокарти.

Через те, що підсвічування AORUS GeForce RTX 2070 XTREME 8G пов'язана з обертанням вентиляторів виявилися і не дуже приємні особливості. По-перше, ефекти з кільцями працюють тільки при працюючих вентиляторах. По-друге, помітно невелике мерехтіння. Другий недолік, втім, виражений не так істотно. Якщо відеокарта не знаходиться постійно в вашому полі зору, незручностей не буде.

У відеокарти Gigabyte AORUS GeForce RTX 2070 XTREME 8G виявилося найбільша кількість відеовиходів зашкодь інших відеокарт на базі RTX 2070 в цьому огляді

У комплекті виявилася ніжка для надійної фіксації відеокарти в корпусі. Так, відеокарта важка, але гострої необхідності в такій додаткової підтримки, на наш погляд, немає.

До слова, рівень матеріалів та обробки у цій ніжки просто дивовижні.

Невже такого роду аксесуари стає трендом для відеокарт високого класу?

Резюмуючи, можна сказати, що Gigabyte AORUS GeForce RTX 2070 XTREME 8G виділяється не тільки значним заводським розгоном, але і досить сміливим дизайном в поєднанні з цікавою системою підсвічування.

Це дуже гідний суперник для інших найпотужніших учасників даного тесту.

Оцінка Gigabyte AORUS GeForce RTX 2070 XTREME 8G (GV-N2070AORUS X-8GC):

Ефективна система охолодження

Відключення вентиляторів при низькому навантаженні

Значно підвищені частоти GPU

Ефектна система RGB-підсвічування

Додаткова ніжка кріплення в комплекті

- великі габарити

- Ефекти системи підсвічування залежать від того, обертаються вентилятори чи ні

Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683)

Inno3D GeForce RTX 2070 Gaming OC X2 - це далеко не рядова модель. Тут і заводський розгін GPU, і фірмова система охолодження, і підсвічування з RGB-елементами.

Але на тлі інших відеокарт GeForce RTX 2070 з даного тесту, а це виявилися дуже просунуті моделі, вона виглядає скромніше.

відеокарта відInno3D єдина в тесті займає не три, а два слота розширення.

Радіатор містить чотири теплові трубки і обдувається парою вентиляторів.

З огляду на більш скромний клас пристрою, за паливною ефективністю охолодження Inno3D GeForce RTX 2070 Gaming OC X2 очікувано поступилася іншим учасникам тесту.

Моніторинг роботи Inno3D GeForce RTX 2070 Gaming OC X2 в додатку MSI Afterburner

Під навантаженням температура склала 66 ° C. Це більш ніж комфортний рівень, але обороти вентиляторів при цьому виявилися на рівні 2050 об / хв, що помітно вище, ніж у представлених відеокарт ASUS, Gigabyte, MSI.

Відповідно, Inno3D GeForce RTX 2070 Gaming OC X2 працює не так тихо, але рівень її шуму великого дискомфорту створювати не повинен.

Відеокарта вміє зупиняти вентилятори при низькому навантаженні, але робить це кілька своєрідно. Перед остаточною зупинкою вентилятори ще пару десятків раз розкручуються від 0 до, приблизно, 600 об. / Хв. Цілком можливо, що цей «баг» може бути вирішене в новій версії прошивки, хоча і зараз суттєвою проблемою це не є.

На гістограмі видно, як вентилятори перед повною зупинкою деякий час «пульсує» зі швидкістю від 0 до 600 об / хв.

Boost-частота GPU підвищена з стандартних 1620 до 1755 МГц. Це непоганий заводський розгін, але, знову-таки, конкуренти виявилися аж надто потужними і у них цей параметр ще вище.

Як результат, Inno3D GeForce RTX 2070 Gaming OC X2 трохи поступилася суперникам по продуктивності.

Якщо проаналізувати отриману криву частоти GPU / напруги при автоматичному розгоні, то можна побачити, що максимальна частота GPU приблизно на 50 МГц нижче ніж у інших відеокарт RTX 2070 в тесті при заданих значеннях напруг.

Криві залежності частоти і напруги графічного процесора Inno3D GeForce RTX 2070 Gaming OC X2 зі стандартними настройками (зверху) і після автоматичного розгону

Підсвічуванням в Inno3D GeForce RTX 2070 Gaming OC X2 оснащені кілька елементів. На лицьовій панелі логотип Inno3D підсвічується білим кольором. Запалюються також і жовті вставки поруч з цим логотипом. А ось логотип Inno3D на боці може світитися вже будь-яким кольором (RGB-підсвічування).

Доступно управління підсвічуванням за допомогою додатка.

Так, Inno3D GeForce RTX 2070 Gaming OC X2 кілька поступилася суперникам в швидкості і в ефективності системи охолодження. Але для багатьох це все може бути запросто нівельовано тим, щоInno3DGeForceRTX 2070GamingOCX2 відрізняється помітно більш доступною вартістю і по співвідношенню продуктивності і ціни вона переграє всіх інших учасників даного тесту.

А ще у Inno3D GeForce RTX 2070 Gaming OC X2 вельми просунута комплектація. Модель поставляється з ігровим килимком і ключами для тестів VRMark, 3DMark.

Оцінка Inno3D GeForce RTX 2070 Gaming OC X2 (N20702-08D6X-2511683):

Найкращий баланс вартості і продуктивності серед всіх відеокарт на базі RTX 2070 в тесті

Відключення вентиляторів при низькому навантаженні

Заводський розгін GPU

цікава комплектація

- порівняно скромна підсвічування

- дивна поведінка вентиляторів при переході в режим зупинки

Як ми тестували відеокарти

Відкрите працювали з використанням початкових налаштувань драйверів, оптимізовані ігрові профілі не застосовувалися.

Відкрите тестувалися без розгону і без використання фірмових профілів (OC, Gaming, Silence і т. Д.), Які іноді доступні при установці фірмового програмного забезпечення.

Тестовані відеокарти на базі RTX 20170 ми порівнювали з видеоадаптерами минулого покоління на базі GTX 1080 GTX 1080 Ti, в ролі яких виступили MSI GeForce GTX 1080 GAMING X 8G і Gigabyte GeForce GTX 1080 Ti Gaming OC 11G.

В якості тестових додатків для визначення продуктивності відеокарт ми використовували сучасні ігри з підтримкою DirectX 11 і DirectX 12, які мають вбудовані бенчмарки. Також до програми увійшли популярні синтетичні тести 3DMark.

У кожній грі застосовувалися максимальні або близькі до максимальних настройки графіки. В іграх ми використовували здатність 2560 × 1440 і 3840 × 2160 пікс. (4K-дозвіл). В 3DMark 11 відеокарти тестувалися з предустановкой Extreme, а в 3DMark (2013) використовувалися тести Fire Strike Extreme, Fire Strike Ultra і DirectX 12-тест Time Spy.

Відстеження максимальної температури GPU і енергоспоживання системи (без монітора) вироблялося в грі Metro: Last Light. Саме в цій грі відеокарти, за спостереженнями, нагрівалися найбільш інтенсивно і відбувалося максимальне енергоспоживання.

Сама система експлуатувалася поза корпусу ПК (відкритий стенд) при температурі в приміщенні близько 21 ° C. Рівень шуму, що створюється роботою систем охолодження відеокарт, оцінювався суб'єктивно.

Підсумкова оцінка в категорії «Продуктивність» визначалася на основі будь-яких тестів з рівнозначним вкладом кожного тесту. При цьому, якщо говорити про ігри, для зменшення впливу залежно від процесора, при підрахунку загальної продуктивності (категорія «Продуктивність») враховувалися тільки результати з дозволом 3840 × 2160 пікс. (4 K) .

Результати з роздільною здатністю 2560 × 1440 пікс. наведені для ознайомлення.

Гістограми нормовані в процентах з сортуванням моделей за результатами тестів. Конкретні результати у вигляді балів і FPS також вказані.

Вартість відеокарт вказана на базі даних великих інтернет-магазинів (на момент публікації) з сайту Hotline.

В окремому тесті Final Fantasy XV benchmark проводилися експерименти з технологією DLSS (див. Гістограму вище).

Конфігурація тестової платформи:

Процесор: Intel Core i7-3770K, розігнаний до 4,4 МГц

Материнська плата: Biostar Hi-Fi Z77X

Об'єм оперативної пам'яті: 4 × 4 ГБ DDR3 1600

Накопичувачі: SSD (система), HDD

Операційна система: Windows 10 Pro 64 біт

Монітор: Philips 272P7VPTKEB з дозволом 4K

Використовуваний драйвер NVIDIA для всіх відеокарт: GeForce 416.94

результати тестів

висновки

Як видно за результатами тестів, якщо порівнювати з рішеннями минулого покоління, продуктивність нових відеокарт на базі RTX 2070 знаходиться між NVIDIA GeForce GTX 1080 GTX 1080 Ti ближче до GTX 1080.

Трійка ASUS ROG Strix GeForce RTX 2070 OC edition, Gigabyte AORUS GeForce RTX 2070 XTREME 8G і MSI GeForce RTX 2070 GAMING Z 8G - це дуже «наворочені» відеокарти. Вони мають просунуті системи підсвічування, значно підвищені частоти GPU.

Різницю в швидкості між ними без спеціальних тестів ви точно не помітите. За ефективністю систем охолодження в цій трійці лідирують моделі від ASUS і MSI.

ASUS дозволяє сильніше інших збільшити ліміт енергоспоживання. Ця ж модель, до речі, виділяється і найвищою вартістю серед всіх учасників тесту.

За враженнями від роботи підсвічування Gigabyte AORUS і MSI можна поставити трохи вище, ніж ASUS. Inno3D тут в аутсайдерах.

Представлена \u200b\u200bв тесті Inno3D GeForce RTX 2070 Gaming OC X2 скромніше на тлі трійки ASUS, Gigabyte AORUS і MSI, хоча теж далеко не рядова модель. Вона має більш низькі частоти GPU, не таку просунуту систему охолодження і поступиться за можливостями підсвічування і розгону.

Але, зате, дана модель від Inno3D і найдоступніша за ціною. За співвідношенням продуктивності та вартості вона перевершує інших учасників тесту.

Різниця в швидкості між Inno3D і трійкою ASUS, Gigabyte AORUS, MSI є, але вона не така й суттєва. Якщо є бажання заощадити - це дуже гідний варіант.

З самими учасниками тесту повний порядок. Будь-яка відеокарта з тіста - це якісний пристрій з високою продуктивністю, ефективним охолодженням без якихось істотних недоліків.

Але нове покоління відеокартRTX в цілому залишає цілий ряд приводів для роздумів, хоча саме перехід доRTX виробник називає революційним.

Якщо не «копати» сильно далеко в минуле і взяти до уваги переходи від покоління GTX 700 до GTX 900 (серія 800 в десктопних відкритих була пропущена) і від GTX 900 до GTX 1000, то завжди нове покоління відеокарт відрізнялося сильно зрослої продуктивністю з одночасним значним поліпшенням енергоспоживання. При цьому великого стрибка вартості рівнозначних моделей не відбувалося.

А що ж ми бачимо зараз з виходом покоління NVIDIA GeForce RTX?

Так, зростання продуктивності є, але він не такий помітний, як це було раніше з новим поколінням відеокарт.

За енергоефективності новинки краще моделей GTX 1000, але зовсім незначно.

А ще ви помітили, що в поколінні RTX не відбулося зростання обсягу відеопам'яті?

Але головне, що нові відеокарти виявилися набагато дорожче своїх попередників.

Причому, очікувати значного зниження вартості відеокарт NVIDIA RTX досить складно. Вони отримали набагато складніші і дорожчі у виробництві графічні процесори.

Проблема в тому що значна частина ускладнень в новихGPU пішла на використовувані впершеRT-ядро (апаратна підтримка трасування променів), які поки мало де можна задіяти. До речі, на момент виходу відеокарт RTX ігор з апаратною підтримкою трасування не було зовсім!

І тут ще велике питання, чи варті ті зміни в зображенні, які привносить трасування променів, дуже серйозного падіння продуктивності, що відбувається при активації цієї функції.

Виходить, що на даний момент по співвідношенню продуктивності і вартості новинки RTX 2000 поступаються відеокартам-попередникам серії GTX 1000 (минуле покоління на архітектурі Pascal).

Так, потенційно RTX 2000 можуть нарощувати свою привабливість згодом, з появою більшої кількості ігор, що підтримують трасування променів і DLSS-згладжування, але поки про це говорити рано.

Дякуємо компанії Philips за наданий 4K-монітор Philips 272P7VPTKEB

Активність виробників наборів логіки останнім часом просто дивує. Чіпсети виходять одним за іншим і, чесно кажучи, ми насилу встигаємо доводити до наших читачів всі подробиці про архітектуру і продуктивності цих новинок. Дійсно, якщо ще в недалекому минулому вся конкурентна боротьба на ринку чіпсетів відбувалася здебільшого тільки між VIA і Intel, то за останній час до них приєдналися AMD, SiS і ALi, які почали випуск цілком конкурентоспроможних продуктів. Однак, схоже, це ще далеко не все. На ринок системних чіпсетів тепер намагаються вийти зовсім нові гравці. Наприклад, навесні цього року про випуск свого першого чіпсета для материнських плат оголосила компанія NVIDIA, до сих пір виробляла виключно графічні чіпсети.
За заявою представників NVIDIA, налаштованих вкрай оптимістично, для компанії розробляє 3D прискорювачі, до складу яких входить часом кілька десятків мільйонів транзисторів, проектування системної логіки - завдання вкрай простою. Тим більше, що NVIDIA була розробником базового набору мікросхем для ігрової приставки від Microsoft, X-BOX, що є майже що повноцінним PC. Однак, як виявилося, не все так просто. Незважаючи на те, що NVIDIA обіцяла початок поставок материнських плат і систем на базі набору логіки власного виготовлення ще в серпні, тільки зараз ці плати стали з'являтися у продажу. Ну а раз так, прийшла пора провести всебічне тестування цього нового чіпсета.
Перший чіпсет від NVIDIA, названий nForce і підтримує Socket A процесори від AMD, являє собою інтегрований набір логіки з вбудованим графічним ядром GeForce2 MX. Однак і як дискретний набір логіки nForce становить значний інтерес, так як в ньому реалізовано кілька цікавих технологій, в першу чергу відносяться до контролера пам'яті, що підтримує DDR SDRAM. Тому, ми побудуємо розгляд nForce наступним чином: спочатку поговоримо про особливості nForce, як звичайного чіпсета, а потім окремо досліджуємо його графічне ядро, звуковий контролер і інші подібні можливості.

основи

Сімейство нових чіпсетів від NVIDIA, nForce включає в себе два продукти, що відрізняються реалізацією шини пам'яті. Однією з ключових особливостей nForce є так звана TwinBank архітектура: nForce в загальному випадку має два незалежних контролера пам'яті, що працюють з DDR SDRAM. Відповідно, в залежності від числа задіяних контролерів пам'яті, nForce дозволяє організувати або 64-бітний доступ до пам'яті, або двоканальний 128-бітний.
Набір логіки NVIDIA nForce складається з двох мікросхем, які називаються в термінології виробника «процесорами». Північний міст, Integrated Graphics Processor (IGP), об'єднує в собі контролер пам'яті, інтегроване графічне ядро \u200b\u200bGeForce2 MX, що підтримує процесори сімейства Athlon / Duron інтерфейс і AGP 4x інтерфейс для підключення зовнішніх відеокарт. Для того, щоб відрізняти північні мости з 64-бітної шиною пам'яті і двоканальної 128-бітної шиною, NVIDIA використовує для них різне маркування, IGP-128 і IGP-64 відповідно.
Південний міст, Media and Communication Processor (MCP) містить апаратний звуковий контролер Audio Processor Unit (APU) з апаратною підтримкою Dolby Digital, вбудований мережевий контролер, PCI-контролер, а також підтримує типові для сучасних південних мостів можливості: USB 1.1 порти, ATA- 100 інтерфейс, AC'97 інтерфейс і т.п. Аналогічно північним мостам, NVIDIA прелагает також і дві версії південного моста: MCP-D з Dolby Digital 5.1 кодером і MCP - без нього.
Північний і південний мости в nForce з'єднуються послідовної шиною HyperTransport з топологією точка-точка.

Для кращого розуміння порівняємо можливості nForce з можливостями інших сучасних DDR - наборів логіки (можливості вбудованої графіки в розгляд поки не беруться).

* Версія південного моста, що підтримує ATA-133 поставляється виробникам материнських плат опціонально.


Отже, дивлячись на представлену таблицю, можна відзначити, що основними інноваціями, реалізованими в nForce є:

Контролер пам'яті, який реалізує технологію TwinBank, що дозволяє організацію двоканального 128-бітного доступу до пам'яті. Окремо слід відзначити ще одну унікальну особливість цього контролера, наявність Dynamic Adaptive Speculative Pre-Processor (DASP).
Використання шини HyperTransport для зв'язку північного і південного моста.
Високопродуктивне інтегроване графічне ядро \u200b\u200bGeForce2 MX.
Вбудований Audio Processing Unit (APU), апаратний звуковий процесор сумісний з DirectX 8.0 і має вбудований Dolby Digital 5.1 кодер.

Залежно від того, в якій комбінації використовуються північні і південні мости nForce, версія чіпсета може мати різні найменування:

Теоретично, як уже говорилося, nForce багато в чому повторює набір системної логіки, який NVIDIA спроектувала на замовлення Microsoft для ігрової приставки XBOX. Однак, необхідно розуміти, що чіпсет, який використовується в ігровій приставці підтримує процесори з архітектурою P3 і, відповідно, має відмінну від nForce процессорную шину. Intel не надав NVIDIA ліцензії на використання своїх процесорних шин в наборах системної логіки, тому, NVIDIA свій перший чіпсет орієнтувала під Socket A процесори від AMD. Однак, не виключено що дана ситуація може змінитися, і компанія буде пропонувати також і чіпсети під платформу Pentium 4: тут все в кінцевому підсумку залежить від бажання Intel.

Подробиці: контролер пам'яті

Однією з головних особливостей nForce, що виділяє його в порівнянні з іншими наборами логіки, є інноваційний контролер DDR пам'яті, що дозволяє організацію двох незалежних каналів передачі даних з сумарною шириною шини 128 біт. З урахуванням того, що набір мікросхем nForce підтримує пам'ять типу PC2100 / PC1600 DDR SDRAM, пікова пропускна здатність підсистеми пам'яті у цього чіпсета може досягати 4.2 Гбайт в секунду. Тобто, серед всіх сьогоднішніх наборів логіки, орієнтованих на застосування в настільних PC, nForce забезпечує найбільшу пропускну здатність пам'яті, так як всі інші чіпсети мають 64-бітну шину пам'яті.
Подивимося на те, як все це працює. nForce реалізує так звану TwinBank архітектуру. Це означає, що контролер пам'яті, застосований в цьому наборі логіки, по суті нагадує Croosbar контролер відеочіпсета GeForce3 і просто є розщепленим на два незалежних контролера MC0 і MC1.

Тобто, для отримання високої пропускної здатності підсистеми пам'яті NVIDIA не стала винаходити для свого набору логіки нові типи пам'яті, а просто додала в свій чіпсет ще один контролер DDR SDRAM. Слід зазначити, що контролери MC0 і MC1 є рівноправними і повністю незалежними, тому вони здатні обробляти запити одночасно. В результаті, сумарна ширина шини пам'яті досягла 128 біт, однак в цілому підсистема пам'яті nForce, завдяки наявності двох контролерів пам'яті, залишилася оптимізована для роботи з 64-бітними пакетами даних. Це важливий факт, оскільки процесорна шина, яка використовується в Socket A системах, також має ширину 64 біта.
Завдяки рівноправності і повної незалежності MC0 і MC1, nForce дозволяє роботу з асиметричними конфігураціями пам'яті, яка встановлюється на різні канали. Наприклад, модулі DIMM, що працюють з MC0 і MC1 можуть мати різну швидкість, різну конфігурацію і різний обсяг. Більш того, можна взагалі не задіяти один з каналів, залишивши другий контролер пам'яті невживаних. Якраз саме завдяки цьому, NVIDIA з легкістю пропонує виробникам материнських плат два варіанти свого північного моста: IGP-128 з двома контролерами пам'яті і IGP-64 з одним незадіяним контролером.
Перевага TwinBank архітектури nForce здається очевидним. Значне зростання пропускної здатності, здавалося б, повинен забезпечити значну перевагу в продуктивності цього набору логіки над конкурентами. Однак, не всі тут так просто, як здається. Пікова пропускна здатність підсистеми пам'яті nForce становить 4.2 Гбайт / с і в два рази перевершує пропускну здатність процесорної шини 2.1 Гбайт / с. А це означає, що процесор сам по собі виявляється не в змозі задіяти весь потенціал шини пам'яті nForce. Як ми бачили на прикладі набору логіки VIA Apollo Pro266, подібний перекіс в пропускних спроможностях шин ні до чого доброго не приводить: продуктивність в порівнянні з системами, де пропускні спроможності шин пам'яті і процесора врівноважені, практично не зростає.
Але інженери NVIDIA оснастили nForce двома контролерами пам'яті все-таки неспроста. Не слід забувати про те, що nForce - це все ж в першу чергу інтегрований чіпсет, і високі вимоги до пропускної здатності пам'яті в системах на його основі буде пред'являти не тільки CPU, але і вбудоване графічне ядро. Завдяки TwinBank архітектурі, що має на увазі наявність двох незалежних 64-бітних контролерів пам'яті, графічне ядро \u200b\u200bі процесор можуть працювати з пам'яттю незалежно. А з огляду на те, що графічне ядро, засноване на архітектурі GeForce2 MX, має порівняно високою швидкодією, необхідність продуктивної шини пам'яті стає очевидною.
Проте, говорити про те, що 128-бітна шина пам'яті nForce може бути задіяна тільки при використанні інтегрованої графіки не зовсім вірно. Теоретично, безпосередньо до пам'яті, минаючи процесор, можуть звертатися і деякі інші пристрої. Наприклад, AGP-відеокарти або контролери, вбудовані в південний міст чіпсета. Для цих пристроїв, хоча вони і не такі вимогливі до пропускної здатності пам'яті, архітектура TwinBank також може принести певні дивіденди. Таким чином, якщо розглядати nForce, як звичайний неінтегрований набір логіки, наявність двох контролерів пам'яті може дозволити отримати виграш в продуктивності в деяких додатках, які працювали з AGP графікою або використовують потокові операції введення-виведення з даними великого обсягу. В інших випадках TwinBank архітектура, розглянута окремо від вбудованого графічного ядра, ряд чи може виявитися корисною.
Більш того, якщо наявність двох незалежних каналів пам'яті теоретично дозволяє збільшити швидкість запису даних в пам'ять, завдяки використанню техніки чергування каналів, то операції читання з пам'яті прискоряться далеко не завжди. Навпаки, через необхідність при кожному зверненні «шукати» дані в обох банках, латентність підсистеми пам'яті, в порівнянні з одноканальними системами, зростає. Про те, яке значення має латентність підсистеми пам'яті, говорилося вже не раз. Нерідко нижча латентність має для продуктивності в реальних додатках навіть більше значення, ніж висока пропускна здатність пам'яті. А це означає, що nForce 220, в якому використовується північний міст IGP-64 з одним каналом пам'яті, теоретично навіть може перевершити за швидкодією nForce 420 з IGP-128 і двома каналами.
Зрозуміло, що подібні принципи поширюються не тільки на набори логіки від NVIDIA. І, якби не деякі додаткові технології, про які піде мова нижче, двоканальний nForce цілком міг би відставати не тільки від свого одноканального побратима, але і від DDR-чіпсетів інших виробників. Природно, NVIDIA, що звикла бути лідером у всьому, такий розклад абсолютно не влаштовував. Тому, перед інженерами компанії була поставлена \u200b\u200bзадача знайти шлях до зменшення латентності підсистеми пам'яті при операціях читання.
І це рішення було знайдено. В NVIDIA nForce був доданий додатковий блок, який має назву DASP - Dynamic Adaptive Speculative Pre-Processor. Завдання DASP полягає в моніторингу звернень процесора до пам'яті і передбачення, які дані можуть знадобитися CPU згодом. Використовуючи можливості 128-бітної шини пам'яті з двома незалежними контролерами, DASP паралельно з роботою процесора витягує ці дані з пам'яті і розміщує їх в спеціальному буфері, що знаходиться в північному мосту чіпсета. В результаті, в разі правильного передбачення, процесору при зверненні до цих даних не доводиться здійснювати доступ до пам'яті з відносно великою латентностью: необхідні дані вже знаходяться в чіпсеті. Тому, DASP істотно знижує латентність підсистеми пам'яті.

Як можна помітити, DASP являє собою якийсь аналог технології Data Prefetch, реалізованої в сучасних процесорах. Однак DASP в порівнянні з Data Prefetch має важливу перевагу - його робота не пов'язана з додатковою завантаженням процесорної шини. А оскільки шина пам'яті, яку завантажує DASP, у nForce вузьким місцем не є, робота цього блоку не викликає ніяких колізій, пов'язаних з надмірним завантаженням будь-яких каналів передачі даних в чіпсеті.
Важливо розуміти, що DASP в nForce обробляє виключно звернення процесора, а дані, які можуть вимагатися, наприклад, графічному ядру або зовнішньої AGP-відеокарту в буфер не потрапляють. Цим пристроїв, оскільки вони набагато менш критичні до високу латентність пам'яті, ніж CPU, доводиться працювати з пам'яттю безпосередньо.
Саме DASP, а не TwinBank архітектура є головною технологією, що впливає на продуктивність nForce. При використанні з nForce зовнішньої графічної карти висока пропускна здатність шини пам'яті виявляється практично марною, тому що процесор задіяти її в повну силу не може через обмеження, що накладаються пропускною спроможністю процесорної шини. Сучасні ж AGP-відеокарти використовують для зберігання текстур локальну відеопам'ять, тому з системною пам'яттю вони взаємодіють неактивно. DASP ж дозволяє зменшити латентність підсистеми пам'яті незалежно ні від чого. І єдине, про що доводиться шкодувати - це про невеликому розмірі буфера, використовуваного DASP. У сучасній версії nForce його обсяг становить всього 64 Кбайта, а й цього виявляється цілком достатньо для того, щоб nForce показував чудову продуктивність.

Подробиці: Hypertransport

На даний момент практично всі виробники наборів логіки відмовилися від використання шини PCI для організації зв'язку між північним і південним мостом. Виняток становить хіба що компанія ALi, а й в її найближчих планах - відмова від застосування для цієї мети PCI. Що ж спонукає виробників чіпсетів шукати альтернативні рішення? Відповідь, як завжди, нескладний. Пропускної здатності шини PCI, 133 Мбайт в секунду, перестає вистачати для того, щоб все контролери, зосереджені в південному мосту могли безперешкодно зв'язуватися з північним мостом. Подивимося, наприклад, ніж нашпиговані свій південний міст (або, в термінології компанії, MCP) NVIDIA.

Крім традиційних для південних мостів PCI моста, двоканального ATA-100 контролера, пари USB-хабів, інтегрованого програмного модему, 6-канального AC'97 кодека і LPC-пристроїв, MCP містить і пару щодо унікальних речей. По-перше, це мережевий контролер для 10/100 Мбіт Ethernet і HomePNA 2.0, а по-друге, APU (Audio Processor Unit). Саме наявність цих двох блоків в південному мосту змусило NVIDIA шукати для з'єднання мостів свого nForce рішення, яке гарантуватиме вищу, ніж у PCI, пропускну здатність.
Маючи на увазі, що APU - це повноцінний сумісний з DirectX 8.0 апаратний звуковий контролер, що підтримує позиційне 3D аудіо і має Dolby Digital 5.1 кодер, можна вважати, що цей пристрій здатний «от'есть» від пропускної здатності шини до 150 Мбайт в секунду. У світлі цього NVIDIA відразу звернула увагу на високошвидкісні шини. Ну і оскільки NVIDIA брала активну участь в розробці технології Hypertransport, зовсім не дивно, що в nForce для зв'язку мостів була обрана саме ця шина.
Взагалі, Hypertransport - це двухпортовая послідовна шина з шириною від 2 до 32 біт, призначена для організації з'єднання типу точка-точка. У nForce для зв'язку мостів використовується Hypertransport з шириною 8 біт і частотою 200 МГц. З огляду на, що протокол Hypertransport передбачає передачу даних по обох фронтах сигналу, одержуємо, що пропускна здатність шини при передачі даних в одному напрямку - 400 Мбайт в секунду. NVIDIA ж оперує більшим числом, 800 Мбайт / с, проте це всього-на-всього означає, що пропускна здатність з'єднання між мостами в nForce 400 Мбайт / с в обох напрямках.

Подробиці: референс-плата

Також, як і при створенні відеочіпсетів, разом з набором логіки nForce, NVIDIA розробила і референс-дизайн материнської плати на його основі. Відзначимо, що цей референс-дизайн буде використовуватися поряд виробників плат для випуску своїх продуктів, що використовують nForce, і тому референс-плата від NVIDIA заслуговує докладного розгляду.

Референс-дизайн материнської плати на базі чіпсета nForce виконаний в MicroATX форм-факторі. І це відразу говорить багато про що. NVIDIA бачить основне застосування свого nForce в першу чергу як зручного рішення для збирачів комп'ютерів, тому і вибрала саме MicroATX формат. Втім, почасти компанія права. Збирати комп'ютери на платах з чіпсетом nForce дійсно зручно: одна материнська плата відразу виключає необхідність і в відеокарті з непоганою продуктивністю, і в якісній звукової карти, і навіть в мережевому контролері і модемі. Тому, незважаючи на відносно високу вартість, збирачі PC повинні будуть полюбити nForce, як хорошу платформу для домашніх комп'ютерів середньої вартості.
Однак, використання Micro ATX форм-фактора неминуче тягне за собою урізання можливостей для розширення. Дійсно, на референс-платі крім слотів для пам'яті і AGP 4x слота помістилося всього два слоти PCI і один слот ACR. Втім, для материнської плати, на якій інтегровані всі мислимі пристрої, такої кількості слотів розширення може бути цілком достатньо.
Референс плата використовує північний міст IGP-128.

Як випливає з назви, ця версія північного моста підтримує 128-бітну шину пам'яті і TwinBank архітектуру. Три наявних на платі 184-контактних слота DDR DIMM діляться між контролерами в такий спосіб: до першого контролера пам'яті MC0 відноситься перший слот DIMM, а до другого контролера пам'яті MC1 - другий і третій слоти. Легким натяком на це є, до речі, кілька відокремлений розташування на платі першого слота DIMM. Таким чином, при установці модулів пам'яті в перший і в другий або третій слоти DIMM, плата буде використовувати 128-бітний доступ до пам'яті. Якщо ж використовується тільки один модуль DDR DIMM, або ж два модуля, встановлені у другій і третій слоти - шина пам'яті має ширину 64 біта, як у класичних наборів логіки, і другий контролер пам'яті північного моста відключається.
Зауважимо, що на північному мосту на референс-платі немає ніякого радіатора, і, в принципі, не дивлячись на це плата працює стабільно. Однак, чіп при цьому розжарюється до такої температури, що його подальша доля мимоволі починає викликати занепокоєння. Тому, на серійних платах північний міст буде забезпечуватися чіпсетний кольором.
В якості південного моста для референс плати NVIDIA вибрала чіп MCP-D, що володіє вбудованим Dolby Digital 5.1 кодером, про що свідчить літера «D» в назві моста.

Незважаючи на те, що південний міст підтримує шестиканальний 3D звук, цифровий вихід для підсилювача з Dolby Digital декодером, 10/100 Мбіт Ethernet і програмний модем, на самій референс-платі немає ніяких роз'ємів для реалізації роботи всіх цих пристроїв. Всі необхідні коннектори розташовуються на додатковій райзер-карті, що входить в комплект і встановлюється в слот ACR.

Тут можна бачити місце для монтажу цифрового аудіовиходу, два аналогових аудіовиходу для підключення задніх колонок, центральної колонки і сабвуфера, роз'єм для приєднання телефонної лінії і мережевий RJ45 конектор.
Плата використовує Phoenix BIOS, що володіє тільки найнеобхіднішим мінімумом налаштувань: про розгін можна забути.

Як ми тестували

Оскільки даний матеріал присвячений розгляду NVIDIA nForce як дискретного рішення, всі тести виконувалися зі зовнішньою відеокартою і відключеним інтегрованим графічним ядром. Ми протестували референс-плату на базі nForce в двох режимах: при 128-бітному доступі до пам'яті, коли задіяні обидва контролера пам'яті, і при 64-бітному доступу до пам'яті, коли один з контролерів пам'яті відключений. Таким чином, ми отримаємо можливість судити про продуктивність як nForce 420, так і nForce 220, оскільки ці два варіанти набору логіки від NVIDIA відрізняються лише шириною шини пам'яті.
Продуктивність NVIDIA nForce порівнювалася з швидкодією інших сучасних DDR Socket A наборів логіки: VIA KT266A, SiS 735 і Ali MAGiK 1 ревізії C.
Тестові системи були сконфігуровані таким чином:

На тестових системах була встановлена \u200b\u200bопераційна система Microsoft Windows XP.
Результати тестів вбудованого в nForce графічного ядра, звукового і IDE контролерів будуть приведені у другій частині даного огляду.

продуктивність

Теорія - теорією, пора переходити до практики. В першу чергу, як і завжди, - синтетичні тести продуктивності підсистеми пам'яті.

В першу чергу відзначимо, що навіть синтетичний тест, такий як SiSoft Sandra, не вказує значної переваги пропускної здатності двоканальної пам'яті nForce 420 над іншими чіпсетами, які працюють з 64-бітної шиною пам'яті. Як ми бачимо, процесор поодинці не може задіяти всю пропускну здатність шини пам'яті nForce 420. Таким чином, всі принади TwinBank архітектури можуть бути розкриті лише при використанні вбудованого графічного ядра nForce, яке, поряд з процесором, є одним з найбільш активно використовують пам'ять компонентів . Коли ж вбудоване графічне ядро \u200b\u200bне використовується, як, наприклад, в нашому випадку, навіть синтетичний тест показує всього лише 5-процентну перевагу практичній пропускної здатності чіпсета з 128-бітної шиною над аналогічним чіпсетом з шиною шириною 64 біта.
Також, важливо зазначити, що обидва nForce, і 420, і 220, відчутно обганяють інших учасників тестування. І справа тут вже не в ширині шини пам'яті. Розрив в 10% між показниками nForce 220 і VIA KT266A можна списати лише на DASP, оскільки ця модифікація чіпсета від NVIDIA не має 128-бітної шини пам'яті. Як показують результати, ефективність DASP надзвичайно висока: застосування цієї технології дозволило NVIDIA створити Socket A чіпсет з найшвидкодіючою підсистемою пам'яті.
Однак, лідерство в пропускної здатності підсистеми пам'яті, яка вимірюється тестом SiSoft Sandra 2001 - ще не ключ до перемоги. Як ми неодноразово відзначали, поряд з пропускною спроможністю на продуктивність системи значно впливає і латентність пам'яті. Подивимося, як йде справа у nForce з нею.

І тут nForce просто немає рівних. Спрямований в першу чергу на зменшення латентності DASP потрапляє точно в ціль.
Також зауважимо, що як це не здається дивним на перший погляд, набір логіки nForce 220 з одним контролером пам'яті і 64-бітної шиною має меншу латентність, ніж nForce 420 з двома контролерами пам'яті і 128-бітної шиною. Однак, нічого дивного в цьому немає. Оскільки NVIDIA ставила перед собою завдання створити таку підсистему пам'яті, яка була б здатна забезпечувати даними кілька «споживачів» одночасно (наприклад, CPU і GPU), компанія не стала застосовувати в своєму наборі логіки класичну техніку чергування каналів (interleaving). Контролери пам'яті в nForce 420 повністю незалежні і, на відміну наприклад від того ж i850, дозволяють установку модулів DIMM різної конфігурації в різні банки пам'яті. Тому, перед тим, як витягти дані з пам'яті в разі використання двох каналів, спеціальному арбітру доводиться вирішувати, який із контролерів повинен обробляти прийшов запит. На це якраз і йдуть додаткові такти. Тому, в ряді випадків nForce 220 з більш вузькою шиною пам'яті може виявитися швидше nForce 420 з більш широкою шиною.
У синтетичних тестах nForce виглядає непогано. Подивимося, як же він себе поведе в реальних додатках.

Тест SYSmark 2001, що складає середньозважену продуктивність систем в типових офісних завданнях і додатках створення контенту, підтверджує результати синтетичних тестів. nForce, хоч і не так значно, перевершує за швидкістю інші чіпсети. Однак слід розуміти, що для тих додатків, які використовуються в SYSmark 2001, важлива не тільки швидкість пам'яті, також неабиякий вплив на результат надає, наприклад, і продуктивність дискової підсистеми. Плюс до цього, переваги більш швидкої системи пам'яті видно тільки при операціях з великими обсягами даних, що не вміщається в кеші CPU.

Наприклад, в Internet Content Creation частини тесту, де додатки використовують великі обсяги послідовно збережених даних, nForce не так вже й швидкий, оскільки вплив латентності в задачах такого класу зведено до мінімуму, а реалізуватися високою пропускною шині пам'яті nForce 420 не дає обмеження, що накладається пропускної здатністю процесорної шини.

В офісній же частині того ж тіста навпаки, обидва nForce випереджають обох суперників більш істотно: тут вже грає свою роль низька латентність підсистеми пам'яті цього чіпсета. Зокрема, перевага nForce 420 над минулим лідером наших тестувань, VIA KT266A, становить 4%.

Для складання повної картини співвідношення сил в офісних завданнях ми також виміряли швидкість архівації великої кількості інформації (директорії зі встановленою грою Unreal Tournament) популярним архіватором WinZIP при звичайному рівні компресії. Сенс цього тесту полягає в тому, що крім постійних звернень до пам'яті архіватор також постійно працює з дисковою підсистемою. Тому, результати, показані системами тут, дозволяють оцінити в тому числі і якість IDE Bus Master драйверів. На діаграмі вище відображено час виконання архівації, тому менший результат відповідає кращій продуктивності.

Також, нами була заміряна продуктивність при кодуванні DVD відеопотоку в формат DivX MPEG-4. Цей тест чудовий тим, що модифікація nForce 220 з 64-бітної шиною пам'яті в ньому виявилася швидше свого 128-бітного аналога nForce 420. Хоча ця різниця дуже мала, факт залишається фактом: таке можливо не тільки в теорії, а й на практиці.
Наступним етапом наших випробувань є вимір швидкодії систем в іграх.

Зверніть увагу, результати nForce 420 і nForce 220 в цьому тесті практично однакові. Тобто навіть Quake3, продуктивність в якому сильно залежить від швидкодії підсистеми пам'яті, не може використовувати переваги, що надаються архітектурою TwinBank, за умови, що в системі використовується зовнішня відеокарта. DASP ж, присутній в обох nForce, надає їм непогане прискорення: обидва nForce випереджають найближчого конкурента, VIA KT266A на 4.5%.

Що більша роздільна здатність і доведення його до зазвичай використовується середньостатистичними гравцями, різниця в продуктивності нівелюється. Два контролера пам'яті не допомагають nForce 420 і в цьому випадку.

Картина в Unreal Tournament повторює результати, які ми вже бачили в Quake3. Правда, тепер перевага nForce220 над nForce 420 трохи збільшилася і вже не може бути списано на тривіальну похибка вимірювань.

Ми любимо використовувати гру DroneZ при тестуванні чіпсетів в першу чергу тому, що вона дуже чутливо реагує на швидкість роботи пам'яті. Тому, не дивно, що DASP дає обом nForce можливість обігнати VIA KT266A на цілих 7%, що для наборів системної логіки є досить великою перемогою. Також, відзначимо, що в черговий раз nForce 220 вдалося обійти свого старшого брата, nForce 420 приблизно на 2 fps.

Професійний OpenGL бенчмарк SPECviewperf 6.2.1 є тестом, продуктивність в якому сильно залежить від пропускної здатності пам'яті. Тому, нікого не повинно дивувати, що у всіх завданнях, що входять в цей тест, nForce 420 обганяє nForce 220. Однак, слід зазначити, що при цьому результати nForce 420 виявляються не такими вже й видатними, незважаючи на вдвічі ширшу, ніж у інших наборів логіки, шину пам'яті. У Awadvs-04 і DRV-07 nForce 420 відстає від VIA KT266A. Що ж стосується молодшої версії, nForce 220, то її продуктивність в перших трьох подтестах взагалі мало не найгірша. Здається, причина такого результату криється в тому, що 64-кілобайтний буфер, який використовується DASP, виявляється абсолютно даремний при передачі великого обсягу інформації, що зберігається в пам'яті послідовно.

висновки

Підіб'ємо бабки. Як показало наше дослідження, nForce, поки що розглядається окремо від свого графічного ядра як дискретний набір логіки, надзвичайно просунутий і найпродуктивніший Socket A чіпсет серед присутніх сьогодні на ринку. Хоча він і виявився лідером завдяки прогресивним технологіям, застосованим NVIDIA, слід зазначити наступне. Головним елементом nForce, через якого цей чіпсет показав високу швидкодію, є DASP. Єдине «але», яке можна сказати на адресу цього блоку - недостатній розмір буфера, якого не вистачає для професійних OpenGL додатків. Twinbank архітектура ж, як показали тести, виявилася абсолютно марна в випадках, коли не використовується вбудоване графічне ядро.
Таким чином, для застосування в системах зі зовнішніми графічними прискорювачами версія nForce 220 підходить більше, ніж nForce 420. Продуктивність nForce 220 в більшості тестів практично така ж, як у nForce 420, а в ряді завдань nForce 220 навіть обганяє свого старшого побратима. При цьому, вартість плат, заснованих на nForce 220 повинна бути нижче через відсутність другого контролера пам'яті і супутньої розводки. nForce 420 ж варто сприймати в такому випадку як, в першу чергу, інтегроване рішення.
Що стосується ринкових перспектив nForce взагалі, то тут залишається маса неясностей. Якщо ви готові заради додаткових 3-7% продуктивності викласти в півтора рази більшу суму за материнську плату, а потім не користуватися «оплаченої» вбудованою відеокартою, то nForce - набір логіки для вас. Якщо ж ви шукайте відповідне рішення з точки зору співвідношення ціна-продуктивність, то nForce тут вам не товариш.
І на закінчення ще раз нагадаю, що все вищесказане відноситься до nForce, як дискретного набору логіки. Інтегровані можливості цього чіпсета, такі як відео, звук та ін. Ми розглянемо пізніше, в наступній частині цього матеріалу.

Сподобалася стаття? поділіться їй