Контакти

Пляшкове горлечко карта. Який процесор розкриє відеокарту? Розширення bottleneck дасть відчутний приріст продуктивності і ефективності

В останнім часом сильно набрали популярність різні it блогери. І при всій до них повазі - підкоряючись наживи на хайп вони створили ну дуже багато дивною інформації, які різні користувачі використовують, абсолютно не розуміючи про що йдеться.

Але дійсно простий інформації ніде немає - або написано багато зайвого (для звичайних смертних), складною мовою. Або проскакують якісь крихти, які доводиться збирати по іноземним формами, ресурсів і т.д.

Тому я вирішив зробити серію блогів про те, як взагалі працюють гри, що на що впливає, що таке "розкриття відеокарти" і т.д. І описати це максимально простою і доступною мовою.

П.1. "Як це працює? Простіше, будь ласка!"

Для того, що б в подальшому навіть прості речі не здавалися "китайською грамотою" - давайте розберемося, що ж таке "гра" і як пристрій її нам показує.

Гра по своїй суті - це 3д додаток. І як і будь-який додаток воно спочатку збирається з різних "шматочків", як "лего".

Провівши аналогію ми отримуємо:


1) Процесор - головний мозок, будує вершини, розраховує фізику (в більшості випадків). Якщо провести аналогію - це той, хто читає інструкцію по збірці

2) відеокарта - обліплюють текстурами, вішає ефекти, "робить красиво" - за аналогією це той, хто збирає по надиктував інструкції.

3) жорсткий диск - зберігає безпосередньо файли гри - за аналогією це коробка з конструктором.

4) Оперативна пам'ять та відеопам'ять - зберігає в собі дані частого звернення, відеопам'ять - зберігає текстури. Це шматочки конструктора, які ви витягаєте і кидаєте поруч з собою, що б не тягнутися в коробку.

Як ми бачимо, кожен компонент нашого пристрою, будь то ПК, консоль або навіть смартфон, виконує певні дії, що б наша гра запустилася. Це, звичайно, саме примітивне уявлення, але цього вже достатньо, щоб розуміти як це працює.

П.2. Чи розкриє процесор відеокарту?

Дуже багато розмов було на цю тему. Багато говорили про те, чи існує взагалі таке поняття. За моїми міркувань - так, існує, в якомусь сенсі.

Є таке поняття - "пляшкове горлечко". Якщо по простому - хтось робить щось повільно, через це стопориться весь процес. Якщо повернутися до наших аналогій - то це або інструкцію читають повільно, або малюк-відеокарта не встигає складати "цеглинки", або, навіть, просто детальки поклали занадто далеко і доводиться за ними ходити.

Тепер розберемося як "дружать" процесор і відеокарта і хто кого розкриває?

Ситуація 1. Темно-зелене горлечко - відеокарта:


В результаті ми отримаємо на екрані 15 кадрів в секунду. При цьому відеокарта буде працювати на повну, процесор буде працювати на половину. Це найідеальніший варіант, в такому випадку говорять, що "процесор розкриває відеокарту повністю". Процесору під час гри так само треба обробити різні програми самої системи, простежити, що б працював скайп \\ вайбер \\ тімспік і багато іншого. Тому невеликий "запас" у процесора повинен залишатися.

Що нам це дає? У разі ПК - ми можемо знизити настройки графіки, що б відеокарта змогла зробити більше "машинок" -кадра. Так ми отримаємо більше фпс в грі.

Є і зворотний варіант:


Тут ми так само отримуємо 15 кадрів. При цьому процесор у нас трудиться на повну, а відеокарта "простоює" (відпочиває). У такому випадку говорять, що процесор не розкриває відеокарту.

Що нам це дає? При такому розкладі - ми не зможемо "стрибнути вище голови". Побачити більше фпс, ніж видає нам процесор ми не зможемо. Але, так як у нас відеокарта відпочиває - ми можемо змусити її збирати не з простих пластикових цеглинок, а з металевих з малюнками і стразами. Якщо з ігрових нстройкам - ми можемо поставити більше дозвіл, краще ефекти, більш прогресивне згладжування - аж до того моменту, поки карта не стане працювати на 100%, видаючи все ті ж 15 кадрів.

п2.1 Так як же зрозуміти, який процесор і відеокарту до нього взяти?

В інтернеті повно тестів "заліза". Коли тестують відеокарту - їй створюють ідеальні умови, що б вона в будь-якому випадку викладалася на повну. Коли тестують процесори - роблять так само.

що ж нам потрібно, що б гра у нас йшла в 60 кадрів без проблем? Давайте розглянемо на прикладі Witcher3, тому що її протестували на все що тільки можна.

Нам потрібно визначити, який процесор дозволить нам побачити 60 кадрів в грі. При цьому, по хорошому, нам треба брати з запасом, щоб процесору було чим обробляти фонові завдання.


Як ми бачимо, для цієї гри вистачить навіть Phenom2. І з ним ми побачимо 60 кадрів в цій грі, якщо "пляшковим горлечком" не стане відеокарта. Власне, подивимося, яка карта нам підійде:


Що ми бачимо? Що б пограти на самих максимальних налаштуваннях в 60фпс нам необхідна карта 980 і вище.

А тепер найцікавіше - саме в цій грі, саме на таких налаштуваннях 980-ту карту розкриє старенький феном. Таким чином, задаючи питання "розкриє мій процесор таку-то відеокарту" просто подивіться, який фпс показує ваш процесор в цікавлять вас іграх. І потім подивіться який фпс може дати відеокарта.

У другій частині я планую розповісти про жорсткий диск, ssd, оперативну пам'ять і відеопам'ять (їх вплив на гру.)

P.s. Дякую. що прочитали. Це моя перша запис в блозі, тому буду радий конструктивній критиці. Якщо знайшли якісь неточності, помилки та ін. - пишіть в коментарях, буду іспраляться.

Доброго вам дня!

Хороший день, нічого не віщувало поганого. Але ось прийшла проблема - швидкість роботи якогось додатку стала неприйнятно маленької, причому ще тиждень / місяць / день тому все було добре. Вирішити її треба швидко, витративши якнайменше часу. Проблемний сервер на базі Windows Server 2003 або пізнішої версії.

Сподіваюся нижченаведена писанина буде досить короткою і зрозумілою і до того ж корисною як для початківців адміністраторів, так і для більш серйозних товаришів, бо завжди можна знайти щось нове для себе. Не варто відразу кидатися вивчати поведінку програми. Перво наперво варто подивитися, чи вистачає продуктивності сервера на наразі? Чи немає яких-небудь «пляшкових шийок», що обмежують його продуктивність?

У цьому нам допоможе perfmon - досить потужний інструмент, що йде разом з Windows. Почнемо з того, що дамо визначення «пляшкового горлечка» - це ресурс, який досяг своєї межі по використанню. Зазвичай вони виникають через некоректне планування ресурсів, аппартного проблем або неправильної поведінки програми.

Якщо відкрити perfmon, то ми побачимо десятки і сотні всіляких датчиків, і кількість оних не сприяє швидкому розслідуванню даної проблеми. Так що для початку виділимо 5 основних можливих «пляшкових шийок», щоб скоротити список досліджуваних датчиків.

Це будуть процесор, оперативна пам'ять, система зберігання даних (HDD / SSD), мережа і процеси. Далі ми розглянемо кожен з цих пунктів, які датчики будуть нам потрібні і порогові значення для них.

процесор

Перевантажений завданнями процесор явно не сприяє швидкій роботі додатків. Для вивчення його ресурсів ми виділимо лише 4 датчика:

Processor \\% Processor Time

Вимірює ставлення часу роботи процесора на час простою в процентах. Самий зрозумілий датчик, завантаження процесора. MS рекомендує міняти процесор на більш швидкий, якщо значення вище 85%. Але це залежить від багатьох факторів, треба знати свої потреби і особливості, т. К. Дане значення може варіюватися.

Processor \\% User Time

Показує, скільки часу процесор проводить в user space. Якщо значення велике, то це означає, що додатки віднімають багато процесорного часу, варто поглянути на них, т. К. Назріває необхідність їх оптимізації.

Processor \\% Interrupt Time

Вимірює час, який процесор витрачає на очікування відповіді на переривання. Даний датчик може показати наявність «залізних» проблем. MS рекомендує починати хвилюватися, якщо дане значення перевищує 15%. Це означає, що якийсь пристрій починає відповідати дуже повільно на запити і його слід перевірити.

System \\ Processor Queue Length

Показує кількість потоків в черзі, які очікують свого часу на виконання. MS рекомендує задуматися над зміною процесора на який має більшу кількість ядер, якщо дане значення перевищує кількість ядер, помножених на два.

Оперативна пам'ять

Брак оперативної пам'яті може сильно позначитися на загальній продуктивності системи, примушуючи систему активно використовувати повільний HDD для своппірованія. Але навіть якщо начебто на сервері встановлено багато ОЗУ, пам'ять може «витікати». Витік пам'яті - це неконтрольований процес зменшення кількості вільної пам'яті, пов'язаний з помилками в програмах. Також варто згадати, що для Windows обсяг віртуальної пам'яті є сума ОЗУ і файлу підкачки.

Memory \\% Committed Bytes in Use

Показує використання віртуальної пам'яті. Якщо значення перевалило за 80%, то варто подумати про додавання ОЗУ.

Memory \\ Available Mbytes

Показує використання ОЗУ, а саме кількість доступних мегабайт. Якщо значення не перевищує 5%, то знову таки слід подумати про додавання ОЗУ.

Memory \\ Free System Page Table Entries

Кількість вільних елементів таблиці сторінок. А воно обмежене, до того ж в наші дні популярність знаходять сторінки в 2 і більше МБ, замість класичних 4кБ, що не сприяє їх великій кількості. Значення менше 5000 може свідчити про витік пам'яті.

Memory \\ Pool Non-Paged Bytes

Розмір даного пулу. Це шматочок пам'яті ядра, який містить важливі дані і не може бути вивантажено в swap. Якщо значення перевищило 175 МБ, то, швидше за все, це витік пам'яті. Зазвичай це супроводжується появою подій 2019 системному журналі.

Memory \\ Pool Paged Bytes

Аналогічно до попереднього, але дану область можна вивантажувати на диск (swap), якщо вони не використовуються. Для даного лічильника значення вище 250 МБ вважаються критичними, зазвичай супроводжується появою подій 2020 на системному журналі. Також говорить про витік пам'яті.

Memory \\ Pages per Second

Кількість звернень (запис / читання) до page file в секунду через відсутність необхідних даних в ОЗУ. І знову значення більше 1000 натякає на витік пам'яті.

Жорсткий диск

Досить важливий елемент, який може внести істотний внесок в продуктивність системи.

LogicalDisk \\% Free Space

Відсоток вільного місця. Цікавлять тільки розділи, що містять системні файли - ОС, файл / файли підкачки і т.д. MS рекомендує подбати про збільшення дискового простору, Якщо вільного місця залишилося менше 15%, т. К. При критичних навантаженнях воно може різко закінчитися (temp файлами, оновленнями Windows або тим же файлом підкачки). Але, як говориться, "it depends" і треба дивитися на реально доступний розмір простору, тому що той же файл підкачки може бути жорстко фіксований, на temp "и накладені квоти, які забороняють їм розростатися, а поновлення лунають порційно і рідко, або їх немає взагалі.

PhysicalDisk \\% Idle Time

Показує, скільки часу диск не діє. Рекомендується замінити диск на більш продуктивний, якщо даний лічильник знаходиться нижче 20% межі.

PhysicalDisk \\ Avg. Disk Sec / Read

Середній час, необхідне жорсткого диска для читання даних з самого себе. Вище 25мс - це вже погано, для SQL сервера і Exchange рекомендується 10мс і менше. Рекомендація ідентична попередньої.

PhysicalDisk \\ Avg. Disk Sec / Write

Ідентично PhysicalDisk \\ Avg. Disk Sec / Read, тільки для запису. Критичний поріг теж дорівнює 25мс.

PhysicalDisk \\ Avg. Disk Queue Length

Показує середнє число I / O операцій, які очікують, коли жорсткий диск стане для них доступним. Рекомендується починати турбуватися, якщо дане число вдвічі перевищує кількість шпинделів в системі (в разі відсутності raid-масивів кількість шпинделів дорівнює кількості жорстких дисків). Рада колишній - більш продуктивний HDD.

Memory \\ Cache Bytes

Об'єм пам'яті, який використовується для кеша, частина якого є файловим. Обсяг більш 300Мб може говорити про проблеми з продуктивністю HDD або про наявність додатка, активно використовує кеш.

Мережа

У сучасному світі без неї нікуди - величезна кількість даних транслюються саме по мережі.

Network Interface \\ Bytes Total / Sec

Кількість даних, що передаються (send / receive) через мережевий адаптер. Значення, що перевершує 70% від пропускної здатності інтерфейсу, говорить про можливу проблему. Потрібно або замінити карту на більш продуктивну, або додати ще одну для розвантаження першої.

Network Interface \\ Output Queue Length

Показує число пакетів, що стоять в черзі на відправку. Якщо значення перевалило за 2, то варто подумати про заміну карти на більш продуктивну.

процеси

Продуктивність сервера може катастрофічно впасти, якщо є неоптимізованими додаток або додаток починає вести себе «неправильно».

Process \\ Handle Count

Кількість дескрипторів, оброблюваних процесом. Це можуть бути як файли, так і ключі реєстру. Кількість оних, що перевищує 10000 може служити показником неправильної роботи додатки.

Process \\ Thread Count

Кількість потоків всередині процесу. Варто уважніше вивчити поведінку додатка, якщо різниця між мінімальним і максимальним числом оних перевищить 500.

Process \\ Private Bytes

Показує кількість пам'яті, що виділяється процесом, яке не може бути надано іншим процесам. Якщо коливання даного показника перевищить 250 між мінімумом і максимумом, то це говорить про можливий витік пам'яті.

У більшості вищенаведених лічильників немає чіткого показника того, що в системі з'явилося «пляшкове горлечко». Всі наведені значення будувалися за середньостатистичними результатами і можуть варіюватися для різних систем в широкому діапазоні. Щоб скористатися даними лічильниками грамотно, ми повинні знати хоча б показники системи при її нормальній роботі. Це називається baseline performance - perfmon лог, знятий з працюючою свіжовстановленому (останнє необов'язково, ніколи не пізно зняти даний лог або вести облік зміни baseline продуктивності в довгостроковій перспективі) системи, яка не має проблем. Це досить важливий момент, Часто багатьма опускається, хоча в майбутньому він може серйозно скоротити можливий простий системи і в явній формі прискорити аналіз отриманих даних з наведених вище лічильників.

Взято з https: //ru.intel.com/business/community/? Automodule \u003d blog & blogid \u003d 57161 & sh ...

0 0

FX проти Core i7 | Шукаємо вузькі місця з конфігурацією Eyefinity

Ми бачили, як кожні три-чотири роки продуктивність процесорів подвоюється. І все ж найвимогливіші ігрові движки, які ми тестували, також старі, як процесори Core 2 Duo. Природно, вузькі місця з боку CPU повинні були піти в минуле, чи не так? Як виявилося, швидкість GPU зростає ще швидше, ніж продуктивність центрального процесора. Таким чином, суперечка про покупку більш швидкого CPU або нарощуванні графічної потужності триває.

Але завжди настає момент, коли сперечатися безглуздо. Для нас він настав, коли гри почали плавно працювати на самому великому моніторі з рідним дозволом 2560x1600. І якщо більш швидкий компонент зможе забезпечити в середньому 200, а не 120 кадрів в секунду різниця все одно не буде помітна.

У відповідь на відсутність більш високих дозволів для швидких графічних адаптерів, AMD представила технологію Eyefinity, а Nvidia - Surround. Обидві технології дозволяють грати більш ніж на одному моніторі, і для GPU high-end класу робота на вирішенні 5760x1080 стала об'єктивною реальністю. По суті, три дисплея з роздільною здатністю 1920x1080 обійдуться дешевше і вразять вас більше, ніж один екран на 2560x1600. Звідси з'явилася причина додатково витратитися на більш потужні графічні рішення.

Але чи дійсно необхідний потужний процесор, Щоб грати без "гальм" на дозволі 5760x1080? Питання виявилося цікавий.

Нещодавно AMD представила нову архітектуру, і ми купили боксового FX-8350 . у статті "Огляд та тест AMD FX-8350: чи виправить Piledriver недоліки Bulldozer?" в новому процесорі нам сподобалося багато.

З економічної точки зору, в цьому порівнянні Intel доведеться довести, що він не тільки швидше чіпа AMD в іграх, але і виправдовує високу різницю в ціні.


Обидві материнські плати відносяться до сімейства Asus Sabertooth, однак за модель з роз'ємом LGA 1155 компанія просить вищу ціну, що ще ускладнює становище Intel по частині бюджету. Ми спеціально обрали ці платформи, щоб порівняння продуктивності було максимально справедливим, при цьому вартість до уваги не бралася.

FX проти Core i7 | Конфігурація і тести

Поки ми чекали появи в тестлаб FX-8350 , Провели тести боксового. З огляду на, що процесор AMD без проблем досягає 4,4 ГГц, ми почали тестування чіпа Intel на такий же частоті. Пізніше з'ясувалося, що ми недооцінили наші зразки, оскільки обидва CPU досягли 4,5 ГГц на обраному рівні напруги.

Нам не хотілося відкладати публікацію через повторного тестування на більш високих частотах, тому було вирішено залишити результати тестів на частоті 4,4 ГГц.

Тестова конфігурація
CPU Intel Intel Core i7-3770K ( Ivy Bridge): 3,5 ГГц, 8 Мбайт загального кеша L3, LGA 1155 розгін до 4,4 ГГц на 1,25 В
Материнська плата Intel Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Кулер CPU Intel Thermalright MUX-120 w / Zalman ZM-STG1 Paste
CPU AMD AMD FX-8350 (Vishera): 4,0 ГГц, 8 Мбайт загального кеша L3, Socket AM3 + розгін до 4,4 ГГц на 1,35 В
Материнська плата AMD Asus Sabertooth 990FX, BIOS 1604 (10/24/2012)
Кулер CPU AMD Sunbeamtech Core-Contact Freezer w / Zalman ZM-STG1 Paste
Мережа Вбудований контролер Gigabit LAN
пам'ять G.Skill F3-17600CL9Q-16GBXLD (16 Гбайт) DDR3-2200 CAS 9-11-9-36 1,65 В
відеокарта 2 x MSI R7970-2PMD3GD5 / OC: GPU, 1010 МГц GDDR5-5500
накопичувач Mushkin Chronos Deluxe DX 240 Гбайт, SATA 6 Гбіт / с SSD
харчування Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUS Gold
ПО і драйвера
Операційна система Microsoft Windows 8 Professional RTM x64
графічний драйвер AMD Catalyst 12.10

Завдяки високій ефективності і швидкого встановлення, вже кілька років ми використовуємо кулери Thermalright MUX-120 і Sunbeamtech Core Contact Freezer. Однак монтажні скоби, які йдуть в комплекті з цими моделями, не взаємозамінні.


Модулі пам'яті G.Skill F3-17600CL9Q-16GBXLD мають характеристику DDR3-2200 CAS 9, і використовують профілі Intel XMP для напівавтоматичного конфігурації. Sabertooth 990FX використовує значення XMP через Asus DOCP.

Блок живлення Seasonic X760 забезпечує високу ефективність, необхідну для оцінки відмінностей платформ.

StarCraft II не підтримує технологію AMD Eyefinity, тому ми вирішили використовувати більш старі ігри: Aliens vs. Predator і Metro 2033.

Конфігурація тестів (3D-ігри)
Aliens vs. Predator з використанням AvP Tool v.1.03, SSAO / тесселяция / тіні вкл.
Тестова конфігурація 1: якість текстур High, без AA, 4x AF
Тестова конфігурація 2: якість текстур Very High, 4x AA, 16x AF
Battlefield 3 Режим кампанії, "" Going Hunting "" 90-секунд Fraps
Тестова настройка 1: якість Medium (без AA, 4x AF)
Тестова настройка 2: якість Ultra (4x AA, 16x AF)
F1 2012 Версія Steam, вбудований бенчмарк
Тестова настройка 1: якість High, без AA
Тестова настройка 2: якість Ultra, 8x AA
Elder Scrolls V: Skyrim Оновлення 1.7, Celedon Aethirborn рівень 6, 25-секунд Fraps
Тестова настройка 1: DX11, рівень деталізації High без AA, 8x AF, FXAA вкл.
Тестова настройка 2: DX11, рівень деталізації Ultra, 8x AA, 16x AF, FXAA вкл.
Metro 2033 Повна версія, вбудований бенчмарк, сцена "Frontline"
Тестова настройка 1: DX11, High, AAA, 4x AF, без PhysX, без DoF
Тестова настройка 2: DX11, Very High, 4x AA, 16x AF, без PhysX, DoF вкл.

FX проти Core i7 | результати тестів

Battlefield 3, F1 2012 і Skyrim

Але спочатку давайте поглянемо на енергоспоживання та ефективність.

Енергоспоживання не розігнаного FX-8350 в порівнянні з чіпом Intel не так і жахливо, хоча фактично воно вище. Однак на графіку ми не бачимо картину в цілому. Ми не бачили, щоб чіп працював на частоті 4 ГГц при постійному навантаженні на базових настройках. Замість цього, при обробці восьми потоків в Prime95 він зменшив множник і напруга, щоб залишитися в межах заявленого теплового пакета. Троттлінг штучно стримує енергоспоживання CPU. Установка фіксованого множника і напруги помітно підвищує цей показник у процесора Vishera при розгоні.

У той же час, не всі ігри можуть задіяти можливість процесора FX-8350 обробляти вісім потоків даних одночасно, отже, вони ніколи не зможуть довести чіп до спрацьовування механізму троттлінга.

Як уже зазначалося, під час ігор на не розігнали FX-8350 троттлінг НЕ активується, оскільки більшість ігор не можуть повністю завантажити процесор. Насправді, ігри вигідно використовують технологію Turbo Core, Що підвищує частоту процесора до 4,2 ГГц. Найгірше чіп AMD показав себе на діаграмі середньої продуктивності, де Intel помітно виходить вперед.

Для діаграми ефективності ми використовуємо середню споживану потужність і середню продуктивність всіх чотирьох конфігурацій як середнього показника. У цій діаграмі продуктивність на ват процесора AMD FX-8350 становить приблизно дві третини від результату Intel.

FX проти Core i7 | Чи зможе AMD FX наздогнати Radeon HD 7970?

Коли ми говоримо про непоганому і доступному залозі, любимо використовувати такі фрази як "80% продуктивності за 60% вартості". Ці показники завжди дуже чесні, оскільки у нас вже увійшло в звичку вимірювати продуктивність, споживану потужність і ефективність. Однак в них враховується вартість тільки одного компонента, а компоненти, як правило, поодинці працювати не можуть.

Додавши компоненти, використані в сьогоднішньому огляді, ціна системи на базі Intel зросла до $ 1900 та платформи AMD до $ 1 724, це без урахування корпусів, периферії і операційної системи. Якщо розглядати "готові" рішення, то варто додати ще приблизно $ 80 за корпус, в результаті отримуємо $ 1984 у Intel і $ 1 804 у AMD. Економія на готової конфігурації з процесором AMD становить $ 180, в процентному співвідношенні від загальної вартості системи це небагато. Іншими словами, інші компоненти персонального комп'ютера high-end класу применшують значення більш вигідної ціни процесора.

В результаті у нас залишається два абсолютно упереджених способу порівняння ціни та продуктивності. Ми відкрито зізналися, тому сподіваємося, що нас не будуть засуджувати за представлені результати.

Для AMD вигідніше, якщо ми включимо тільки вартість системної плати і CPU і збільшимо вигоду. Вийде така діаграма:

В якості третьої альтернативи можна розглядати материнську плату і процесор в якості апгрейда, припускаючи, що корпус, блок живлення, пам'ять і накопичувачі залишилися від минулої системи. Найімовірніше, пара відеокарт Radeon HD 7970 в старій конфігурації не використовувалася, тому найрозумніше брати до уваги процесори, системні плати, і графічні адаптери. Таким чином, до списку ми додаємо дві відеокарти з GPU Tahiti за $ 800.

AMD FX-8350 виглядає вигідніше ніж Intel (особливо в іграх, на обраних нами настройках) лише в одному випадку: коли інша частина системи "безкоштовна". Оскільки інші компоненти не можуть бути безкоштовними, FX-8350 теж не зможе стати вигідним придбанням для ігор.

Intel і відеокарти AMD

Результати наших тестів вже давно показали, що графічні чіпи ATI більш процесорозалежність, ніж чіпи Nvidia. В результаті, при тестуванні GPU high-end класу, ми оснащуємо наші тестові стенди процесорами Intel, обходячи недоліки платформи, які можуть перешкодити ізоляції графічної продуктивності і несприятливо позначитися на результатах.

Ми сподівалися, що вихід AMD Piledriver змінить ситуацію, але навіть кількох вражаючих вдосконалень виявилося недостатньо, щоб команда розробників CPU порівнялася з ефективністю команди розробників графічних рішень в самій AMD. Що ж, почекаємо виходу чіпів AMD на базі архітектури Steamroller, яка обіцяє бути на 15% продуктивніше Piledriver.

При складанні ігрового ПК найдорожчою частиною є відеокарта, і хочеться, щоб вона по повній відпрацьовувала свої гроші. Тоді постає питання: який треба вибрати процесор для цієї відеокарти, щоб він не обмежував її в іграх? У цій дилемі вам допоможе наш спеціально підготовлений матеріал.

Вступ

Так виходить, що головним в комп'ютері є процесор і він командує всім іншим. Саме він і дає розпорядження вашу відеокарту про відображенні тих чи інших об'єктів, а також розраховує фізику об'єктів (навіть з деякі операції вважає процесор). Якщо відеокарта не працює на повну потужність, а процесор вже не може швидше, то виникає ефект «пляшкового горлечка» (bottleneck), коли продуктивність системи обмежується найслабшим її компонентом.

В реальності завжди є операції, коли відеокарта взагалі не напружується, а проц оре на повну, але ми тут говоримо про ігри, так що будемо міркувати в цій парадигмі.

Як розподіляється навантаження між процесорами і відкритий?

Треба відзначити, що зі зміною налаштувань в грі змінюється співвідношення завантаженості процесора і відеокарти.

Що більша роздільна здатність і налаштувань графіки навантаження на відеокарту зростає швидше, ніж на процесор. Це означає, що якщо на менших дозволах процесор не є пляшковим горлечком, то і на більш великих теж не буде.

Зі зменшенням дозволу і настоянок графіки все навпаки: навантаження на процесор при прорахунку одного кадру майже не змінюється, а відеокарти стає значно легше. У такій ситуації процесор з більшою ймовірністю стане пляшковим горлечком.

Які ознаки bottleneck?

Для проведення тесту потрібна програма. Вам потрібно дивитися на графік «Завантаження ДП».

Також потрібно знати навантаження на процесор. Це можна зробити в моніторингу системи в диспетчері завдань, там є графік навантаження процесора.

Отже, які ж ознаки того, що процесор не розкриває відеокарту?

  • Навантаження ГП не близька до 100%, а навантаження ЦП весь час біля цієї позначки
  • Графік навантаження ДП сильно скаче (може бути погано оптимізована гра)
  • При зміні налаштувань графіки, FPS не змінюється

Саме за цими ознаками ви можете дізнатися, чи має місце bottleneck в вашому випадку?

Як розібратися з вибором процесора?

Для цього раджу вам дивитися тести процесорів в потрібній вам грі. Є сайти, які спеціально займаються цим (,).

Приклад тесту в грі Tom Clancy's The Division:

Зазвичай при тестуванні процесорів в різних іграх вказуються настойки графіки і дозвіл. Підбираються такі умови, щоб пляшковим горлечком був процесор. У такій випадку можна дізнатися на скільки кадрів в даному дозволі здатний той чи інший процесор. Таким чином можна і порівнювати процесори між собою.

Ігри бувають різні (капітан очевидність) і вимоги до процесора у них можуть бути різними. Так, в одній грі все буде добре і процесор буде без проблем справлятися зі сценами, а в інший відеокарта буде прохолоджуватися в той час, як процесор буде з великими труднощами виконувати свої завдання.

Найсильніше на це впливають:

  • складність фізики в грі
  • складна геометрія простору (багато великих будівель з великою кількістю деталей)
  • штучний інтелект

Наші поради

  • Радимо вам при виборі орієнтуватися саме на такі тести з потрібними вам настройками графіки та потрібним вам FPS (які потягне ваша карта).
  • Бажано дивитися по самим вимогливим ігор, якщо хочете бути впевнені в тому, що майбутні новинки будуть добре працювати.
  • Можете також брати процесор з запасом. Зараз гри добре працюють навіть на чіпах 4-річної давності (), а це означає, що хороший процесор зараз буде ще дуже довго радувати вас в іграх.
  • Якщо FPS в грі нормальний, а навантаження на відеокарту низька, навантажите її. Підвищіть настройки графіки так, щоб відеокарта працювала на повну.
  • При використанні DirectX 12 навантаження на процесор має трохи знизитися, що зменшить вимоги до нього.

Технічний прогрес не у всіх областях рухається рівномірно, це очевидно. У даній статті ми розглянемо, які ж вузли в який час покращували свої характеристики повільніше інших, стаючи слабкою ланкою. Отже, сьогоднішня тема - еволюція слабких ланок - як вони виникали, впливали, і як усувалися.

процесор

Із самого раннього персональних комп'ютерів основна частина обчислень лягала на CPU. Пов'язано це було з тим, що чіпи були не дуже дешеві, тому більша частина периферії використовувала під свої потреби процесорний час. Та й периферії самої тоді було дуже небагато. Незабаром з розширенням сфери застосування ПК, дана парадигма була переглянута. Настав час розквіту різних карт розширення.



За часів «двійок» і «трійок» (це не Pentium'и II і III, як може вирішити молодь, а процесори i286 і i386) завдання ставилися перед системами не надто складні, в основному офісні додатки і розрахунки. Плати розширення вже частиною розвантажували процесор, наприклад, MPEG-декодер, який займався дешифруванням файлів, стислих в MPEG, робив це без участі CPU. Трохи пізніше почали розроблятися стандарти, які менше навантажували процесор при обміні даними. Прикладом була шина PCI (що з'явилася, починаючи з i486), робота по якій в меншій мірі навантажувала процесор. Також до таких прикладів можна віднести PIO і (U) DMA.


Процесори нарощували потужність непоганими темпами, з'явився множник, оскільки швидкість системної шини була обмежена, і кеш - для маскування запитів в працюючу на меншій частоті оперативну пам'ять. Процесор все ще залишався слабким ланкою, і від нього майже повністю залежала швидкість роботи.



Тим часом компанія Intel після випуску непоганого процесора Pentium випускає нове покоління - Pentium MMX. Вона хотіла змінити стан справ і перенести розрахунки на процесор. В цьому непогано допоміг набір інструкцій MMX - MultiMedia eXtensions, який призначався для прискорення робіт з обробкою звуку і відео. З його допомогою стала нормально програватися музика формату mp3, і можна було домогтися прийнятного відтворення MPEG4 засобами CPU.

Перші пробки в шині

Системи на базі процесора Pentium MMX вже більше упиралися в ПСП (пропускну здатність пам'яті). Шина в 66 МГц для нового процесора була пляшковим горлечком, незважаючи на перехід на новий тип пам'яті SDRAM, який поліпшив продуктивність в перерахунку на мегагерц. З цієї причини дуже популярним став розгін по шині, коли виставляли шину 83 МГц (або 75 МГц) і отримували досить помітний приріст. Часто навіть менша підсумкова частота процесора компенсувалася більшою частотою шини. Вперше більшої швидкості вдавалося домогтися при меншій частоті. Ще одним пляшковим горлечком став обсяг оперативної пам'яті. Для SIMM-пам'яті це був максимум в 64 Мб, але частіше стояло 32 Мб або зовсім 16. Це сильно ускладнювало використання програм, оскільки кожна нова версія Windows, Як відомо, любить «їсти багато смачної рами» (c). Неда0ом ходять чутки щодо змови виробників пам'яті з корпорацією Microsoft.



Intel тим часом стала розвивати дорогу і тому не дуже популярну платформу Socket8, а AMD продовжила розвивати Socket7. На жаль, остання використовувала в своїх продуктах повільний FPU (Floating Point Unit - модуль операцій з дробовими числами), Створений тільки що купленої тоді компанією Nexgen, що тягло за собою відставання від конкурента в мультимедійних завданнях - в першу чергу, іграх. Переклад на шину 100 МГц дав процесорам необхідну ПСП, а полноскоростной кеш другого рівня в 256 Кб на процесорі AMD K6-3 настільки поліпшив ситуацію, що тепер швидкість системи характеризувалася тільки частотою процесора, а не шини. Хоча, частково, це було пов'язано з повільним FPU. Офісні програми, залежні від потужності ALU, завдяки швидкій підсистемі пам'яті працювали швидше рішень конкурента.

чіпсети

Intel відмовилася від дорогих Pentium Pro, у яких кристал кеша L2 був інтегрований в процесор, і випустила Pentium II. Даний CPU мав ядро, дуже схоже на ядро \u200b\u200bPentium MMX. Головними відмінностями стали кеш L2, який розміщувався на картриджі процесора і працював на половині частоти ядра, і нова шина - AGTL. За допомогою нових чіпсетів (зокрема, i440BX) вдалося підвищити частоту шини до 100 МГц і, відповідно, ПСП. За ефективністю (стосовно швидкості випадкового читання до теоретичної) ці чіпсети стали одними з кращих, і до цього дня Intel не змогла побити цей показник. Чіпсети серії i440BX володіли одним слабкою ланкою - південним мостом, функціональність якого вже не задовольняла вимогам того часу. Використовувався старий південний міст від серії i430, яка застосовується в системах на базі Pentium I. Саме ця обставина, як і зв'язок між чіпсетами по шині PCI, спонукало виробників до випуску гібридів, що містять північний міст i440BX і південний міст VIA (686A / B).



Тим часом Intel демонструє програвання DVD-фільму без допоміжних карт. Але Pentium II не набув великого визнання через високу вартість. Очевидною стала необхідність випуску дешевих аналогів. Перша спроба - Intel Celeron без кеша L2 - стала невдалою: за швидкістю Covington'и дуже сильно програвали конкурентам і ціни своєї виправдовували. Тоді Intel робить другу спробу, що виявилася вдалою, - ядро \u200b\u200bMendocino, полюбилося оверклокерам, що володіє вдвічі меншим об'ємом кеша (128 Кб проти 256 Кб у Pentium II), але працює на вдвічі більшій частоті (на частоті процесора, не наполовину повільніше, як у Pentium II). За рахунок цього швидкість в більшості завдань була не нижче, а менша ціна приваблювала покупців.

Перше 3D і знову шина

Відразу після виходу Pentium MMX почалася популяризація 3D-технологій. Спочатку це були професійні додатки для розробки моделей і графіки, але справжню еру відкрили 3D-ігри, а точніше, 3D-прискорювачі Voodoo, створені компанією 3dfx. Ці прискорювачі стали першими масовими картами для створення 3D-сцен, які розвантажували процесор при рендеринге. Саме з цього часу і пішов відлік еволюції тривимірних ігор. Досить швидко розрахунок сцени силами центрального процесора став програвати виконаному засобами відеоприскорювача як в швидкості, так і якості.



З появою нової потужної підсистеми - графічної, що стала за обсягом розраховуються даних змагатися з центральним процесором, Вилізло нове пляшкове горлечко - шина PCI. Зокрема, карти Voodoo 3 і старші отримували надбавку в швидкості вже просто при розгоні шини PCI до 37.5 або 41.5 МГц. Очевидно, що виникла потреба в забезпеченні відеокарт досить швидкою шиною. Такий шиною (а точніше, портом) стала AGP - Accelerated Graphics Port. Як випливає з назви, це спеціалізована графічна шина, і за специфікацією вона могла мати тільки один слот. Перша версія AGP підтримувала швидкості AGP 1x і 2x, що відповідало одноразової і дворазовою швидкостям PCI 32/66, тобто 266 і 533 Мб / с. Повільна версія була додана для сумісності, а саме з нею виникали досить великий час проблеми. Причому проблеми були з усіма чіпсетами, за винятком випущених Intel. З чуток, ці проблеми були пов'язані з наявністю ліцензії тільки у цій компанії і її перешкоджанням розвитку конкуруючої платформи Socket7.



AGP поліпшив стан справ, і графічний порт перестав бути вузьким місцем. Відкрите перейшли на нього дуже швидко, але платформа Socket7 майже до самого кінця страждала від проблем з сумісністю. Лише останні чіпсети і драйвери змогли цю ситуацію поліпшити, але і тоді виникали нюанси.

І гвинти туди ж!

Прийшов час Coppermine, виросли частоти, зросло швидкодію, нові відеокарти поліпшили продуктивність і примножили конвеєри і пам'ять. Комп'ютер вже став мультимедійним центром - на ньому програвали музику і дивилися фільми. Слабкі за характеристиками інтегровані звукові карти поступаються позицію SBLive !, стали народним вибором. Але щось перешкоджало повній ідилії. Що ж це було?



Цим фактором стали жорсткі диски, зростання обсягу яких сповільнилося і зупинився на позначці близько 40 Гб. Для колекціонерів фільмів (тоді MPEG4) це викликало труднощі. Незабаром проблема була вирішена, і досить швидко - диски доросли в обсязі до 80 Гб і вище і перестали хвилювати більшу частину користувачів.


AMD випускає дуже хорошу платформу - Socket A і процесор архітектури K7, названий маркетологами Athlon (технічна назва Argon), а також бюджетний Duron. У Атлон сильними сторонами були шина і потужний FPU, що робило його відмінним процесорів для серйозних розрахунків та ігор, залишаючи його конкуренту - Pentium 4 - роль офісних машин, Де, втім, потужні системи ніколи не були потрібні. Ранні Duron мали дуже невеликий обсяг кеша і частоту шини, що ускладнювало його конкуренцію з Intel Celeron (Tualatin). Але в силу кращої масштабованості (через більш швидкісний шини) вони краще відгукувалися на зростання частоти, і тому старші моделі вже спокійно обганяли рішення Intel.

Між двох мостів


В цей період з'явилося відразу два вузьких місця. Перше - це шина між мостами. Традиційно для цих цілей використовувалася PCI. Варто згадати, що PCI в використовуваному в настільних комп'ютерах варіанті має теоретичну пропускну здатність в 133 Мб / с. На ділі швидкість залежить від чіпсета і застосування і варіюється від 90 до 120 Мб / с. На додаток до цього пропускна здатність ділиться між усіма пристроями, до неї підключеними. Якщо у нас є два канали IDE з теоретичною пропускною здатністю в 100 Мб / с (ATA-100), підключених до шини з теоретичною пропускною здатністю в 133 Мб / с, то проблема очевидна. LPC, PS / 2, SMBus, AC97 мають низькі вимоги до пропускної здатності. Зате Ethernet, ATA 100/133, PCI, USB 1.1 / 2.0 вже оперують швидкостями, порівнянними з межмостовим інтерфейсом. Довгий час проблеми не було. USB-пристрій не використовувався, Ethernet був потрібний нечасто і в основному на швидкості 100 Мбіт / c (12.5 Мб / c), а жорсткі диски не могли навіть близько підійти до максимуму швидкості інтерфейсу. Але час минав, і ситуація змінювалася. Було вирішено створити спеціальну межхабовую (між мостами) шину.


VIA, SiS і Intel випустили свої варіанти шин. Відрізнялися вони, в першу чергу, пропускними здатностями. Починалися вони з PCI 32/66 - 233 Мб / с, але було зроблено головне - шина PCI була виділена тільки під власні пристрої, і через неї не потрібно було передавати дані іншим шинам. Це поліпшило швидкість роботи з периферією (щодо архітектури мостів).


Нарощувалася і пропускна здатність графічного порту. Впроваджувалася можливість роботи з режимами Fast Writes, що дозволяв писати дані в відеопам'ять безпосередньо, минаючи системну пам'ять, І Side Band Addressing, що використав для передачі додаткову частину шини в 8 біт, зазвичай призначену для передачі технічних даних. Приріст від використання FW досягався лише при високому навантаженні на процесор, в інших же випадках це давало мізерний приріст. Так, відмінність режиму 8x від 4x знаходилося в рамках похибки.

процесорозалежність

Ще одним виникли пляшковим горлечком, актуальним і донині, стала процесорозалежність. Це явище виникло в результаті стрімкого розвитку відеокарт і означало недостатню потужність зв'язки «процесор - чіпсет - пам'ять» по відношенню до відеокарти. Адже кількість кадрів в грі визначається не тільки відкритий, але і цієї зв'язкою, так як саме остання надає мапі інструкції і дані, які потрібно обробити. Якщо зв'язка не встигає, то видеоподсистема упреться в стелю, який визначається переважно нею. Така стеля буде залежати від потужності карти і використовуваних налаштувань, але є і карти, що володіють такою стелею при будь-яких настройках в певній грі або при однакових налаштуваннях, але в більшості сучасних їй ігор практично при будь-яких процесорах. Наприклад, карта GeForce 3 сильно впиралася в продуктивність процесорів Puntium III і Pentium 4 на ядрі Willamete. Трохи більш старшої моделі GeForce 4 Ti вже не вистачало Athlon'ов 2100 + -2400 +, і приріст при поліпшенні характеристик зв'язки був вельми помітний.



Яким чином поліпшувалися характеристики? Спочатку AMD, користуючись плодами розробленої ефективної архітектури, просто підвищувала частоту процесорів і покращувала технологічний процес, а виробники чіпсетів - пропускну здатність пам'яті. Intel продовжувала слідувати політиці нарощування тактових частот, благо архітектура Netburst саме до цього і мала у своєму розпорядженні. Процесори Intel на ядрах Willamete, Northwood з шиною 400QPB (quad pumped bus) програвали конкуруючим рішенням з шиною 266 МГц. Після впровадження 533QPB процесори зрівнялися в продуктивності. Але потім Intel замість 667-МГц шини, впровадженої в серверних рішеннях, вирішила процесори для настільних комп'ютерів перевести відразу на шину 800 МГц, щоб зробити запас потужності для конкуренції з ядром Barton і новим топом Athlon XP 3200+. Процесори Intel сильно упиралися в частоту шини, і навіть 533QPB не вистачало для забезпечення потоком даних в достатньому обсязі. Саме тому вийшов 3.0-ГГц CPU на шині 800 МГц обганяв у всіх, за винятком, можливо, малого числа, додатках процесор 3.06 МГц на шині 533 МГц.


Також була введена підтримка нових частотних режимів для пам'яті, і з'явився двоканальний режим. Зроблено це було для вирівнювання пропускної здатності шини процесора і пам'яті. Двоканальний режим DDR якраз відповідав QDR на тій же частоті.


Для AMD двоканальний режим був формальністю і давав ледь помітний приріст. Нове ядро \u200b\u200bPrescott не принесло однозначного приросту в швидкості і місцями програвало старому Northwood. Основною його метою був переклад на новий техпроцес і можливість подальшого зростання частот. Тепловиділення сильно зросла в зв'язку з струмами витоку, що поставило хрест на випуск моделі, що працює на частоті 4.0 ГГц.

Через стелю до нової пам'яті

Покоління Radeon 9700/9800 і GeForce 5 для процесорів того часу проблем з процесорозалежність не викликало. Зате покоління GeForce 6 поставило більшість систем на коліна, оскільки приріст продуктивності був дуже помітним, а тому і процесорозалежність вище. Топові процесори на ядрах Barton (Athlon XP 2500+ - 3200) і Northwood / Prescott (3.0-3.4 МГц 800FSB) вперлися в новий межа - частотний межа пам'яті і шину. Особливо від цього страждала AMD - шина 400 МГц була недостатньою для реалізації потужності хорошого FPU. У Pentium 4 ситуація була кращою і при мінімальних таймингах вони демонстрували хороші результати. Але JEDEC не бажала сертифікувати більш високочастотні і володіють меншими затримками модулі пам'яті. Тому варіанти було два: або складний двоканальний режим, або перехід на DDR2. Відбулося останнє, і була представлена \u200b\u200bплатформа LGA775 (Socket T). Шина залишалася тією ж, але частоти пам'яті не були обмежені 400 МГц, а тільки починалися з неї.



AMD вирішила проблему краще з точки зору масштабованості. Покоління K8, що носило технічна назва Hammer, крім збільшення числа інструкцій за такт (почасти через більш короткого конвеєра), мав два нововведення з доробком на майбутнє. Ними стали вбудований контроллер пам'яті (а точніше, північний міст з більшою частиною його функціоналу) і швидка універсальна шина HyperTransport, яка служила для зв'язку процесора з чіпсетом або процесорів між собою в багатопроцесорної системі. Вбудований контролер пам'яті дозволив уникнути слабкої ланки - зв'язки «чіпсет - процесор». FSB як така існувати перестала, була лише шина пам'яті і шина HT.


Це дозволило Athlon'ам 64 легко обігнати існуючі рішення Intel на архітектурі Netburst і показати ущербність ідеології довгого конвеєра. Tejas мав багато проблем і не вийшов на світло. Ці процесори легко реалізовували потенціал карт GeForce 6, втім, як і старші Pentium 4.


Але тут з'явилося нововведення, яке зробило процесори слабкою ланкою надовго. Ім'я йому - multi-GPU. Вирішено було відродити ідеї 3dfx SLI і втілити в NVIDIA SLI. ATI відповіла симетрично і випустила CrossFire. Це були технології для обробки сцен силами двох карт. Подвоєна теоретична потужність відеопідсистеми і розрахунки, пов'язані з розбивкою кадру на частини за рахунок процесора, привели до перекосу системи. Старші Athlon 64 навантажували таку зв'язку лише у великих дозволах. Вихід GeForce 7 і ATI Radeon X1000 ще більше збільшив цей дисбаланс.


Попутно був розроблена нова шина PCI Express. Ця двунаправленная послідовна шина призначена для периферії і має дуже високою швидкістю. Вона прийшла на заміну AGP і PCI, хоча і не витіснила її повністю. З огляду на універсальність, швидкості і дешевизни реалізації вона швидко витіснила AGP, хоча і не принесла в той час ніякого приросту в швидкості. Різниці між ними не було. Але з точки зору уніфікації це був дуже хороший крок. Зараз вже випускаються плати з підтримкою PCI-E 2.0, що володіє вдвічі більшою (500 Мб / с в кожну сторону проти колишніх 250 Мб / с на одну лінію) пропускною спроможністю. Приросту нинішнім видеокартам це також не дало. Різниця між різними режимами PCI-E можлива лише в разі нестачі відеопам'яті, що означає вже дисбаланс для самої карти. Такий картою є GeForce 8800GTS 320 Mб - вона дуже чутливо реагує на зміну режиму PCI-E. Але брати незбалансовану карту, тільки щоб оцінити приріст від PCI-E 2.0, - решені5 не найрозумніше. Інша справа, карти з підтримкою Turbocache і Hypermemory - технологій використання оперативної пам'яті в якості відеопам'яті. Тут приріст в плані пропускної здатності пам'яті буде приблизно дворазовим, що позитивно відіб'ється на продуктивності.


Чи достатньо відеокарти пам'яті можна подивитися в будь-якому огляді пристроїв з різними обсягами VRAM. Там, де буде спостерігатися різке падіння кадрів в секунду, наявна нестача VideoRAM. Але буває, що різниця стає сильно помітна тільки при неіграбельних режимах - дозвіл 2560х1600 і AA / AF на максимум. Тоді різниця 4 і 8 кадрів в секунду хоч і буде дворазової, але очевидно, що обидва режими неможливі в реальних умовах, тому і в розрахунок їх брати не варто.

Нова відповідь відеочіпі

Вихід нової архітектури Core 2 (технічна назва Conroe) поліпшив ситуацію з процесорозалежність і рішення на GeForce 7 SLI завантажував без особливих проблем. Але підоспілі Quad SLI і GeForce 8 взяли реванш, відновивши перекіс. Так триває і досі. Ситуація лише посилилася з виходом 3-way SLI і готуються до виходу Quad SLI на GeForce 8800 і Crossfire X 3-way і 4-way. Вихід Wolfdale злегка підвищив тактові частоти, Але і розгону цього процесора мало, щоб нормально завантажити такі відеосистеми. 64-бітові гри - велика рідкість, а приріст в цьому режимі спостерігається в одиничних випадках. Ігри, які отримують приріст від чотирьох ядер, можна перелічити на пальцях однієї руки інваліда. Як завжди, всіх витягує Microsoft, завантажуючи своєї нової ОС і пам'ять, і процесор з доброго дива. Підспудно оголошується, що технології 3-way SLI і Crossfire X працюватимуть виключно під Vista. З огляду на апетити оной, можливо, геймери будуть змушені брати чотириядерні процесори. Пов'язано це з більш рівномірною, ніж в Windoes XP, завантаженням ядер. Якщо вже вона повинна від'їдатися неабияку частку процесорного часу, так нехай хоч від'їдає ядра, які грою все одно не використовуються. Однак сумніваюся, що нова операційна система задовольниться даними на відкуп ядрами.



Платформа Intel зживає себе. Чотири ядра вже сильно страждають від нестачі пропускної здатності пам'яті і затримок, пов'язаних з перемиканнями шини. Шина є розділяється, і на перехоплення ядром шини під свій контроль потрібен час. При двох ядрах це терпимо, але на чотирьох вплив тимчасових втрат стає помітнішою. також системна шина давно не встигає за ПСП. Вплив цього фактора було ослаблено поліпшенням ефективності асинхронного режиму, Що Intel непогано реалізувала. Робочі станції в ще більшій мірі страждають від цього з вини невдалого чіпсета, контролер пам'яті якого забезпечує лише до 33% від теоретичного ПСП. Приклад тому - програш платформи Intel Skulltrail в більшості ігрових додатків (3Dmark06 CPU test - не ігровий додаток :)) навіть при використанні однакових відеокарт. Тому Intel оголосила про нове покоління Nehalem, яке займеться впровадженням інфраструктури, дуже схожою з розробками AMD - вбудований контроллер пам'яті і шина для периферії QPI (технічна назва CSI). Це поліпшить масштабованість платформи і дасть позитивні результати в двопроцесорних і багатоядерних конфігураціях.


AMD зараз має кілька пляшкових шийок. Перша пов'язана з механізмом кешування - через нього існує якась межа ПСП, що залежить від частоти процесора, такий, що вище цього значення не вдається перестрибнути, навіть використовуючи більш високочастотні режими. Наприклад, при середньому процесорі різниця в роботі з пам'яттю між DDR2 667 і 800 МГц може бути порядку 1-3%, для реального завдання - взагалі нікчемною. Тому краще всього підбирати оптимальну частоту і знижувати таймінги - на них контролер дуже добре відгукується. Тому впроваджувати DDR3 сенсу не має ніякого - великі тайминги тільки зашкодять, приросту взагалі може не бути. Також проблема AMD зараз - повільна (незважаючи на SSE128) обробка SIMD інструкцій. Саме з цієї причини Core 2 дуже сильно обганяє K8 / K10. ALU, який завжди був сильним місцем Intel, став ще сильніше, і в деяких випадках може бути в рази швидше свого побратима в Phenom'е. Тобто основна біда процесорів AMD - слабка «математика».


Взагалі кажучи, слабкі ланки дуже сильно залежать від конкретного завдання. Були розглянуті лише «епохальні». Так, в деяких завданнях швидкість може впертися в обсяг ОЗУ або ж швидкість дискової підсистеми. Тоді додається більше пам'яті (обсяг визначається за допомогою лічильників продуктивності) і ставляться RAID-масиви. Швидкість ігор може бути підвищена відключенням вбудованої звукової карти і покупкою нормальної дискретною - Creative Audigy 2 або X-Fi, які менше вантажать процесор, обробляючи ефекти своїм чіпом. Це більшою мірою відноситься до звуковим картам AC'97 і в меншій до HD-Audio (Intel Azalia), оскільки в останній була виправлена \u200b\u200bпроблема високого завантаження процесора.


Пам'ятай, система завжди повинна братися під конкретні завдання. Найчастіше, якщо відеокарту можна підібрати збалансовану (і то вибір по ціновими категоріями буде залежати від сильно різняться по різних місцях цін), то, скажімо, з дисковою підсистемою така можливість не завжди є. RAID 5 потрібен дуже небагатьом, але для сервера - це незамінна річ. Те ж відноситься до двухпроцессорной або многоядерной конфігурації, марною в офісних додатках, Але це «must have» для дизайнера, що працює в 3Ds Max.



Сподобалася стаття? поділіться їй