amd
Компания AMD запускает мобильные ускорители вычислений Richland
Метки: A10-5750M | A4-5150M | A6-5350M | A8-5550M | AMD | APU | Richland
Дата: 13/03/2013 12:17:41
Подписаться на комментарии по RSS
Компания Advanced Micro Devices отметилась в эти дни официальным анонсом ускорителей вычислений поколения Richland, которые пришли на смену нынешнему семейству Trinity, стартовавшему в прошлом году. Для начала известная компания запускает мобильные версии APU, отметим, что вычислительная и графическая составляющая новинок основывается на 32-нанометровой микроархитектуре, которая использовалась производителем в предшественниках и устанавливаются они в тот же самый сокет. Здесь пользователям вновь предоставлены ядра Piledriver, а iGPU, несмотря на обозначение Radeon HD 8000, имеют такую же структуру, что и графика в чипах Trinity. Главным достоянием APU Richland считается более высокая рабочая частот CPU и GPU, улучшенные показатели энергопотребления и внедрение новых технологий и функций.
Для начала AMD представила четыре мобильных чипа с одинаковым энергопотреблением в 35 Вт. Флагманом линейки считается четырехъядерный чип A10-5750M, классом ниже разместился еще один четырехъядерник A8-5550M. Кроме этого пользователям будут доступны и две двухъядерные модели – A6-5350M и A4-5150M. Как мы уже говорили, и как видно из представленной таблицы, APU располагают повышенными тактовыми частотами, а все прочие спецификации остались на уровне с таковыми семейства Trinity. Топовый представитель линейки получил поддержку планок памяти DDR3-1866 МГц, но объем его кеша второго уровня и количество ядер графики Radeon HD 8650G сохранились.
Компания AMD практически не говорила о производительности ускорителей Richland, больше уделяя внимания энергопотреблению новинок в сравнении с генерацией Trinity. Если сравнить этот показатель у флагманов линеек (A10-5750M и A10-4600M), то разница составляет впечатляющие 47 процентов при воспроизведении HD-контента.
Титан расправил крылья! Обзор и тестирование ZOTAC GeForce GTX TITAN на платформе AMD.
Метки: AMD | ARES II | ASUS | DirectX 11 | GeForce GTX TITAN | NVIDIA | ZOTAC | архитектура | обзор | разгон | тестирование
Дата: 12/03/2013 21:34:36
Подписаться на комментарии по RSS
Вступление. Архитектура GK110, новые возможности GeForce GTX TITAN.
Ещё несколько месяцев назад на страницах зарубежных новостных ресурсов стали появляться скудные данные о некоем мифическом 3D ускорителе от компании NVIDIA. Судя по первым слухам, которые, впоследствии подтвердились, новая видеокарта должна была получить гордое имя “TITAN”, а её сердцем должен был стать супермощный GPU с архитектурой Kepler. Скептики не верили в существование Титана, поклонники же, отнюдь, всем сердцем ждали новинку и пророчили флагманской графике AMD поражение в борьбе с зелёным монстром. Так бы и продолжались словесные перепалки, если бы, наконец, не произошёл долгожданный анонс, после которого все смогли оценить способности новоиспечённого одночипового флагмана. Ну а я, в свою очередь, после того, как эмоциональный накал от выхода GeForce GTX TITAN немного спал, хочу спокойно и без спешки посмотреть на производительность ускорителя GeForce GTX TITAN в самых современных играх вроде Tomb Raider и Crysis 3. Сделаю я это не так как большинство журналистов, поскольку в отличие от многих в нашей тестовой лаборатории используется платформа AMD.
Прежде всего, как мне кажется, нужно разобраться с архитектурой графического процессора GeForce GTX TITAN. Начнём.
Знаю наверняка, от чего не умрут маркетологи NVIDIA. От скромности :) Новый ускоритель GeForce GTX TITAN зовётся основой для игрового суперкомпьютера. Звучит, конечно, красиво, однако так можно назвать, пожалуй, любую игровую станцию на базе одной или нескольких флагманских видеокарт, по крайней мере, на стадии анонса или сразу после него. Впрочем, не буду придираться, продолжу.
Осознание способностей графического процессора GeForce GTX TITAN, лучше всего приходить после выставления точки отсчёта. В данном случае ей стал один из экстремальных процессоров Intel – Core i7 3960X Extreme Edition. По сравнению с этим чипом, GPU TITAN, действительно, является суперкомпьютером, жаль только, что вся эта вычислительная мощь актуальна для игроков лишь при наличии маленького кусочка кремния от Intel или AMD....
Чтобы понять, откуда растут ноги, и благодаря чему удалось достичь столь впечатляющих вычислительных показателей, нужно немного углубиться в историю и покопаться в архитектуре GPU ускорителя GeForce GTX TITAN. Дело в том, что после анонса графических ускорителей поколения Kepler, стало ясно, что GeForce GTX 680 не состоялся как флагман в полном смысле этого слова. Этот ускоритель использовал GPU GK104, который, по своей топологии оказался больше похож на Middle-High продукт, нежели на флагманское решение. Чтобы убедится в этом, посмотрите на устройство чипов GF110 и GF114 на базе Fermi, поймёте о чём я. Судя по всему, технологические проблемы не позволили NVIDIA в разумные сроки наладить массовый выпуск полноценных GK110 и, чтобы даром время не терять, был найден компромисс. В общем-то, NVIDIA этого факта и не скрывала, GeForce GTX 680 был временным игроком, который должен был получить более мощного преемника как только удастся решить проблемы с 28-нм техпроцессом. Впрочем, при кажущейся простоте, GeForce GTX 680 обладал отличной производительностью и довольно неплохими характеристиками энергопотребления и тепловыделения. Теперь, с выпуском графического ускорителя GeForce GTX TITAN инженеры компании подвели некоторую технологическую черту, за которую одночиповые решения NVIDIA вряд ли выйдут в рамках архитектуры Kepler, поскольку настольная версия GK110 получила практически все заложенные в неё возможности.
Графический процессор GK110 содержит блок управления потоками, именуемый GigaThread Enginе, кеш память для инструкций и данных, контроллеры памяти, блоки растровых операций, а также Graphics Processing Clusters (GPC), который выполняет вычислительные операции и операции с текстурами. В составе GK110 находятся пять блоков GPC. Внутри каждого GPC, в свою очередь, находится по одному движку растеризации, а также по три так называемых SMX (SM – в терминологии NVIDIA для GPU Tesla и Fermi) - потоковых мультипроцессора. В отличие от серверного Tesla K20/K20X, в составе которых трудится полноценная версия GK110 с 15-ю активными блоками SMX, настольный графический чип GK110 получил лишь 14 активных потоковых мультипроцессора. Количество текстурных блоков равно 224, а блоков растеризации – 48.
В составе SMX трудятся 224 текстурных блока и 48 ROP (блоков растеризации), особого рассмотрения заслуживают блоки операций с двойной точностью. Общее количество блоков FP64 (те самые блоки операций с двойной точностью) составляет 896 штук, по 64 на каждый SMX, – это положительное отличие от GK104. Не очень хорошо то, что по умолчанию, ядра, предназначенные для работы с FP64, работают на 1/8 от частоты других блоков, размещённых в SMX. Правда стоит отметить, что в драйверах есть возможность поднять тактовую частоту FP64 блоков, переключив видеокарту в режим “CUDA двойная точность”, однако общая тактовая частота GPU снизится. Вот что получилось при запуске 3D приложения после включения вышеозначенной опции (значения Temp Target было сдвинуто до 90 градусов Цельсия):
Отключаем режим двойной точности, получаем:
Так вот, поскольку суммарное количество ядер CUDA в GK110 равно 2688 (по 192 штуки на один блок SMX), а количество FP64 блоков – 896, получаем, что соотношение FP64/FP32 блоков = 1/3. Если вспомнить, что FP64 блоки работают на 1/8 частоты GPU, получим, что эффективность выполнения операций с двойной точностью составляет 1/24 от FP32! Да, да, близкая ситуация в FP64 операциях была и у GeForce GTX 680, из за столь же низкой эффективности таких вычислений он “сливал” старине GTX 580. Вот только в данном случае низкая эффективность при работе с FP64 компенсируется за счёт колоссального увеличения количества самих вычислительных блоков. У AMD, кстати, при переходе к FP64 провал заметно меньше, скорость падает примерно вдвое. Это, конечно, на словах звучит страшно, на практике же, применительно к играм, всё не так плохо, скорее даже очень хорошо, поскольку архитектура Fermi, а теперь и Kepler имеет не так много слабых мест и решения на её основе более чем конкурентоспособны.
Контроллер памяти у GK110 заметно подтянут относительно оного у GK104, теперь он 384 битный, против 256 битного, а суммарный объём локальной видеопамяти GeForce GTX TITAN составляет 6144 Мбайт = 6 Гбайт! Здесь полный порядок.
В итоге мы получаем, что настольная версия видеокарт, базирующихся на GPU GK110, обладает следующими характеристиками.
Ещё пару лет назад, снимок экрана с окном программы GPU-Z, отображающей характеристики GeForce TITAN, сочли бы как минимум поддельными, а как максимум, назвали бы автора этих снимков сумасшедшим. Нынче же ситуация иная, перед нами настоящий Титан, по крайней мере по формальным характеристикам. Согласитесь, тактовые частоты GPU 837/876 МГц, частота видеопамяти 6008 МГц, шина памяти 384 бит (ПСП памяти 288 Гбайт/с), 48 блоков растеризации и 224 текстурных блока, 2688 ядер CUDA и всё это при использовании 7,1 млрд. транзисторов! Даже сейчас это выглядит круто, при этом TDP платы GeForce GTX TITAN не пугает современного пользователя – всего 250 Вт.
Если по части архитектуры GPU и подсистемы памяти мы разобрались, то оверклокерские характеристики ещё требуют описания. Уж поверьте, есть на что обратить внимание. Эти данные, определённо, нужно будет учитывать при подходе к разгону.
Динамический разгон. Технология NVIDIA GPU Boost ver. 2.0
Итак, первая версия технологии форсирования частоты GPU от NVIDIA в своей работе учитывала только один параметр – предел мощности/напряжение GPU, который изменялся в определённых рамках. Сейчас же появился ещё один фактор – предельная температура, при которой GPU в состоянии функционировать без сбоев.
По умолчанию значение предельной температуры выставлено на уровень 80 градусов Цельсия, однако пользователь вручную может изменить этот уровень до 94 градусов. Такое смещение позволит работать графическому процессору под нагрузкой при более высоких частотах. Судя по слайдам с презентации, именно рабочая температура GPU будет решающим фактором в достижении максимальной частоты при работе GPU Boost 2.0.
На практике при разгоне видеокарты мы будем выставлять не только значение Power Target, но и Temperature Target. Кстати, отмечу, что в технической документации от NVIDIA написано о возможности регулировки напряжения как об опции, которая может быть выключена производителем посредствам VBIOS. Думаю, что вряд ли кто-то будет намеренно глушить эту возможность.
Одной из интересных возможностей ускорителей NVIDIA является технология адаптивной вертикальной синхронизации, суть которой заключается в нивелирование эффекта “разрыва кадра” и “подёргиваний“ картинки при резком изменении частоты смены кадров. Новизна Adaptive V-sync в случае с GeForce GTX TITAN заключается в том, что отныне ограничение частоты смены кадров при адаптивной вертикальной синхронизации можно увеличить до 120 Гц включительно.
Напоследок, хочу вспомнить о технологии NVIDIA SLI. Не секрет, что максимальное количество одновременно задействованных GPU в системе с видеокартами NVIDIA может достигать четырёх. Пара GeForce GTX 690 – отличный пример работы 4-Way SLI. Использование такого тандема, как мне кажется, оправдано довольно редко, поскольку помимо ограничений в вычислительной мощи центрального процессора, остро стоит проблема синхронизации четырёх чипов для работы над картинкой. Коэффициент полезного действия 4-Way SLI систем существенно ниже, чем у, скажем, 2-Way или 3-Way SLI. Зная об этом, NVIDIA с выходом GeForce TITAN активно продвигает тему 3-Way SLI, как самую оптимальную с точки зрения эффективности и самую высокопроизводительную. На мой взгляд, такое позиционирование оправдывает себя, особенно для видеосистемы класса TITAN. Вот только крайне рекомендую для “Титановых” SLI связок обзавестись мощнейшим процессором, да ещё и разогнать его.
На этом я заканчиваю теоретическую часть материала, пришла пора знакомиться с Титаном лично.
Ускоритель ZOTAC GeForce GTX TITAN. Внешний вид и особенности аппаратного оснащения.
Всё, как обычно, начинается с упаковки. Она, пожалуй, единственное, что отличает ZOTAC GeForce GTX TITAN от большинства выпущенных на данный момент “Титанов” других производителей. Перед нами красочный чехол из тонкого картона, который опоясывает достаточно увесистую коробку, в которой находится набор аксессуаров и сам ускоритель. Помимо основных технических данных, нам сходу сообщают о том, что на этот продукт действует расширенная гарантия от ZOTAC, а также о том, что внутри нас ждёт подарок – три игры из серии Assasin’s Creed. Те, кто любит эти игры, оценит, остальные же отнесутся спокойно, поскольку игры из подарочного комплекта уже не так свежи. как того хотелось бы.
Открываем картонный чемодан. Сверху, под крышкой из прозрачного пластика находится видеокарта ZOTAC GeForce GTX TITAN, она лежит в “кроватке” из пористого синтетического материала. Именно эта кроватка защищает Титана от повреждений при транспортировке.
Вытаскиваю видеокарту, залезаю глубже, нахожу аксессуары, заботливо уложенные на заводе в отдельный картонный бокс. Помимо бумажного сопровождения и диска с драйверами я обнаружил обещанные игры из серии Asassin’s Creed (серийники к которым я, с вашего позволения, замазал), пару переходников питания, переходник с DVI на VGA и фирменную наклейку ZOTAC. Уж не знаю, нужно ли что-то ещё покупателю такой вот видеокарты, а лично мне, как обозревателю, этого набора вполне хватает.
Бог с ними, с бумажками. Вот он, герой обзора. Честно сказать, вопреки своей привычке, я очень долго рассматривал GeForce GTX TITAN, крутил плату в руках и никак не мог нарадоваться. На мой вкус, этот ускоритель можно назвать одним из самых правильных с эстетической точки зрения. Пару или даже тройку Титанов нужно ставить в корпус с прозрачной боковой стенкой, чтобы наблюдать всё это великолепие как можно чаще. Крышка системы охлаждения выполнена из алюминия, ближе к панели выводов выдавлена надпись TITAN, ближе к корме присутствует логотип NVIDIA.
Через прозрачное стекло, изготовленное из полимера, видны рёбра радиатора системы охлаждения.
Кстати, при включении видеокарты надпись GeForce GTX светится зелёным цветом, оценить это свечение можно на фото, приведённом чуть ниже.
Панель выводов оснащается четырьмя выходами, два из которых – DVI-I и DVI-D, ещё пара – это полноразмерные HDMI и DisplayPort. Лично для меня такой набор выходов является идеальным, поскольку обычно я использую сразу два DVI разъёма для подключения монитора и плазменной панели. Как и положено флагману, GeForce GTX TITAN от ZOTAC поддерживает разрешение 4K.
Демонтирую систему охлаждения. Процесс проходит легко и непринуждённо. В отличие от первых плат на базе GPU Fermi, для демонтажа системы охлаждения которых предполагалось использование небольшого гранёного ключика, ускоритель GeForce GTX TITAN разбирается при помощи обычной отвёртки. Слава Богу, производитель не стал мудрить с креплением, винтов много, но процесс демонтажа прост как устройство молотка. Я сознательно не стал разбирать систему охлаждения до винтика, поскольку ничего принципиально нового в её устройстве нет. Кулер представляет собой конструкцию из испарительной камеры, радиатора и турбины, прокачивающей воздух сквозь рёбра радиатора, выводя потоки горячего воздуха за пределы корпуса. Подошва испарительной камеры через тонкий слой термопасты контактирует с кристаллом GK110, в то время как сильно греющиеся элементы системы питания, а также чипы памяти отдают тепло на металлическое основание кулера через специальные термопрокладки.
Полная маркировка GPU ускоритель ZOTAC GeForce GTX TITAN такова:
A TAIWAN 1251A1
NFF532.M3W
GK110-400-A1
Чип GK110 имеет ревизию A1 и изготовлен на 51 неделе 2012 года. Для оценки размеров кристалла GF110, взгляните на фото. Десятирублёвая монета помещается целиком, да ещё и остаётся достаточно много места. Как ни крути, а чип получился гигантский, его площадь составляет 561 кв. мм. Металлическая рамка вокруг GPU защищает кристалл от сколов, полезно при установке нестандартной системы охлаждения.
Без системы охлаждения плата GeForce GTX TITAN выглядит не так эффектно, тем не менее, вид флагмана плата сохраняет даже “голышом”. Двадцать четыре микросхемы памяти Samsung K4G20325FD-FC03 размещены по обе стороны печатной платы, микросхемы, расположенные на обратной стороне PCB никак не охлаждаются. Номинальная эффективная тактовая частота для этих чипов памяти составляет 6 ГГц.
За питание графического процессора отвечают 6 фаз, управляемых микросхемой ON Semiconductor NCP4206. Питание памяти двухфазное, для питания PLL выделана одна фаза. В системе питания использованы высококачественные компоненты Dr.Mos.
В общем-то, с описанием теории и аппаратного устройства GeForce GTX TITAN, пожалуй, всё, самое время переходить к практическим испытаниям.
Нагрев, уровень шума. Пара слов о необходимости разгона. Тесты.
Тестовый стенд Modlabs, на котором проводилась проверка акустических и температурных характеристик, а также тесты производительности GeForce GTX TITAN от ZOTAC, был собран в составе корпуса Cooler Master Cosmos 1000S, все посадочные места которого заняты 120 мм вентиляторами, вращающимися со скоростью 1200 об./мин. Боковая стенка корпуса во время тестирования открыта. Конфигурация тестового стенда такова:
Конфигурация тестового стенда MODLABS |
|
Системная плата |
MSI 990FXA-GD80 – спасибо, MSI! |
Центральный процессор |
AMD FX-8150 @ 4400 МГц – спасибо, AMD! |
Оперативная память |
16 Гбайт AMD Entertainment Memory @ 1600 МГц – спасибо, AMD! |
Видеокарта |
ZOTAC GeForce GTX TITAN 6 Гбайт (837/6008) |
Жёсткие диски |
4x1 Тбайт Seagate ES.2 @ RAID0 |
Операционная система |
MS Windows 8 Professional x64 + upd |
Версия драйверов видеокарты |
314.09 WHQL |
Как вы уже поняли, в качестве основы для тестового стенда использовалась система на базе AMD FX 8150, разогнанного до 4400 МГц. В таком виде эта машина весьма производительная и способна осилить любую из современных игр, однако в сравнении с флагманскими системами Intel, наш боец FX всё-таки проигрывает и местами достаточно заметно. Именно поэтому, для того, чтобы минимизировать влияние процессора на потенциал GeForce GTX TITAN, нужно нагрузить графическую систему по максимуму. Так я и сделал. Помимо стандартных настроек игр на максимальное качество при разрешении 1920x1080 с 4-х кратным полноэкранным сглаживанием MSAA и 16-ти кратной анизотропной фильтрации, я провёл дополнительное тестирование, при котором настройки полноэкранного сглаживания форсировались вручную через драйвер или выставлялись в опциях игр, разумеется, при наличии соответствующих опций, эквивалентных настройкам драйверов. Форсированные настройки драйверов 314.09 выглядят так:
В деле влияния CPU на результаты, не стоит также забывать, что не каждая современная игра способна “получать удовольствие” от наличия в системе 8-ми ядерного CPU. Об этом, кстати, мы уже писали и подкрепили наши слова результатами тестов. С этим фактом, как мне кажется, связан проигрыш процессоров AMD FX в играх, которые не могут использовать все активные ядра флагманских процессоров FX, в то время как камни Intel за счёт большей мощи отдельных ядер вырывались вперёд. К сожалению, мы не можем сравнить полученные нами результаты с оными на платформе Intel ввиду временного отсутствия соответствующего оборудования, так что пока оставим эту тему, до появления актуальной системы на базе чипов Intel.
Что же касается разгона, то для выяснения частотного потенциала моего образца ZOTAC GeForce GTX TITAN, была использована утилита EVGA Precision X. Обороты системы охлаждения были установлены на максимум, значение Power Target было увеличено до 106%, а Temp Target до 90 градусов Цельсия. Базовую частоту GPU удалось поднять до стабильного уровня в 980 МГц, а частоту памяти до 7230 МГц. Максимальная турбо частота при активации технологии GPU Boost составила 1142 МГц, отмечу, правда, что такой потолок был достижим далеко не во всех играх, а там, где достижим, на такой частоте видеокарта работала не долго. Как правило, карта работала на 1078 МГц.
Для тестирования уровня шума и исследования процесса нагрева GPU я отказался от использования теста MSI Kombustor и FurMark, вместо этого тесты проводились в игре Crysis 3, при этом настройки качества картинки были выставлены на максимум, использовалось разрешение 1920x1080, также был задействован режим сглаживания MSAA 8x.
Без разгона графический процессор ускорителя ZOTAC GeForce GTX TITAN разогрелся не более 82 градусов Цельсия, при этом максимальная тактовая частота, которую удалось зафиксировать во время тестирования в играх, составила 1010 МГц. Что же касается уровня шума, то для столь быстрой видеокарты, я бы сказал, что ZOTAC GeForce GTX TITAN почти не шумит. В 2D карту не слышно, а в 3D, на фоне остальных компонентов из состава тестового стенда, этот ускоритель выделяется, но незначительно, долгой игре этот шум никак не мешает. Прямое сравнение температуры GPU GK110 до и после разгона вряд ли можно назвать справедливым, поскольку в момент разгона турбина ZOTAC GeForce GTX TITAN работает на 100% своей мощности.
Обращу ваше внимание на тот факт, что тестирование ускорителя GTX TITAN проводилось до фотосессии видеокарты, как следствие, использовалась термопаста, нанесённая производителем! После фотосессии, на очищенный кристалл GPU был нанесён слой Noctua NT-H1, на фото представлен не окончательный вариант (в реалии оставлен более тонкий слой):
Список тестовых приложений |
Синтетические и полусинтетические тесты |
3DMark Vantage 1.1.0 (Performance, Extreme) |
3DMark 11 1.0.3.0 (Performance, Extreme) |
Unigine Valley 1.0 |
Unigine Heaven 4.0 (Все детали и тесселляция установлены на максимум, 4xAA) |
Игры |
Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум, в том числе и тесселляция, полноэкранное сглаживание устанавливалось в режим 4x во всех играх. Режим PhysX, если был доступен, включался в режиме максимального качества. В драйверах PhysX не выключался нигде, кроме 3DMark Vantage. Также был проведён цикл игровых тестов с форсированными настройками драйверов или эквивалентными им настройками в опциях игр, если такие были доступны. Более подробно читайте об этом чуть выше. Десятые доли FPS отсекались, в силу неактуальности. |
Metro 2033 DX11 |
Batman Arkham City DX11 |
Lost Planet 2 DX11 |
Alien Versus Predator DX11 |
S.T.A.L.K.E.R CoP DX11 |
DIRT Showdown DX11 |
Sleeping Dogs DX11 |
Far Cry 3 DX11 |
Hitman. Absolution |
Asassin’s Creed III |
Crysis 3 версия 1.0.2 |
Изначально я хотел включить в список тестов Tomb Raider 2013, однако игра отказалась запускаться и пока придётся обойтись без неё.
Выводы.
Результаты тестов свидетельствуют о том, что NVIDIA проделала очень серьёзную работу по подготовке GeForce GTX TITAN. И действительно, на примере ZOTAC GeForce GTX TITAN видно, что карта удалась. Восхитительная производительность в тяжёлых режимах делает её незаменимым спутником для богатого игрока, который хочет выжать всё, что только можно из своей системы. Любители собирать компьютер “про запас” также не будут обделены. Если позволяют средства, можно собрать связку из трёх Титанов, благодаря чему, как мне кажется, в ближайшие полтора – два года можно забыть об апгрейде, разумеется, если не произойдёт неожиданного скачка в области требований к графической подсистеме со стороны актуальных на тот момент игр.
Помимо высокой производительности, к достоинствам ZOTAC GeForce GTX TITAN можно отнести низкий уровень шума стандартной системы охлаждения, что тоже не маловажно в домашнем игровом ПК. Тем не менее, несмотря на столь выдающиеся возможности, я бы не стал торопиться с выводами и записывать GeForce GTX TITAN в однозначные лидеры среди всех одиночных видеокарт, ведь красному лагерю тоже есть чем ответить, например “залпом” из двух GPU видеокарты ASUS ARES II, но об этом в другой раз. А пока битва Богов и Титанов только готовится, я, пожалуй, выдам продукту ZOTAC награду.
Графический ускоритель ZOTAC GeForce GTX TITAN удостоен награды "Выбор редактора" за март 2013 года.
Предлагаю обсудить материал у нас в форуме.
P.S. Заранее отвечая на вопрос о целесообразности покупки трёх Титанов для объединения их в связку, скажу, что помимо обычных конфигураций, работающих с одним монитором, пусть даже и очень большим, есть ещё конфиги, например, с тремя мониторами, да ещё и с поддежкой 3D, а это значит, что столь мощные конфигурации оправданы уже сегодня!
Ускорители AMD Kabini составят реальную конкуренцию 17-ваттным процессорам Intel Core?
Метки: AMD | Kabini
Дата: 12/03/2013 11:31:09
Подписаться на комментарии по RSS
В эти дни наши коллеги с портала Fudzilla обнародовали любопытную информацию относительно предстоящих мобильных процессоров семейства Kabini в исполнении Advanced Micro Devices. Как уже ранее сообщалось, приемники нынешних чипов AMD E-series Brazos 2.0 должны быть официально представлены мировой общественности в первой половине 2013 года и по данным источника, который пожелал остаться анонимным, их производительность действительно будет в два раза превосходить показатели их предшественников. Также стало известно, что дебют процессоров AMD Kabini состоится в рамках международной выставки Computex, что пройдет в Тайбэе с 4 по 8 июня сего года.
По ранним публикациям нам уже известно, что в популярном тесте PCMark Vantage чип Kabini модели A6-5200 демонстрирует результат в 5271 баллов. Конфигурация включала в себя платформу AMD Larne референсного дизайна, 4 Гбайт ОЗУ DDR3-1600 и ОС Windows 8 64-bit. Для сравнения, система на базе процессора Brazos набирает в том же бенчмарке 2807 очков – платформа Renmore, APU E2-1800 (Radeon HD 7340), 4 Гбайт DDR3-1333, Windows 7 Ultimate.
Несмотря на двукратное увеличение производительности, существенного снижения времени автономной работы устройств на основе APU Kabini не ожидается – компания AMD обещает до 10 часов функционирования от батареи. К сожалению, производитель не уточняет подробностей относительно режима использования портативника и емкости аккумулятора.
Вполне возможно, что AMD с ускорителями на ядра Jaguar удастся навязать борьбу в ультракомпактном сегменте 17-ваттным процессорам от Intel.
Графика с характером. Обзор AMD Radeon HD 7850 от XFX и Gigabyte
Метки: AMD | CrossFireX | Radeon HD 7850 | производительность | разгон | температуры | тестирование | уровень шума
Дата: 10/03/2013 03:03:33
Подписаться на комментарии по RSS
Введение. XFX Radeon HD 7850 Core Edition 1024 Мбайт
У каждого человека, определённо, есть свой характер. Даже близнецы, при всём своём внешнем сходстве, имеют отличительные поведенческие качества. Вот так и с видеокартами, платы на базе одного и того же GPU могут заметно отличаться по своим оверклокерским возможностям, даже в рамках одной партии, у одного производителя, что уж говорить о двух адаптерах от разных изготовителей. Так вот, сейчас я расскажу вам о двух видеокартах на базе GPU AMD с кодовым именем Pitcairn. Первый ускоритель произведён компанией XFX, другой же выполнен на мощностях Gigabyte. Вначале мы рассмотрим эту парочку поодиночке, а после проверим, насколько эффективно они работают в CrossFireX связке. Пренебрегая алфавитными последовательностями, начну с ускорителя XFX.
Люблю я качественные упаковки, что и говорить. Приятно, когда купленный тобой продукт оформлен со старанием и заботой об эстетической составляющей. С этой точки зрения продукт XFX порадовал. Коробка башенного типа оформлена и впрямь весьма эффектно. Производитель заполнил описаниями все грани этого картонного параллелепипеда, так что потенциальный покупатель может ознакомиться с информацией об объёме локальной видеопамяти, типе используемой шины, количестве и типе видеовыходов, системе охлаждения и т.д. На мой вкус, описание достаточно неплохое, подробное.
Внутри коробки полный порядок. Сам ускоритель и прилагаемые аксессуары находятся в двухъярусной “кроватке”. Вверху аккуратно разложены аксессуары, чуть ниже расположился сам ускоритель. По большей части в комплекте с XFX Radeon HD 7850 Core Edition можно обнаружить лишь различные документации и рекламные брошюры, однако не все они бесполезны. Например, помимо инструкции, вполне может пригодиться информационная брошюра с информацией о различных переходниках для разных источников видеосигнала. Из приятных мелочей отмечу табличку на дверь с надписью “Do Not Disturb” (не беспокоить). Что же касается “железячных” дополнений, то кроме гибкого мостика CrossFireX ничего в комплекте не оказалось. Жаль.
Сам ускоритель выглядит так же эффектно, как и его упаковка. Матово чёрный текстолит платы прекрасно сочетается с прекрасной алюминиевой крышкой системы охлаждения. На мой взгляд, этот графический “кирпичик” производит впечатление качественного и надёжного продукта. Правда, не буду забегать вперёд и перед тем, как хвалить продукт, проведу исследование его возможностей.
Панель выводов XFX Radeon HD 7850 Core Edition богата на разъёмы. Пара DVI-D, пара Mini-DP, HDMI – всего пять разъёмов. Особо отмечу, что HDMI и DP порты поддерживают вывод изображения в формате 4Кю Пока данный формат не получил широкого распространения, но такие возможности явно не лишние.
Демонтирую крышку системы охлаждения. За отвод тепла от графического процессора, чипов памяти и системы питания отвечает один единственный радиатор с вентилятором в центре. Конструкция проста и надёжна как автомат Калашникова, однако её эффективность, откровенно говоря, под вопросом. Дело в том, что чипы памяти и элементы системы питания охлаждаются лишь потоками воздуха, создаваемыми тем самым единственным вентилятором. Помочь в этом вопросе призван алюминиевый кожух, конструкция которого как раз и разработана для улучшения движения воздушных потоков С ней элементам на плате, должно “дышаться” легче. Что касается самого радиатора и вентилятора, то он представляет собой медное основание, в которое впаяны две тепловые трубки, на них, в свою очередь, нанизаны алюминиевые рёбра. Диаметр тепловых трубок составляет 8 мм.
На плате установлены чипы памяти производства компании Elpida memory. Суммарный объём установленной памяти составляет 1 Гбайт, тип памяти – GDDR-5, маркировка W1032BBBG -50-F, паспортная эффективная частота составляет 5 ГГц (1,25 ГГц).
Система питания XFX Radeon HD 7850 Core Edition обладает следующими возможностями:
- ШИМ - uP1608PK . Доступно программное управление напряжением силами большинства актуальных программ для разгона видеокарт.
- Для питания GPU выделены 3 фазы
- Для питания PLL и памяти выделено по 1-ой фазе
От эталонной версии Radeon HD 7850 система питания XFX отличается отсутствием одной фазы питания для GPU.
В общем-то, на этом рассмотрение аппаратных особенностей XFX Radeon HD 7850 Core Edition я завершаю, результаты тестирования этой карты вы увидите чуть позже, а пока я перехожу к описанию второго героя данного материала – видеокарте Gigabyte Radeon HD 7850 (GV-R785OC-1GD).
Gigabyte Radeon HD 7850 (GV-R785OC-1GD)
Плата Gigabyte, в отличие от продукта XFX, оформлена проще, тем не менее, продукт выглядит весьма неплохо, в данном случае эта самая простота не вредит. Производитель сообщает о частоте GPU, рассказывает о ряде ключевых особенностей Radeon HD 7850 и, конечно, делает акцент на фирменной системе охлаждения WindForce 2X.
Комплект Radeon HD 7850 от Gigabyte весьма аскетичен. Инструкция, диск с драйверами, мостик CrossFire и переходник питания с пары Molex на PCI-Express. Судя по всему, век переходников с DVI на D-Sub закончился ввиду отмирания последнего. Даёшь полностью цифровые мониторы!
Печатная плата, на базе которой выполнен ускоритель GV-R785OC-1GD, выкрашена в фирменную бирюзу Gigabyte. Все разъёмы, в том числе и на панели выводов, закрыты специальными заглушками, предотвращающими засорение разъёмов. Не знаю насколько это актуально на первом этапе эксплуатации, но вообще, такая забота не лишняя, учитывая, что почти у всех “системник” забивается пылью достаточно быстро.
Панель выводов у платы Gigabyte мне понравилась меньше, чем в случае с решением XFX. Выхлопная решётка “съела” один из DVI-D разъёмов, что лично для меня очень неудобно, поскольку я постоянно подключаю к плате два DVI разъёма и городить огород с переходниками не люблю. Впрочем, большинство пользователей не будут испытывать дискомфорта, так что пополнять список отрицательных отзывов пока не буду.
Займёмся осмотром системы охлаждения. Кулер WindForce 2X состоит из радиатора, пластикового кожуха и двух вентиляторов. Невольно сравнивая эстетику этой системы охлаждения с творением XFX, я сделал вывод, что последняя кажется мне куда более симпатичной. А вот с точки зрения эффективности, творение Gigabyte скорее всего окажется более эффективным. Алюминиевые рёбра радиатора пронизаны парой медных тепловых трубок диаметром 6 мм, трубки работают по технологии прямого контакта и закрывают большую часть GPU, чуть ниже вы увидите отпечаток трубок в термопасте. Если приглядеться к фотографиям, можно увидеть, что крыльчатка вентиляторов не параллельна плоскости радиатора, таким образом инженеры Gigabyte повысили эффективность отвода тепла, уменьшив эффект турбулентности. Кстати, используемые вентиляторы имеют диаметр 100 мм и это хорошо, плохо то, что они лишены тахометра, а значит наблюдать за скоростью вращения крыльчатки не получится.
На плате установлены чипы памяти, аналогичные тем, которые мы видели на плате XFX.
- Производитель – Elpida
- Суммарный объём составляет 1 Гбайт
- Тип памяти – GDDR-5
- Маркировка W1032BBBG -50-F
- Штатная эффективная частота составляет 5 ГГц (1,25 ГГц).
Производитель использовал следующие ШИМ контроллеры - NCP5395 и APW7165C , последний не поддерживает I2C протокол. Схема питания такова:
- 4 фазы для GPU
- По 1-ой фазе для памяти и PLL
Разгон, нагрев и уровень шума систем охлаждения.
В общем-то, приступая к разгону ускорителей Gigabyte GV-R785OC-1GD и XFX Radeon HD 7850 Core Edition, я столкнулся с одной мелкой неприятностью, которая, тем не менее, на некоторое время поставила меня в тупик и даже подтолкнула к мысли о том, что я начал стареть J.
Для начала я запустил утилиту MSI Afterburner, начал крутить ползунки настроек и всё бы ничего, вот только частотный потолок составил всего 1050 МГц. Такое ограничение накладывает AMD OverDrive, якобы для защиты от повреждения графического процессора. Так вот, старость я начал чувствовать, когда не нашёл кнопочек для снятия этого самого ограничения. Впрочем, вовремя пришёл в себя и достаточно быстро отыскал способ решения вопроса. Если вы, как и я, немного отстали от жизни, рассказываю.
- Можете скачать бета-версию утилиты
- MSI Afterburner 3.0.0 из нашего файлового архива. В настройках программы, в явном виде есть галочка, которая позволяет несколько сдвинуть частотный порог, в большую сторону, разумеется. В общем, в любой версии Afterburner можно полностью раскрыть потенциал видеокарты, для этого нужно в файле MSIAfterburner.cfg изменить конфигурацию по умолчанию на следующую:
UnofficialOverclockingEULA = I confirm that I am aware of unofficial overclocking limitations and fully understand that MSI will not provide me any support on it
UnofficialOverclockingMode = 1
для разблокировки напряжения и его мониторинга надо писать:
UnlockVoltageControl = 1
UnlockVoltageMonitoring = 1
- Второй способ практически аналогичен первому, с той лишь разницей, что для разблокировки частотного потенциала придётся использовать утилиту ASUS GPU Tweaking Tool, через GUI которой можно получить доступ к установкам напряжения и более высоких частот GPU.
Разумеется, есть и другие программы, однако в своих экспериментах я использовал эту парочку. Отмечу, что во время разгона скорость вращения крыльчатки вентиляторов СО выставлялась на максимум! Итогом моих стараний стали следующие результаты:
Стабильная частотная формула под нагрузкой при помощи утилиты MSI Kombustor для платы:
- XFX составила 1200 МГц для GPU и 5100 МГц для видеопамяти. Напряжение на GPU 1.2 В
- Gigabyte составила 1170 МГц для GPU и 5100 МГц для видеопамяти. Напряжение на GPU 1.2 Вю
К сожалению, в случае с платой Gigabyte, даже после разблокировки ползунка с частотой, максимальная планка для GPU составила те самые 1170 МГц. Отмечу, что после разгона ускорителя XFX, во время работы стресс-теста MSI Kombustor 2.5 был отчётливо слышен “стрекот” от элементов системы питания, в случае с платой Gigabyte таких проблем не наблюдалось.
Теперь поговорим об уровне шума и эффективности системы охлаждения при работе в обычном режиме. Система собрана в корпусе Cooler Master Cosmos 1000S, все штатные посадочные места заняты 120 мм вертушками со скоростью вращения 1200 об/мин. Во время тестов боковая стенка корпуса была открыта.
В процессе эксплуатации ускорителей, обе системы охлаждения проявили себя достойно. Кулер XFX в большинстве случаев никак не выделялся шумом на фоне остальных компонентов системы, разве только в играх, под серьёзной нагрузкой, шелест лопастей вентилятора выделялся на фоне системы, впрочем, до “пылесосов” из высшего сегмента этой вертушке ещё очень далеко. А вот кулер ускорителя Gigabyte вообще оказался молчуном. Никакого шума даже под нагрузкой. Конечно в бесшумной системе творение Gigabyte слышно будет, но в моём стенде СО этой видеокарты никак не выделяет себя.
Кстати, на графиках я привёл температурные показатели ускорителей XFX и Gigabyte после разгона. Сравнивать эти данные с теми, что были получены в обычных режимах, не корректно, поскольку скорость вращения вентиляторов видеокарты после разгона устанавливалась на максимальные обороты, тем не менее, для понимания общей ситуации эти данные не помешают.
Тестирование производительности. Выводы.
Конфигурация тестового стенда MODLABS | |
Системная плата | MSI 990FXA-GD80 – спасибо, MSI! |
Центральный процессор | AMD FX-8150 @ 4400 МГц |
Оперативная память | 16 Гбайт AMD Entertainment Memory @ 1600 МГц (9-9-9) |
Видеокарта |
XFX Radeon HD 7850 Core Edition (860/4800) Gigabyte Radeon HD 7850 WindForce 2X (900/4800) |
Жёсткие диски | 4x1 Тбайт Seagate ES.2 @ RAID0 |
Операционная система | MS Windows 8 Professional x64 + upd |
Версия драйверов видеокарты | 310.90 WHQL |
Тестирование видеокарт по одиночке я решил проводить на частоте 860 МГц, именно на такой частоте работает плата XFX, ровно на такой же частоте было проведено тестирование CrossFireX связки. Прибавка в 40 МГц в частоте ядра для решения Gigabyte практически никак не отразится на результатах, разница будет соответствовать максимум 5% и то, далеко не везде.
Список тестовых приложений |
Синтетические и полусинтетические тесты |
3DMark Vantage 1.1.0 (Performance, Extreme) |
3DMark 11 1.0.3.0 (Performance, Extreme) |
Unigine Heaven 3.0 (Все детали и тесселляция установлены на максимум, 4xAA) |
Игры |
Во всех играх рабочее разрешение было установлено в 1920x1080, все детали, доступные в опциях игры или в настройках бенчмарка были выставлены на максимум, в том числе и тесселляция, полноэкранное сглаживание устанавливалось в режим 4x во всех случаях, кроме Far Cry 3, где AA был равен 2x. Режим PhysX, если был доступен, включался в режиме максимального качества. В драйверах PhysX не выключался нигде, кроме 3DMark Vantage. Физические эффекты в играх включались на максимум, вне зависимости от поддержки со стороны графических ускорителей. |
Metro 2033 DX11 |
Batman Arkham City DX11 |
Lost Planet 2 DX11 |
Alien Versus Predator DX11 |
S.T.A.L.K.E.R CoP DX11 |
DIRT Showdown DX11 |
Sleeping Dogs DX11 |
Far Cry 3 DX11 |
Hitman. Absolution |
Asassin’s Creed III |
Выбирая конкурентов для наших участников, я ориентировался прежде всего на стоимость видеокарт в московской рознице. Прямого конкурента для Radeon HD 7850 в лагере NVIDIA, как мне кажется, нет. Средняя стоимость GeForce GTX 650 Ti примерно на 1000 рублей меньше, в то время как GeForce GTX 660 Ti на 2-3 тысячи дороже, чем Radeon HD 7850. В итоге, на графиках производительности оба эти ускорителя. Обращу ваше внимание на один момент. В списке тестовых пакетов у нас нынче пополнение, вот только не все карты остались на руках, поэтому в части программ отсутствуют результаты для графики NVIDIA, впрочем, общая картина всё равно видна. Оценивайте:
Итого.
Что касается баталии между Radeon HD 7850 и GeForce GTX 650 Ti, то первая практически всегда ведёт в счёте, проигрывая, только там, где используется ускорение физики через PhysX API, исполняемой в случае с картами Radeon силами CPU. Стоит ли эта победа ещё 1000 рублей – решать вам. Как по мне, так AMD подобрала стоимость для Radeon HD 7850 как нельзя лучше.
Ну а против GeForce GTX 660 Ti ускоритель Radeon HD 7850 уже не боец, только максимальный разгон позволяет догнать противника и то, далеко не везде. Более того, даже для CrossFireX бывают игровые исключения, которые не дают связке сильно обогнать GTX 660 Ti. На мой взгляд, такая ситуация связана с нехваткой локальной видеопамяти для работы в столь тяжёлых режимах. Мне кажется, что сейчас мы подошли к тому, что даже середнячки нуждаются в большом объёме VRAM и Radeon HD 7850 не исключение.
Масштабируемость в CrossFireX для Radeon HD 7850 сильно колеблется в зависимости от игры. Более старые проекты, вроде AvP, приносят двойной прирост, в то время как свежие игры, особенно в тяжёлых режимах, могут позволить поднять частоту смены кадров всего лишь на 20-40%, что не является хорошим результатом. В данном случае, опять-таки, я склоняюсь к теории о нехватке видеопамяти для эффективной работы.
Наконец, говоря о двух представителях линейки Radeon HD 7850, отмечу, что каждая из видеокарт обладает своими плюсами и минусами. Плата XFX внешне выглядит очень здорово, обладает неплохим потенциалом разгона и умеренным уровнем шума штатной СО, а также большим количеством разъёмов на задней панели. В то же время плата Gigabyte работает очень тихо, почти не греется после разгона, обладает при этом неплохой внешностью и достаточным, для большинства пользователей, количеством разъёмов на панели выводов. В итоге, первую плату я бы рекомендовал тем, кто не стремится к разгону "до упора" и при этом хочет соблюсти определённую внешнюю стилистику системы, для всех остальных – Gigabyte Radeon HD 7850.
В этой теме нашего форума можно обсудить матриал.
E1-2100, E1-2500 и E2-3000 - еще три ускорителя вычислений AMD Kabini
Метки: AMD | E1-2100 | E1-2500 | E2-3000 | Kabini
Дата: 07/03/2013 13:59:13
Подписаться на комментарии по RSS
В следующем квартале компания Advanced Micro Devices планирует представить на суд мировой общественности энергоэффективную микроархитектуру под кодовым названием Jaguar, которая найдет свое применение в ускорителях вычислений Temash и Kabini. Известно, что APU Temash можно будет встретить в планшетах и гибридных устройствах, модели Kabini ориентированы на использование в нетбуках, ультратонких ноутбуках и в компьютерных системах типа «все-в-одном». Ранние сообщения говорили о том, что процессоры Kabini будут выпущены в рамках серий X2 и X4, отличия между которыми будет заключаться в количестве используемых ядер. Кроме этого будут выпущены модели E1-Series – E1-3310 и E1-2210, характеристики и особенности которых пока что нам неизвестны. Тем временем в Сети стала доступна информация еще о трех APU, обозначенных как E1-2100, E1-2500 и E2-3000.
Уже сейчас известно, что предстоящие новинки будут включать в себя по два ядра, и будут располагать кешем второго уровня ёмкостью 2 Мбайт, для их производства применяется 28-нм технологические нормы. Чипы E1-2500 и E2-3000 характеризуются одинаковым уровнем энергопотребления, величина которого пока что не уточняется, для модели E1-2100 показатель TDP должен быть несколько ниже. Будущие ускорители вычислений AMD производятся в BGA-исполнении, ожидается поддержка стандартного для архитектуры Jaguar набора технологий, среди которых присутствуют инструкции AES, F16C и AVX.