Каталог
ZV
ездный б-р, 19
+7 (495) 974-3333 +7 (495) 974-3333 Выбрать город: Москва
Подождите...
Получить токен
Соединиться
X
Сюда
Туда
x
Не выбрано товаров для сравнения
x
Корзина пуста
Итого: 
Оформить заказ
Сохранить заказ
Открыть корзину
Калькуляция
Очистить корзину
x
Главная
Магазины
Каталог
Мои заказы
Корзина
Магазины Доставка по РФ
Город
Область
Ваш город - ?
От выбранного города зависят цены, наличие товара и
способы доставки

Понедельник, 7 июля 2008 00:00

NVIDIA GT200 и новая линейка видеокарт GeForce – GTX 280 и 260

короткая ссылка на новость:

Практические исследования.



Мы использовали следующую тестовую конфигурацию:

Конфигурация тестового стенда
ПроцессорIntel Core 2 Extreme QX9770 @ 3.20 ГГц
Мат. платаEVGA nForce 790i SLI
ВидеокартыATI Radeon HD 3870X2
ATI Radeon HD 3870
NVIDIA GeForce 9800 GTX
NVIDIA GeForce 9800 GX2
NVIDIA GeForce 8800 GTX
NVIDIA GeForce 8800 GT
NVIDIA GeForce GTX 280
NVIDIA GeForce GTX 260
Драйверы видеокартCatalyst 8.5
ForceWare 177.34 (для GT200)
ForceWare 175.16 (для всего остального)
Жесткий дискSeagate 7200.9 120GB 8MB7200RPM
Оперативная память4 x 1GB CorsairDDR3-1333 7-7-7-20
Операционная системаWindows Vista Ultimate64-bit SP1
Блок питанияOCZ EliteXStream 1000W (не заработал с GTX 280 SLI)
[N11-Crysis]

Наконец-то Crysis стал несколько более играбельным на одиночных видеокартах, однако вполне предсказуемо, что GeForce GTX 280 в данном тесте фактически проигрывает 9800 GX2. Благодаря двум GPU, GX2 обладает в совокупности большей мощностью, и хотя пропускная способность памяти в два раза меньше, в конечном счете, GX2 выигрывает противостояние с конкурентом из своего же стана. При этом не следует забывать, что, во-первых, двухчиповая видеокарта стоит как минимум на $150 дешевле нового GTX 280, ну а, во-вторых, GX2 это все же SLI решение, и поэтому очень сильно зависит от качества оптимизации драйверов.

GTX 260 выступает достаточно хорошо, превосходя в скорости Radeon HD 3870 X2. В ценовом диапазоне GTX 260 противостояние уже намного ожесточеннее.

Crysis
Crysis diag
[N12-Call of Duty 4]

В еще одном популярном шутере мы видим полное повторение ситуации – GX2 продолжает опережать GTX 280, тогда когда GTX 260 впереди 3870 X2. Опять же сказывается прекрасная отлаженность SLI для CoD 4 – даже пара куда более дешевых 8800 GT будет вполне в состоянии соперничать с GTX 260 и даже дорогим GTX 280, как это успешно делает 9800 GX2.

Call of Duty 4
Call of Duty 4 - 4x AA
[N13-Enemy Territory: Quake Wars]

В этом тесте GTX 280 наконец-то берет реванш, опережая GX2. Похоже, игра более требовательна к пропускной способности памяти, и тут сказывается узкая 256-битная шина G92. Проблемы AMD с работой в Crossfire никуда не делись, и 3870 X2 недалеко уходит от одночиповой карты. В тоже время GTX 260 сравнивается с SLI парой 8800 GT.

Enemy Territory: Quake Wars
Enemy Territory: Quake Wars - 4x AA
[N14-Assassin’s Creed]

В Assassin’s Creed все встает на привычные нам места – впереди всех 9800 GX2, опережающая GTX 280. Assassin’s Creed прекрасно масштабируется при использовании нескольких графических чипов в системе и благодаря этому даже пара 8800 GT в состоянии опередить новые GeForce GTX. Такой результат можно объяснить тем, что хотя пара G92 обладает меньшим количеством SP, по мощности в SLI она превосходит один GT200 – 112 потоковых процессоров (224) работают на частоте в 1,5 ГГц, тогда как 240 SP GTX 280 – лишь на 1,3 ГГц.

Урезанная версия GT200 в свою очередь снова впереди Radeon HD 3870 X2, и, что естественно, проигрывает паре 8800 GT.

Assassin s Creed
Assassin s Creed diag
[N15-Oblivion]

Результат, показанный GX2 и GTX 280 в использованном режиме с четырехкратным антиалиасингом и шестнадцатикратной анизотропией очень близок, однако GT200 пусть на один FPS, но опережает 9800. В остальных разрешениях расклад уже иной, но именно диаграммы для 2560 x 1600 показательны – именно здесь раскрывается 512-битная шина GT200, тогда как ПСП GX2 уже не хватает. Не следует забывать о том, что хотя GX2 и основана на паре G92, их разрядности шины нельзя складывать, как и нельзя складывать объем памяти. Так делают лишь маркетологи, в реальности каждый чип довольствуется 512 Мб и 256-битным интерфейсом.

GTX 260 выступает на уровне с парой 8800 GT и 3870 X2. При этом следует помнить, что одиночная карта нового поколения дороже, и, если вы являетесь обладателем материнской платы с поддержкой SLI и видеокарты класса 8800 GT, разумнее будет докупить еще одну такую видеокарту, чем тратиться на смену имеющейся.

Oblivion
Oblivion - 4x AA и 16x AF
[N16-The Witcher]

Ведьмак оставляет первенство у GTX 280, а вот GTX 260 показывает результат хуже, чем двухчиповая 3870 или SLI 8800 GT.

The Witcher
The Witcher diag
[N17-Bioshock]

Наш последний бенчмарк становится безрадостным для новой линейки GeForce GTX – обе карты показывают результат хуже, чем пара 9800 GX2 и даже пара 8800 GT в SLI. Конечно, они являются мощнейшими одночиповыми картами NVIDIA, однако это не лучшее предложение в high-end сегменте.

Bioshock
Bioshock diag
[N18-Результаты разогнанной версии GeForce GTX 280 от EVGA.]

Некоторые пользователи не довольствуются номинальными режимами работы графических карт, поэтому многие производители за небольшую доплату предлагают немного разогнанные версии с повышенными частотами. Одной из таких карт стала EVGA GeForce GTX 280 FTW Edition. Частота GPU платы повышена до 670 МГц, что составляет увеличение на 11,3%. Шейдерный домен работает на 1458 МГц – 12,5% превосходства, а память разогнана на 9,8% - эффективная частота составляет 2430 МГц.

Мы провели несколько быстрых тестов в высоких разрешениях для того, чтобы увидеть, насколько пропорционально возрастет производительность в играх от увеличения тактовых частот. В среднем, как и ожидалось, увеличение производительности составило от 8 до 12%.

Crysis в нашем тестировании является одним из нескольких бенчмарков, в которых GTX 280 уступила 9800 GX2. К сожалению, даже заводской разгон не смог исправить ситуацию:

Crysis

Oblivion же в высоких разрешениях и “тяжелых” режимах уже показал, что лимитирующем фактором для двухчиповой 9800 стала пропускная способность памяти, в дополнительном тестировании это только подтвердилось – с повышенными частотами GTX 280 только увеличивает свое превосходство:

Oblivion

Похоже, GeForce GTX 280 и 260 отлично масштабируются при разгоне, так что энтузиасты, которые смогут выжать максимум из своих карт, получат очень достойную прибавку в производительности. Нельзя не отметив, что выпустив NVIDIA свои карты по изначально более тонкому техпроцессу с поднятыми частотами, общий расклад по всем тестам относительно GX2 был бы иным...

[N19-Тесты эффективности SLI: GTX 280 SLI против 9800 GX2 Quad SLI.]

Достаточно интересным является сравнение эффективности SLI – да, 9800 GX2 в большинстве тестов превосходит одиночную GeForce GTX 280. При этом GX2 уже сама по себе, как мы упоминали выше, является SLI решением. Насколько эффективной окажется связка из двух GTX 280 против Quad SLI из 9800 GX2? Ведь хорошо известно, что если прирост от добавления в систему второй видеокарты в большинстве случаев оправдывает ее стоимость, то системы класса Quad SLI это уже решения для энтузиастов.

Кстати, не забывайте и о том, что тестируемые карты имею очень высокий уровень энергопотребления – NVIDIA рекомендует БП на 1200 Вт для пары GTX 280. Остается только догадываться, какие мощности будут потреблять карты, объединенные в 3-way SLI.

Обратимся к результатам тестирования:

GTX 280 SLI (прирост производительности при переходе от одной карты к двум)9800 GX2 SLI
(прирост производительности при переходе от одной карты к двум)
Crysis50.1%30.3%
Call of Duty 462.8%64.0%
Assassin's Creed38.9%12.7%
The Witcher54.9%36.2%
Bioshock68.4%63.7%
Oblivion72.3%-35.7%

Crysis, Assassin’s Creed, The Witcher, Oblivion – все эти игры показывают несуразность решения Quad SLI, производительность либо не возрастает, либо вообще снижается при добавлении второй GeForce 9800 GX2. Напротив, две GTX 280 показывают себя очень неплохо.

Crysis является наглядным примером такого поведения. Из-за посредственной масштабируемости Quad SLI, пара GTX 280 оказывается вполне способной противостоять четырем чипам G92, хотя одиночные карты вели себя по-другому.

Crysis

Но не везде все так грустно, и когда Quad SLI раскрывается в полную силу, производительности двух GTX 280 уже недостаточно, чтобы победить такую связку.

CoD 4

На нижеследующих тестах вы найдете подтверждения наших слов о том, что многочиповые решения SLI не лишены недостатков.

Assassin s Creed
The Witcher
Bioshock
Oblivion

Логично сделать вывод, что если рекомендовать к покупке одиночную GTX 280 проблематично, то если рассматривать SLI решения пара таких видеокарт будет смотреться лучше Quad SLI на базе GeForce 9800 GX2.

[N20-Folding@home – теперь и на видеокартах NVIDIA.]

Все большее и большее распространение сегодня получают проекты распределенных вычислений, и F@h является одним из них. Основной целью является компьютерная симуляция протеинового фолдинга, т.е. свертывания/развертывания молекул белка. Анализ результатов такого моделирования помогает ученым понять причины возникновения болезней, причиной которых служат дефектные белки. Это и болезнь Альцгеймера, Паркинсона, склероз и диабет... Однако такие расчеты очень ресурсоемки и требуют огромных математических ресурсов. Как вариант решения было предложено разбивать одну большую задачу на множество мелких, передавая их энтузиастам для расчетов, а потом собирать результаты воедино.

Изначально клиентские программы поддерживали расчеты в F@h только силами центральных процессоров, потом была добавлена поддержка видеокарт AMD, свой клиент получила даже PlayStation 3 на базе мощного Cell’а. NVIDIA некоторое время оставалась в стороне, но недавно было объявлено, что и на платформе CUDA реализован вариант Folding’а для семейств GeForce, основанных на G80 и выше. Конечно, GT200 поддерживается в полной мере, и именно он со своей огромной вычислительной мощью в программе F@h становится одним из самых производительных аппаратных решений для расчетов фолдинга.

Хотя видеокарты и процессоры в Folding@home используются для несколько различных целей, напрямую можно сравнить время жизни белка, которое синтезируется за день вычислений. Если для четырехядерного процессора нормой является несколько десятков нс, то GT200 на порядок превосходит эту величину, рассчитывая сотни нс в день.

nvfolding

По прогнозам NVIDIA конкретные цифры должны были составлять порядка 500-600 нс, в своих же тестах мы видел даже лучшие результаты – от 600 до 850 нс. Для сравнения, показатели одиночного Radeon HD 3870 держатся на уровне 180 нс за день, а у PS 3 и того меньше – 100 нс.

В своих презентациях NVIDIA говорит о том, что было продано порядка 70 миллионов видеокарт, которые могут работать в Folding@home, притом средняя мощность каждой составляет 100 гигафлопс. Для получения огромной цифры в 70 петафлоп достаточно, чтобы лишь 1% энтузиастов захотел задействовать эти возможности. Сколько же вычислений из общей массы будет приходиться на видеокарты NVIDIA, покажет лишь время.

Аппаратная поддержка кодирования H.264.

Многие годы ATI и NVIDIA обещали пользователям золотые горы с возможностью кодирования видео силами видеокарт, однако ни разу эти обещания в полной мере не исполнялись. Похоже, что с GT200 приходит конец и невыполненным обещаниям. Во всяком случае, пока со стороны NVIDIA.

Так, наконец-то появилась первая реальная утилита, задействующая аппаратные возможности GPU для кодирования видео от Elemental Technologies с достаточно смешным названием – BadaBOOM Media Converter.

badaboom

На данный момент программа работает только с GeForce GTX 280 и 260, однако это лишь бета-версия, и финальный релиз согласно обещаниям разработчиков обретет поддержку G80 и G92. К сожалению, так как BadaBOOM лишен поддержки кодирования видео средствами CPU, полностью объективное сравнение провести нельзя, и придется использовать дополнительные программы, к тому же во время кодирования видео процессор так же выполняет некоторую работу – загрузка находится на уровне 25-30%.

Тем не менее, результаты, показанные GTX 280 очень интересны. Для сравнения со скоростью кодирования CPU мы воспользовались бесплатной программой x264 encoder. Результаты получились следующими:

badaboom diag

В самом худшем случае превосходство GTX 280 над Core 2 Extreme QX9770 составило 40%, тогда как в лучшем детище NVIDIA оказалось почти в 10 раз быстрее. Какие результаты были бы получены при абсолютно корректном сравнении, мы сказать затрудняемся, но даже если они близки к минимальному превосходству, полученному нами, это огромный прогресс в деле ускорения кодирования видео силами GPU.

[N21-Разогнанный GT200 с 4 Гб GDDR3 на борту: Tesla 10P.]

Завершая наш обзор GT200 нельзя не отметить и инициативу NVIDIA под кодовым названием Tesla. Если необходимо произвести специализированные вычисления именно средствами GPU, а мощности даже такого производительного решения, как GTX 280, недостаточно, NVIDIA есть, что предложить.

tesla10p

Вместе с анонсом домашних карт серии GeForce, NVIDIA представила и профессиональные решения нового поколения Tesla – C1060 Computing Processor. Плата основана на профессиональной модификации GT200, называемой T10P (конечно, кроме маркировки чип ничем не отличается), имеет повышенную до 1,5 ГГц частоту шейдерного домена и целых 4 Гб набортной памяти. Какие-либо порты ввода-вывода отсутствуют. Может вызвать недоумение, что серверная версия работает на более высоких тактовых частотах, однако объяснение тут простое – в датацентрах далеко не так важен шум, который производит турбина, а температура в охлаждаемых помещениях и серверных стойках ниже, чем в тесных корпусах домашних пользователей. Наличие же невероятного объема памяти необходимо исключительно для научных задач, на которые и нацелено устройство.

teslac1060

Предполагается возможность объединения четырех карт C1060 в одном сервере стандартной высоты 1U, тем самым становятся доступны суммарные 960 потоковых процессоров и 16 Гб памяти. В качестве связующих цепей используется стандартная PCI-Express. Основное предназначение такого сервера – обсчитывать задачи, написанные для платформы CUDA, а с учетом наличия общих 120 64-битных FPU, соответствующих стандарту IEEE 754r, получаться это должно очень хорошо.

teslas1070

Хотя мы и не обладаем инструментами для проверки производительности такой машины, по данным NVIDIA один GT200 при выполнении операция удвоенной точности с числами с плавающей запятой может быть сравним с 8-ми ядерным Xeon. Тогда сервер S1070 из четырех таких чипов находится на уровне 32 ядер Xeon, при этом потребляя около 700 Вт. Не стоит даже говорить о том, что операции с обычной точностью выполняются в разы быстрее и могут превосходить сотни обычных CPU.

Хотя обычные графические карты несоизмеримо дешевле, стоимость таких серверов не выглядит завышенной по сравнению с классическими решениями с учетом результирующей производительности. Да, они пригодны только для специализированной платформы CUDA, однако ресурсов NVIDIA вполне достаточно, чтобы сделать из узконаправленной платформы индустриальный стандарт. К тому же CUDA поддерживают и десятки миллионов проданных карт потребительского сегмента, что дает разработчикам возможность использовать их ресурсы для отладки приложений и последующего принятия решений о полноценном переходе на CUDA, а пользователям – огромную дополнительную производительность в сотни гигафлопс (в зависимости от поколения GPU), которая может быть затрачена отнюдь не только на визуализацию графики в играх.

GROMACS

Сегодня уже доступна CUDA-версия Folding@home, в скором времени появится и релиз кодировщика видео от Elemental Technologies. С учетом того, насколько эффективно они задействую возможности GPU, только представьте, насколько повысится эффективность работы профессиональных программ вроде ProTools или Premier, когда разработчики “научат” их работать под CUDA.

Конечно, на сегодня CUDA все еще очень специализирована и зависит только от одного вендора – NVIDIA. Хотя калифорнийцы и предоставили все возможности, например, AMD, принять участие в программе, последняя пока от этого отказалась. Конечно, какой резон компании, у которой и так не очень радужно финансовое положение, вкладывать деньги в пока еще сырую технологию, да еще и Intel не дремлет со своим x86 Larrabee... Однако все может измениться, если NVIDIA приложит усилия чтобы сертифицировать CUDA в рамках ISO или ANSI, и тогда, вполне возможно, будущее решится в пользу этой, без всяких сомнений, перспективной технологии.

[N22-Выводы и финальные слова.]

Не может возникнуть никаких сомнений в том, что NVIDIA спроектировала очень и очень впечатляющий чип. C огромным числом транзисторов в GT200 вложили невероятный объем вычислительной мощности. Звучит невероятно, но через 18 месяцев можно ожидать от NVIDIA очередного удвоение количества транзисторов, и что это получится за монстр даже сложно представить. Такими темпами мы совсем скоро переступим порог фотореалистичной графики, и именно такие сложные и производительные GPU, как GT200 в этом помогут.

Достаточно интересно и то, что AMD публично заявила о своем решении идти совершенно в другом направлении. Вместо все большего усложнения единого чипа, на проектирование которого инженеры ежегодно тратят астрономическое количество, как денег, так и времени, новые топ-решения AMD вообще откажутся от одночиповой компоновки. Уже привычный нам Radeon HD 3870 X2 построен по такой схеме, готовящийся к августовскому анонсу 4870 X2, известный под кодовым названием R700, также будет состоять из пары RV770. К сожалению мультичиповые технологии, что показало и наше сегодняшнее тестирование, все еще далеки от совершенства, но AMD считает целесообразным перевести одночиповые решения из топового в более низкие сегменты, где соотношение производительности на потраченные деньги намного важнее абсолютного превосходства в скорости.

Еще один аспект, который стоит учитывать оценивая GT200 — Intel Larrabee, выход которого намечен на 2009 год. Ведь именно с этим чипом, который откроет Intel дорогу на рынок графических ускорителей, будет соревноваться преемник GT200, который скорее всего не получит каких-либо серьезных архитектурных изменений, а будет просто произведен по более тонкому техпроцессу и обладать повышенными тактовыми частотами. GT200 своим появлением уже начал стирать границу между CPU и GPU, Larrabee же только поспособствует ситуации. Интересно то, что NVIDIA идет со своей привычной стороны графических ускорителей к процессорам общего назначения, Intel же — с точностью наоборот. Чей подход окажется выгоднее — объединение множества x86-совместимых ядер для обсчета графики, или унифицированная архитектура NVIDIA нам только предстоит выяснить. Пока же мы знаем только то, что Larrabee будет производиться по 45 нм техпроцессу, а уровень производительности, которому решение Intel должно будет соответствовать, заставит корпорацию выпустить свой первый чип, содержащий 1-2 млрд. транзисторов (даже Nehalem с интегрированным контроллером памяти обошелся 781 миллионом).

Выпустив GT200, NVIDIA помимо очередного скачка в производительности одночиповых карт, ступила на новую для себя землю, создав настолько мощный микропроцессор, что он может быть опасным даже для Intel. Если бы NVIDIA удалось вместе с изначальным релизом GT200 заручиться поддержкой многих разработчиков программ, чтобы те максимально использовали возможности современных GPU, Intel пришлось вступить в противостояние с NVIDIA даже до выхода Larrabee.

Однако все это касается будущего, хотя и ближайшего. Сегодня же стоит главный вопрос — а стоит ли вообще покупать одну из карт на базе GT200? И тут уже далеко не все так однозначно. Как бы ни была высока производительность GeForce GTX 280, а карта с одним чипом нового поколения почти что догоняет старую двухчиповую GX2, новинка элементарно стоит слишком дорого для той производительности, которую она показывает. Да, GTX 280 — самая мощная одночиповая карта NVIDIA, но дешевле продается карта самой же NVIDIA, GeForce 9800 GX2, которая по факту оказывается быстрее новинки. Конечно, от качества реализации поддержки SLI драйвером и конкретной игрой очень многое зависит, и могут возникнуть ситуации, когда SLI работает с огрехами, но если два года назад такие моменты возникали часто, то сейчас вероятность их появления уже стремится к нулю. Нельзя еще раз не отметить, что при 55 нм производстве с более низкой себестоимостью изготовления и конечными ценами, при повышенных частотах все могло бы быть совершенно иначе.

Даже рассматривая производительность многочиповых конфигураций (в сравнении 2-way SLI на GT200 и Quad SLI на G92) в которых пара GX2 действительно часто имеют проблемы, GeForce GTX 280 не окупает лишние средства, вложенные в такую связку.

Мнение NVIDIA таково, что в грядущих приложениях будет задействована вся мощь, которой обладает GT200, а принимая во внимание уже упомянутую программу The Way It's Meant To Be Played сложно усомниться именно в таком исходе, однако стоит ли платить такие большие деньги за плату, которая не самым лучшим образом проявляет себя в сегодняшних приложениях?

С такой позиции GeForce GTX 260 выглядит немного оправданнее. Новинка показывает уровень производительности, сравнимый с Radeon HD 3870 X2. С учетом того, что за такие деньги в модельном ряду самой NVIDIA интересных предложений нет, урезанный GT200 имеет право на существование. С другой стороны, пара 8800 GT, объединенных в SLI мало того что стоят дешевле, так еще и показывают зачастую лучший уровень производительности. Прекрасный повод докупить вторую 8800 GT и объединить их в SLI обладателям одиночной карты.

Появление более дешевых, или же быстрых альтернатив GT200 выглядит для NVIDIA опасным, так как резко снижать цены из-за высокой себестоимости чипа корпорация просто не может, а продавать себе в убыток не будет. Даже в сегменте high-end соотношение производительности и потраченной суммы значит немало, и карта с такой завышенной ценой, как GTX 280, может быть интересна только будучи безусловным чемпионом в быстродействии, чего мы с вами не наблюдаем.

Возможен и такой вариант, что с уменьшением угрозы от AMD в секторе high-end (посмотрим, на что будет способен HD 4870 X2, а на данный момент самая быстрая карта 3870 X2 далеко не лидер в скорости), NVIDIA специально установила цены на свои новые продукты таким образом, чтобы SLI системы стали, наконец, народными, а продажи материнских плат с поддержкой этой технологии пошли в гору.

Источник: www.anandtech.com/

подписаться   |   обсудить в ВК   |