Каталог
128 потоковых процессоровСердцем нового графического процессора NVIDIA G80 являются новые шейдерные блоки, которым NVIDIA дала название “потоковые процессоры”. Как уже говорилось, они одинаково хорошо справляются с обсчетом вершин, пикселей, физики и геометрии, а управляет ими распределительная и контролирующая логика GPU, которая может динамически перераспределять между ними задачи таким образом, чтобы поддерживать максимальную общую производительность. Потоковые процессоры и ветвление GigaThreadЗа последние несколько лет инженеры NVIDIA проанализировали тысячи программ-шейдеров самых новых игр. В результате этого анализа, например, в NVIDIA обнаружили, что одними из наиболее часто используемых математических функций являются операции сложения-умножения (MADD). Поэтому для каждого пиксельного конвейера G70 было удвоено количество MADD инструкций, в результате чего пропускная способность пиксельных шейдеров увеличилась. Для G80 ключевыми являются скалярные вычисления. Инженеры NVIDIA заметили, что такие вычисления становятся все более распространенными, и что традиционные векторные GPU, такие как G70, с трудом справляются со скалярными вычислениями и таким процессорам трудно эффективно управлять ими. Поэтому для шейдерных процессоров G80 (так называемых "потоковых" процессоров), NVIDIA ввела скалярную архитектуру. Чтобы обеспечить хорошую производительность, векторно-шейдерные вычисления в процессоре G80 преобразуются в скалярные операции. Каждый потоковый процессор может работает с MAD и MUL инструкциями, и поддерживает стандарт IEEE 754 плавающей запятой. На этом рисунке представлена блок-схема процессора G80. Здесь маленькие зеленые квадратики – это потоковые процессоры, и как видите, каждая группа потоковых процессоров имеет свой собственный модуль адреса текстуры и модуль фильтрации, а так же кэш L1. Потоковые процессоры объединены в группы по 16 процессоров в каждой. Для простоты, назовем группу из 16 процессоров "банком" потоковых процессоров. 16 потоковых процессоров в банке, всего 8 банков, итого 128 потоковых процессоров у GeForce 8800 GTX. У GeForce 8800 GTS 2 банка отключены – то есть у неё всего 96 потоковых процессоров. Потоковые процессоры работают на своей собственной частоте, которая не зависит от тактовой частоты остальной части графического ядра. Например, у GeForce 8800 GTX потоковые процессоры работают на частоте 1,35 ГГц, а остальная часть GPU – на частоте 575 МГц. Если помните, NVIDIA ещё в G70/G71 применила разнесение по частотам; вершинные шейдеры этих процессоров работают на немного более высокой частоте, чем остальная часть ядра. Для ветвления вычислений в G80 применяется технология GigaThread. Заметим, что в последнее время эту функцию уже поддерживали графические процессоры и ATI, и NVIDIA. Хотя считалось, что GPU ATI R5xx могли задействовать гораздо больше потоков на 1 квад пиксельных шейдеров, а также использовать более тонкое разделение на потоки, чем процессоры NVIDIA G70 и NV40. NVIDIA не сообщает ничего о том, как в G80 было улучшено ветвление, говорят только то, что в любой точке могут быть "тысячи" потоков. NVIDIA, однако, заявляет, что у неё более тонкая потоковая гранулярность – 32 пиксельная гранулярность на каждый пиксельный шейдер, в то время как у ATI R580 48 пиксельная. Остальные части GPUБлоки фильтрации текстуры (TF) G80 вынесены от потоковых процессоров и за один такт могут обработать до 64 пикселей при обычной фильтрации текстур (по сравнению с 24 у G70/71), 32 пикселя при билинейной фильтрации, и 32 пикселя при 2X анизотропной фильтрации. GeForce 8800 GTX имеет 6 блоков растеризации (ROP) (у GTS их 5), и каждый может обработать 4 пикселя, то есть всего – 24 ROP'а (эффективных) у 8800 GTX, и 20 ROP'ов у 8800 GTS. Более подробно подсистему памяти мы обсудим чуть позже, так как они у 8800 GTX и 8800 GTS немного разные, но заметим, что у G80, как и у предыдущих процессоров, имеется высокоскоростная поперечная шина с 64-битными контроллерами памяти (у ATI R520/R580 были 32-битные контроллеры), что позволяет контроллеру памяти одновременно обрабатывать больше запросов чтения / записи. Эти контроллеры поддерживают память DDR1, DDR2, DDR3, GDDR3 и GDDR4. Технология Quantum EffectsПрежде чем мы обсудим отличия 8800 GTX и GTS, и соответствующие видеокарты, давайте вкратце рассмотрим технологию “квантовые эффекты" – NVIDIA Quantum Effects. Это название относится к NVIDIA'вской реализации движка Havok FX для обсчета физики графическим процессором. Как Вы, наверное, помните, движок Havok FX реализует обработку физики в любом GPU, который поддерживает shader model 3.0 (или больше). К ним относятся процессоры GeForce 6 и 7 серий. Как уже говорилось ранее, обсчет физики производится потоковыми процессорами GPU G80, а не какими-то специализированными расчетными модулями. [N5-8800 GTX и GTS] Для начала NVIDIA установила G80 на 2 видеокарты: GeForce 8800 GTX и GeForce 8800 GTS.
Как видите, количество транзисторов у GeForce 8800 GTX и 8800 GTS одинаковое, это потому, что это абсолютно одинаковые GPU G80. Как уже было сказано, основное отличие этих вариантов GPU – 2 отключенных банка потоковых процессоров – всего 32 шейдера. При этом число рабочих шейдерных блоков со 128 у GeForce 8800 GTX уменьшено до 96 у GeForce 8800 GTS. Также NVIDIA отключила 1 ROP (блок растеризации). Частоты ядер и памяти у этих видеокарт также немного отличаются: частота ядра GeForce 8800 GTX - 575 МГц, у GeForce 8800 GTS – 500 МГц. Шейдерные блоки GTX работают на частоте 1350 МГц, GTS – 1200 МГц. У GeForce 8800 GTS NVIDIA также использует более узкий 320-битный интерфейс памяти и 640 МБ более медленной памяти, которая работает на частоте 800 МГц. У GeForce 8800 GTX 384-битный интерфейс памяти, 768 МБ памяти / 900 МГц. И, конечно, совсем другая цена. Сами по себе видеокарты сильно отличаются: Как видно на этих фотографиях, референс-платы GeForce 8800 черные (впервые для NVIDIA). С модулем охлаждения GeForce 8800 GTX и 8800 GTS – двуслотовые. GeForce 8800 GTX немного длиннее, чем GeForce 8800 GTS: её длина – 267 мм, против 229 мм у GeForce 8800 GTS, и, как было заявлено ранее, у GeForce 8800 GTX 2 PCIe разъема питания. Зачем 2? Максимальное энергопотребление GeForce 8800 GTX – 177 Вт. Однако в NVIDIA говорят, что это может быть только в крайнем случае, когда все функциональные блоки GPU будут максимально загружены, а в обычных играх при тестировании видеокарта потребляла в среднем 116 - 120 Вт, максимум – 145 Вт. Так как каждый внешний разъём питания PCIe на самой видеокарте рассчитан максимум на 75 Вт, и слот PCIe тоже рассчитан максимум на 75 Вт, то 2-х этих разъемов буден недостаточно для подвода 177 Вт, поэтому пришлось сделать 2 внешних разъёма питания PCIe. Добавив второй разъём, NVIDIA обеспечила 8800 GTX солидный запас мощности. Кстати, максимальное энергопотребление у 8800 GTS – 147 Вт, так что она может обойтись и одним разъёмом питания PCIe. Говоря о питании, нужно сказать, что для GeForce 8800 GTX NVIDIA рекомендует минимум 450 Вт блок питания (30A по 12В шине) и 400 Вт блок питания для GeForce 8800 GTS (26A по 12В шине). Другая особенность, добавленная в дизайн референсной платы GeForce 8800 GTX – второй разъём SLI – впервые для GPU NVIDIA. NVIDIA о назначении второго разъёма SLI официально ничего не сообщает, но журналистам удалось получить от разработчиков такую информацию: “Второй разъём SLI у GeForce 8800 GTX предназначен для аппаратной поддержки возможного расширения SLI конфигурации. С текущими драйверами используется только один разъём SLI. Пользователи могут подключать SLI мост, как на первые, так и на вторые контактные группы”. Основываясь на этом, и том, что материнские платы nForce 680i SLI выпускаются с тремя слотами PCI Express (PEG), можно прийти к выводу, что в ближайшем будущем NVIDIA планирует осуществить поддержку трех SLI-видеокарт. Ещё одним вариантом может быть увеличение мощности для SLI физики, но это не объясняет, почему GeForce 8800 GTS не имеет второго разъёма SLI. Можно предположить, что NVIDIA, резервирует свою GX2 “Quad SLI” технологию для менее мощной видеокарты GeForce 8800 GTS, в то время как более мощная GeForce 8800 GTX будет работать в тройной SLI конфигурации. Если Вы помните, оригинальные Quad SLI видеокарты NVIDIA по своим характеристикам ближе к GeForce 7900 GT, чем к GeForce 7900 GTX, так как у видеокарт 7900 GT более низкое энергопотребление / тепловыделение. Вполне естественно предположить, что NVIDIA пойдет по тому же пути и в случае с GeForce 8800. Геймеры с материнскими платами с тремя PEG слотами смогут увеличить быстродействие графической подсистемы, собрав тройную SLI 8800 GTX конфигурацию, что в некоторых случаях даст им лучшую производительность, чем Quad SLI система, если судить по характеристикам 8800 GTS. Повторимся, что это всего лишь предположение. Блок охлаждения у GeForce 8800 GTS и 8800 GTX сделан двуслотовым, каналированным, выводящим горячий воздух от GPU за пределы корпуса компьютера. Радиатор охлаждения состоит из большого алюминиевого радиатора, медных и алюминиевых тепловых трубок и медной пластины, которая прижимается к GPU. Вся эта конструкция обдувается большим вентилятором радиального типа, который смотрится немного пугающе, но на самом деле работает довольно тихо. Система охлаждения 8800 GTX похожа на систему охлаждения 8800 GTS, только у первой немного длиннее радиатор. В общем, новый кулер справляется с охлаждением графического процессора довольно хорошо, и при этом почти бесшумный – как у видеокарт GeForce 7900 GTX и 7800 GTX 512MB, но GeForce 8800 GTS и 8800 GTX слышно чуть сильнее. В некоторых корпусах, чтобы услышать шум от вентилятора видеокарт, нужно будет хорошо прислушаться. ПроизводствоВсё производство GeForce 8800 GTX и 8800 GTS осуществляется по контракту NVIDIA. Это означает, что купите ли Вы видеокарту ASUS, EVGA, PNY, XFX или любого другого производителя, все они изготовлены одной компанией. NVIDIA даже не позволяет производителям разгонять первые партии видеокарт GeForce 8800 GTX и GTS: они все поступают в продажу с одинаковыми тактовыми частотами независимо от производителя. Но им разрешается устанавливать свои системы охлаждения. Например, компания EVGA уже выпустила свою версию e-GeForce 8800 GTX ACS3 Edition со своим уникальным кулером ACS3. Видеокарта ACS3 спрятана в едином большом алюминиевом коконе. На нем нанесены буквы E-V-G-A. Для дополнительного охлаждения на тыльной стороне видеокарты EVGA разместила дополнительный радиатор, прямо напротив GPU G80. Помимо охлаждения, изготовители первых видеокарт GeForce 8800 могут индивидуализировать свои изделия только гарантийными обязательствами и комплектацией – игры и аксессуары. Например, компания EVGA комплектует свои видеокарты игрой Dark Messiah, видеокарта GeForce 8800 GTS BFG продается с футболкой BFG и ковриком для мышки. Интересно будет посмотреть, что будет дальше – многие партнеры NVIDIA полагают, что для последующих выпусков видеокарт GeForce 8800 ограничения NVIDIA будут не такими жесткими, и они смогут соревноваться в разгоне. Так как все видеокарты сходят с одного конвейера, то все GeForce 8800 поддерживают 2 разъёма dual-link DVI и HDCP. Кроме того, стало известно, что NVIDIA не планирует менять объем памяти у GeForce 8800 GTX и GTS (например, 256 МБ GeForce 8800 GTS или 512 МБ 8800 GTX). По крайней мере, пока стандартная конфигурация для GeForce 8800 GTX – 768 МБ, а GeForce 8800 GTS – 640 МБ. У NVIDIA нет также планов делать AGP версию видеокарт GeForce 8800 GTX/GTS. Драйвер для 8800NVIDIA сделала несколько изменений в драйвере GeForce 8800, о которых нужно непременно сказать. Прежде всего, убрана традиционная утилита разгона Coolbits, вместо неё – NVIDIA nTune. То есть, если Вы хотите разогнать видеокарту GeForce 8800, нужно будет скачать утилиту nTune. Вероятно, это хорошо для обладателей материнских плат на чипсете nForce, так как утилиту nTune можно использовать не только для разгона видеокарты, но и для конфигурации системы. В противном случае, те, например, кто успел сделать апгрейд до Core 2 и имеет материнскую плату с чипсетом 975X или P965, для разгона видеокарты должны будут скачать 30 МБ приложение. Другое изменение у нового драйвера, на которое мы обратили внимание – нет опции перехода к классической панели управления NVIDIA. Хочется верить, что NVIDIA вернет эту функцию в свой видеодрайвер, так как она нравилась многим, в отличие от нового интерфейса панели управления NVIDIA. [N6-Движок Lumenex AA/AF] Благодаря новой унифицированной архитектуре шейдеров с потоковой обработкой, поднявшей 3D производительность на новый уровень, GPU G80 обеспечивает также лучшее качество изображения по сравнению с предыдущими графическими процессорами NVIDIA. За это ответственна технология NVIDIA Lumenex. Движок Lumenex имеет несколько новых функций:
Улучшенный антиаляйзингВ последнее время в каждой новой архитектуре своих GPU NVIDIA понемногу улучшала AA движок. Например, GPU NV40 был первым процессором NVIDIA с алгоритмом поворота маски для антиаляйзинга (до этого была архитектура с квадратной 2x2 маской для каждого пикселя), который улучшал AA NVIDIA для более качественного сглаживания горизонтальных и вертикальных контуров. G70 также внес свою лепту в сглаживание: он добавлял антиаляйзинг прозрачности для альфа-текстур и гамма-скорректированный антиаляйзинг. В G80 NVIDIA также улучшает свой AA движок – вводится новый режим AA – coverage sampling anti-aliasing (CSAA). Хотя 4x мультисэмплный антиаляйзинг (MSAA) NVIDIA смотрится хорошо, он все же не идеальный, так как при увеличении картинки на контурах объектов видны ступеньки. Чтобы обеспечить ещё большую четкость изображения, чем дает современный режим 4xMSAA, нужно обрабатывать ещё больше сэмплов, что требует большой пропускной способности памяти видеокарты. Требования к производительности настолько большие, что вплоть до сегодняшнего дня NVIDIA никогда всерьез не задумывалась о добавлении дополнительных режимов AA для своих GPU. Предыдущие процессоры просто не могли поддерживать высокую частоту кадров с ещё более качественным антиаляйзингом. В качестве решения этой задачи NVIDIA предлагает свой новый режим CSAA. В отличие от грубого алгоритма MSAA, где все смешивалось равномерно, теперь для улучшения качества изображения по алгоритму CSAA могут смешиваться до 16 сэмплов на пиксель (NVIDIA отмечает, что в определенных случаях, например, в затененных узорах, новые алгоритмы CSAA применяться не будут, а будет задействоваться обычный режим NVIDIA 4xMSAA). Для этого в CSAA, в дополнение к уже стандартным Z и цветовым сэмплам, добавляется то, что NVIDIA называет “граничные сэмплы”. В общем, цель CSAA в том, чтобы получить качество изображения аналогичное 16xMSAA, но при объеме вычислений близком к 4xMSAA. В нескольких пробных тестах было замерено, что новый режим CSAA дает 12-20% прирост производительности. Движок Lumenex AA также добавил обычный режим 8xMSAA, который реализован у видеокарт NVIDIA впервые. Уже более 5 лет самым качественным режимом MSAA был режим 4xMSAA. Независящая от угла анизотропная фильтрация&a |
Источник: www.firingsquad.com