Каталог
1. ВведениеПожалуй, сложно не согласиться с тем, что значимость производительности графической подсистемы сегодня велика, а со временем только увеличивается. Нет, мы сейчас говорим не только об играх, аппетиты и системные требования которых зачастую растут абсолютно непропорционально улучшению качества выдаваемой картинки. Появились и куда более серьезные возможности применения мощности современных графических карт. Так, всего полгода назад, когда GeForce CUDA только-только появилась, особый оптимизм относительно будущего данной технологии применительно к SOHO классу ПК проявить было сложно. Сегодня же ситуация меняется коренным образом. Adobe с выходом Photoshop CS4 задействовала возможности CUDA, что позволило владельцам карт NVIDIA выполнять многие действия в графическом пакете с невиданной ранее скоростью. Кудесники маркетинга из Купертино, компания Apple, отказалась в своих новых алюминиевых ноутбуках MacBook 2008 года от встроенной графики Intel GMA в пользу более прогрессивных решений NVIDIA, а также оптимизировала многие функции MacOS X для CUDA. Словом, примеров можно привести немало. Однако на рынке интегрированной графики, всегда отличавшемся консервативностью (действительно – нечего в офисе “в игрушки играть”, а HTPC стали получать относительно широкое распространение совсем недавно), описанные дополнительные возможности графических карт были недоступны. Для платформы Intel после поглощения ATI компанией AMD вообще пришло время застоя. Некогда именно ATI выпускала самые производительные интегрированные решения, однако после перехода “под крыло” Advanced Micro Devices она свернула разработки чипсетов для CPU основного конкурента, что вполне резонно. Таким образом, для Core 2 Duo и других процессоров этого же поколения выбор материнской платы с интегрированной графикой мог быть между продуктами на базе системной логики лишь от двух производителей – собственно Intel и NVIDIA. Что касается GMA, Intel никогда не стремилась к умопомрачительной производительности в 3D, да и ставшие индустриальным стандартом возможности вроде аппаратного декодирования Blu-Ray вводились с опозданием (напомним, последнее обновление линейки – G45). NVIDIA также задействовала основные силы отнюдь не для разработки передовых чипсетов со встроенной графикой, что и понятно. Последним решением для процессоров Intel являлись производившиеся уже длительное время GeForce 8200 и 8300. Но тенденции рынка не остались незамеченными, и недавно Калифорнийской компанией были представлены чипсеты нового, девятого поколения, – GeForce 9300 и 9400. Предназначены они для процессоров Intel, относящихся к поколению “до Nehalem”, выполнены в монолитном дизайне без разделения на две микросхемы северного и южного мостов, включают в себя новый контроллер памяти и произведены по передовому (для чипсетов) 65 нм техпроцессу. Но обо всем по порядку.
Как видно по таблице, GeForce 9400/9300 являются по всем характеристикам передовыми чипсетами. Что касается одночипового дизайна, в первую очередь это может быть полезно разработчикам небольших устройств вроде ноутбуков, в десктопных платах даже mATX формата места хватает для удобной разводки системной логики, состоящей из пары микросхем. С другой стороны 65 нм техпроцесс приветствуется не только в устройствах с небольшим форм-фактором – большое тепловыделение никогда не приносило выгоды пользователям. Кстати, по этому параметру стоит ожидать от новых мобильных GeForce показателей, сопоставимых с Intel G45 (причем у последнего южный мост вообще произведен по 130 нм технологии). Блок-схема GeForce 9400/9300 выглядит так: Однозначно радует поддержка всех современных технологий NVIDIA вроде CUDA и Hybrid SLI. Замечательным свойством чипсета является и поддержка современных выводов вроде HDMI и DisplayPort. Конечно, их реализация ляжет на плечи производителей материнских плат, и наличие определенных портов будет варьироваться от модели к модели, однако сама возможность не может не радовать. |
Источник: www.anandtech.com/