Корпорация Supermicro, Inc., поставщик комплексных IT-решений для ИИ, облачных вычислений, хранения данных и сетей 5G/Edge, расширяет свое ИИ-портфолио и предлагает поддержку новых конфигураций NVIDIA HGX H200 с графическими процессорами H200 Tensor Core. ИИ-платформы Supermicro, занимающие лидирующие позиции в отрасли и включающие в себя восьми- и четырехъюнитовые графические системы Universal, уже готовы поддерживать конфигурации HGX H200 с восемью и четырьмя GPU, которые предлагают почти вдвое большую емкость и в 1.4 раза большую пропускную способность памяти HBM3e по сравнению с GPU NVIDIA H100 Tensor Core. Кроме того, системы NVIDIA MGX от Supermicro представлены в широчайшем ассортименте и поддерживают новейший суперчип NVIDIA Grace Hopper с памятью HBM3e.
Благодаря своей беспрецедентной производительности, масштабируемости и надежности стоечные решения Supermicro для ИИ ускоряют выполнение интенсивных вычислительных сценариев для генеративных моделей ИИ, обучения больших языковых моделей (LLM) и приложений HPC, отвечая в то же время все более сложным требованиям, которые диктуются растущими размерами моделей. Используя блочный принцип построения систем, Supermicro может быстро внедрять новые технологии в коммерческие решения, что позволяет заказчикам повысить свою эффективность в более короткие сроки.
Supermicro также представляет сервер с самой высокой в отрасли плотностью на базе восьмипроцессорной графической системы NVIDIA HGX H100 в четырехъюнитовой конфигурации с жидкостным охлаждением, которое осуществляет новейшая система водяного охлаждения Supermicro. Самый компактный в отрасли высокопроизводительный графический сервер позволяет операторам ЦОД снизить расходы на размещение и энергообеспечение оборудования и одновременно предлагает самый высокий потенциал для обучения ИИ в расчете на одну стойку. Благодаря высочайшей плотности серверов с GPU и передовыми системами водяного охлаждения организации могут значительно снизить TCO.
"Supermicro сотрудничает с NVIDIA с целью разработки наиболее продвинутых систем для обучения ИИ и приложений HPC," – сказал Чарльз Лян (Charles Liang), президент и генеральный директор Supermicro. "Наша блочная архитектура позволяет нам первыми внедрять на рынке новейшие технологии, а нашим заказчикам – развертывать генеративные модели ИИ быстрее, чем когда-либо ранее. Благодаря производственным филиалам во всем мире мы можем оперативно обеспечивать заказчиков новыми системами. Эти новые системы, использующие графические процессоры NVIDIA H200 с высокоскоростными интерфейсами GPU-GPU NVIDIA NVLink и NVSwitch с пропускной способностью 900 ГБ/с, сегодня предлагают до 1.1 ТБ памяти HBM3e на одну ноду в наших стоечных серверах ИИ, которые обеспечивают самую высокую производительность параллельных вычислений в современных LLM и генеративных моделях ИИ. Мы также рады предложить самый компактный в мире восьмипроцессорный графический сервер NVIDIA HGX с жидкостным охлаждением, который имеет вдвое большую плотность относительно наших стоечных ИИ-решений и позволяет снизить энергетические затраты современных высокопроизводительных дата-центров, способствуя, таким образом, реализации концепции экологичного компьютинга."
Supermicro разрабатывает и производит широкий диапазон ИИ-серверов в различных форм-факторах. Популярные GPU-системы Universal 8U и 4U, сегодня оснащаемые четырьмя или восемью графическими процессорами NVIDIA HGX H100, готовы перейти на новые ускорители H200, которые смогут обучить еще большие языковые модели за меньшее время. Каждый графический ускоритель NVIDIA H200 содержит 141 ГБ памяти с пропускной способностью 4.8 ТБ/с.
"Грядущие серверные системы Supermicro, использующие ускорители NVIDIA HGX H200, помогут повысить производительность генеративного ИИ и приложений HPC, благодаря чему предприятия и организации смогут максимизировать эффективность своей ИИ-инфраструктуры," – сказал Дион Харрис (Dion Harris), директор департамента решений NVIDIA для дата-центров, HPC, ИИ и квантовых вычислений. "Графический ускоритель NVIDIA H200 с высокоскоростной памятью HBM3e сможет обрабатывать интенсивные потоки данных в широком диапазоне рабочих нагрузок."
Кроме того, недавно выпущенные серверы Supermicro MGX с суперчипами NVIDIA GH200 Grace Hopper разработаны в расчете на интеграцию с графическими ускорителями NVIDIA H200 с памятью HBM3e.
Новые графические процессоры NVIDIA позволят ускорить обучение современных и будущих LLM-моделей с сотнями миллиардов параметров; модели смогут размещаться в более компактных и эффективных кластерах, что позволит не только сократить время обучения генеративных моделей ИИ, но и разместить несколько больших LLM-моделей на одной системе для их обучения в реальном времени и предоставления сервисов с генеративным ИИ миллионам пользователей.
На выставке SC-23 Supermicro представляет свое последнее предложение – четырехъюнитовый графический сервер серии Universal, оснащенный восемью процессорами NVIDIA HGX H100 с новейшей фирменной инновационной жидкостной системой охлаждения, обеспечивающей дальнейшее повышение плотности и эффективности серверов для дальнейшего совершенствования ИИ. Оснащенный лучшими в отрасли охлаждающими пластинами для GPU и CPU, теплораспределителем CDU (Cooling Distribution Unit) и системой тепловых трубок CDM (Cooling Distribution Manifold) от Supermicro и разработанный для экологичного компьютинга, графический сервер Universal 4U с жидкостным охлаждением также готов к установке в него восьми новых ускорителей NVIDIA HGX H200. Стоечные решения Supermicro с полностью интегрированным водяным охлаждением позволят значительно снизить затраты на энергообеспечение и размещение оборудования дата-центров, что подтверждено результатами тестов L10, L11 и L12.
Источник: www.techpowerup.com