Supermicro采用新一代系統(tǒng)和機架架構(gòu)以擴大人工智能優(yōu)化產(chǎn)品組合
2024-03-21 08:42:00 EETOP適用于大規(guī)模 CSP 和 NSP 的強大節(jié)能解決方案將結(jié)合全方位下一代 NVIDIA GPU 和 CPU,以及 NVIDIA Quantum X800 平臺和 NVIDIA AI Enterprise 5.0
加利福尼亞州圣何塞2024年3月21日 /美通社/ -- 在 2024 年 NVIDIA GPU 大會上,人工智能、云、存儲和 5G/邊緣的整體 IT 解決方案提供商 Supermicro, Inc.(納斯達克股票代碼:SMCI)宣布推出新的大規(guī)模生成式人工智能系統(tǒng),該系統(tǒng)采用 NVIDIA 的下一代數(shù)據(jù)中心產(chǎn)品,包括最新的 NVIDIA GB200 Grace? Blackwell Superchip、NVIDIA B200 Tensor Core 和 B100 Tensor Core GPU。Supermicro 正在優(yōu)化其目前的 NVIDIA HGX? H100/H200 8-GPU 系統(tǒng),以便支持 NVIDIA HGX? B100 8-GPU 和 B200,從而縮短交付時間。此外,Supermicro 還將通過 NVIDIA GB200(包括具有 72 個NVIDIA Blackwell GPU 的完整機架級解決方案的 NVIDIA GB200 NVL72)新產(chǎn)品,進一步加強其龐大的 NVIDIA MGX? 系統(tǒng)產(chǎn)品系列。Supermicro 還在其產(chǎn)品陣容中增加了新系統(tǒng),包括 4U NVIDIA HGX B200 8-GPU 液冷系統(tǒng)。
Supermicro 總裁兼首席執(zhí)行官梁見后表示:"我們專注于人工智能的構(gòu)建塊架構(gòu)和機架級整體 IT,有助于我們設計下一代系統(tǒng),以滿足基于 NVIDIA Blackwell 架構(gòu) GPU 的更高要求,例如采用 NVIDIA HGX B200 8-GPU 的新 4U 液冷系統(tǒng)以及 NVIDIA GB200 NVL72 的完全集成直達芯片液冷機架。這些新產(chǎn)品的開發(fā)乃基于 Supermicro 和 NVIDIA 久經(jīng)考驗的 HGX 和 MGX 系統(tǒng)架構(gòu),并針對 NVIDIA Blackwell GPU 的新功能進行了優(yōu)化。Supermicro 擁有將 1kW GPU 整合到各種風冷和液冷系統(tǒng)中的專業(yè)知識,以及每月 5,000 個機架的機架規(guī)模生產(chǎn)能力,我們預計將率先部署采用 NVIDIA Blackwell GPU 的全機架集群,并在市場上推出。"
Supermicro 直達芯片的液體冷卻技術將允許增加最新 GPU 的散熱設計功率 (TDP),并充分發(fā)揮 NVIDIA Blackwell GPU 的潛力。Supermicro 搭載 NVIDIA Blackwell 的 HGX 和 MGX 系統(tǒng)是未來人工智能基礎設施的構(gòu)建塊,將為數(shù)萬億參數(shù)的人工智能訓練和實時人工智能推理帶來突破性的性能。
一系列經(jīng)過 GPU 優(yōu)化的 Supermicro 系統(tǒng)將為 NVIDIA Blackwell B200 和 B100 Tensor Core GPU 做好準備,并針對最新的 NVIDIA AI Enterprise 軟件進行驗證,該軟件增加了對 NVIDIA NIM 推理微服務的支持。Supermicro 系統(tǒng)包括:
在訓練大規(guī)模基礎人工智能模型方面,Supermicro 準備率先發(fā)布首次問世的 NVIDIA HGX B200 8-GPU 和 HGX B100 8-GPU 系統(tǒng)。這些系統(tǒng)采用 8 個 NVIDIA Blackwell GPU,通過第五代 NVIDIA? NVLink? 實現(xiàn) 1.8TB/s 的高速互連,性能是上一代的兩倍,總高帶寬內(nèi)存為 1.5TB,與一代 NVIDIA Hopper 架構(gòu)相比,GPT-Moe-1.8T 型號等 LLM 的訓練結(jié)果將快 3 倍。這些系統(tǒng)具有先進的網(wǎng)絡功能,可擴展到集群,支持 NVIDIA Quantum-2 InfiniBand 和 NVIDIA Spectrum-X 以太網(wǎng)選項,GPU 與 NIC 的比例為 1:1。
NVIDIA GPU 產(chǎn)品管理副總裁 Kaustubh Sanghani 表示:"Supermicro 將繼續(xù)向市場推出種類繁多的加速計算平臺服務器,這些服務器專為人工智能訓練和推理而調(diào)整,可以滿足當今市場的任何需求。我們將與 Supermicro 密切合作,為客戶提供最優(yōu)化的解決方案。"
對于要求最苛刻的 LLM 推理工作負載,Supermicro 發(fā)布了幾款采用 NVIDIA GB200 Grace Blackwell Superchip 構(gòu)建的新型 MGX 系統(tǒng),該系統(tǒng)將 NVIDIA Grace CPU 和兩個 NVIDIA Blackwell GPU 相結(jié)合。與 NVIDIA HGX H100 相比,Supermicro 配備了 GB200 系統(tǒng)的NVIDIA MGX 將為人工智能推理性能帶來巨大飛躍,速度高達 30 倍。Supermicro 和 NVIDIA 開發(fā)了采用 NVIDIA GB200 NVL72 的機架級解決方案,將 36 個 Grace CPU 和 72 個 Blackwell GPU 連接在一個機架中。所有 72 個 GPU 都與第五代 NVIDIA NVLink 互連,以實現(xiàn) 1.8TB/s 的 GPU 與 GPU 的通信。此外,對于推理工作負載,Supermicro 宣布推出 ARS-221GL-NHIR,這是一款基于 GH200 系列產(chǎn)品的 2U 服務器,它將通過 900Gb/s 的高速互連連接兩臺 GH200 服務器。歡迎前往 GPU 大會的Supermicro 展位了解更多信息。
Supermicro 系統(tǒng)還將支持即將推出的 NVIDIA Quantum-X800 InfiniBand 平臺,包括 NVIDIA Quantum-X800 QM3400 交換機和 SuperNIC800,以及由 NVIDIA Spectrum-X800 SN5600 交換機和 SuperNIC800 組成的 NVIDIA Spectrum-X800 以太網(wǎng)平臺。NVIDIA Quantum-X800 和 Spectrum-X800 針對 NVIDIA Blackwell 架構(gòu)進行了優(yōu)化,將為人工智能基礎設施提供最高水平的網(wǎng)絡性能。
有關 Supermicro NVIDIA 解決方案的更多信息,請訪問 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 即將推出的采用 NVIDIA B200 和 GB200 的系統(tǒng)陣容包括:
Supermicro 將參與 2024 年 GPU 大會
Supermicro 將于 3 月 18 日至 21 日在圣何塞會議中心舉行的 2024年 NVIDIA GPU 大會活動上展示用于人工智能的完整 GPU 系統(tǒng)產(chǎn)品組合。參觀 Supermicro 的 #1016 號展位,了解為各種人工智能應用打造的解決方案,包括訓練生成式人工智能模型、人工智能推理和邊緣人工智能。Supermicro 還將展示兩種機架級解決方案,包括一個概念機架,其系統(tǒng)采用即將推出的 NVIDIA GB200,該機架具有 72 個與第五代 NVLink 互連的液冷 GPU。
將在 2024 年 GPU 大會上展出的 Supermicro 解決方案包括:
關鍵詞: Supermicro 人工智能 英偉達
EETOP 官方微信
創(chuàng)芯大講堂 在線教育
半導體創(chuàng)芯網(wǎng) 快訊
相關文章