英偉達(dá)發(fā)布 H200 NVL 與 GB200 NVL4 新品
編譯/前方智能
英偉達(dá)于 2024 年 11 月 18 日在亞特蘭大舉行的 SC24 高性能計算大會上宣布推出新款數(shù)據(jù)中心級 GPU —— H200 NVL,以及更強(qiáng)大的四 GPU 產(chǎn)品 GB200 NVL4 Superchip,進(jìn)一步擴(kuò)展其在 AI 和高性能計算領(lǐng)域的優(yōu)勢。
圖源:英偉達(dá)
H200 NVL 是英偉達(dá) Hopper 系列的最新成員,專為低功耗、風(fēng)冷機(jī)架設(shè)計的數(shù)據(jù)中心打造。據(jù)調(diào)查顯示,約 70% 的企業(yè)機(jī)架功率在 20 千瓦以下,采用風(fēng)冷方案。H200 NVL 采用 PCIe 接口設(shè)計,讓數(shù)據(jù)中心能夠靈活配置 GPU 數(shù)量,可選擇使用一個、兩個、四個或八個 GPU,從而在有限空間內(nèi)實現(xiàn)更強(qiáng)大的計算能力。
與前代產(chǎn)品 H100 NVL 相比,H200 NVL 在性能方面實現(xiàn)了顯著提升:內(nèi)存效率提高 1.5 倍,帶寬提升 1.2 倍。在大語言模型推理方面,性能最高可提升 1.7 倍;在高性能計算工作負(fù)載方面,相比 H100 NVL 性能提升 1.3 倍,較 Ampere 架構(gòu)產(chǎn)品提升 2.5 倍。
新品還搭載了最新一代 NVLink 技術(shù),GPU 間通信速度比第五代 PCIe 快 7 倍。每片 H200 NVL 配備 141GB 高帶寬內(nèi)存,內(nèi)存帶寬達(dá)到 4.8TB/s,熱設(shè)計功耗最高為 600 瓦。值得一提的是,H200 NVL 還附帶為期五年的 NVIDIA AI Enterprise 軟件平臺訂閱服務(wù)。
圖源:英偉達(dá)
同時發(fā)布的 GB200 NVL4 Superchip 是一款更為強(qiáng)大的產(chǎn)品,集成了兩個基于 Arm 的 Grace CPU 和四個采用 Blackwell 架構(gòu)的 B200 GPU。該產(chǎn)品具備 1.3TB 的一致性內(nèi)存,通過 NVLink 在四個 B200 GPU 間共享。與上一代 GH200 NVL4 相比,在 MILC 代碼模擬工作負(fù)載上速度提升 2.2 倍,在訓(xùn)練 3700 萬參數(shù)的 GraphCast 天氣預(yù)報 AI 模型時快 80%,在使用 16 位浮點精度運(yùn)行 70 億參數(shù)的 Llama 2 模型推理時同樣快 80%。
原文標(biāo)題 : 英偉達(dá)發(fā)布 H200 NVL 與 GB200 NVL4 新品

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?