訂閱
糾錯
加入自媒體

英偉達發(fā)布 H200 NVL 與 GB200 NVL4 新品

2024-11-19 10:51
前方智能
關注

編譯/前方智能

英偉達于 2024 年 11 月 18 日在亞特蘭大舉行的 SC24 高性能計算大會上宣布推出新款數(shù)據(jù)中心級 GPU —— H200 NVL,以及更強大的四 GPU 產品 GB200 NVL4 Superchip,進一步擴展其在 AI 和高性能計算領域的優(yōu)勢。

圖片

圖源:英偉達

H200 NVL 是英偉達 Hopper 系列的最新成員,專為低功耗、風冷機架設計的數(shù)據(jù)中心打造。據(jù)調查顯示,約 70% 的企業(yè)機架功率在 20 千瓦以下,采用風冷方案。H200 NVL 采用 PCIe 接口設計,讓數(shù)據(jù)中心能夠靈活配置 GPU 數(shù)量,可選擇使用一個、兩個、四個或八個 GPU,從而在有限空間內實現(xiàn)更強大的計算能力。

與前代產品 H100 NVL 相比,H200 NVL 在性能方面實現(xiàn)了顯著提升:內存效率提高 1.5 倍,帶寬提升 1.2 倍。在大語言模型推理方面,性能最高可提升 1.7 倍;在高性能計算工作負載方面,相比 H100 NVL 性能提升 1.3 倍,較 Ampere 架構產品提升 2.5 倍。

新品還搭載了最新一代 NVLink 技術,GPU 間通信速度比第五代 PCIe 快 7 倍。每片 H200 NVL 配備 141GB 高帶寬內存,內存帶寬達到 4.8TB/s,熱設計功耗最高為 600 瓦。值得一提的是,H200 NVL 還附帶為期五年的 NVIDIA AI Enterprise 軟件平臺訂閱服務。

圖片

圖源:英偉達

同時發(fā)布的 GB200 NVL4 Superchip 是一款更為強大的產品,集成了兩個基于 Arm 的 Grace CPU 和四個采用 Blackwell 架構的 B200 GPU。該產品具備 1.3TB 的一致性內存,通過 NVLink 在四個 B200 GPU 間共享。與上一代 GH200 NVL4 相比,在 MILC 代碼模擬工作負載上速度提升 2.2 倍,在訓練 3700 萬參數(shù)的 GraphCast 天氣預報 AI 模型時快 80%,在使用 16 位浮點精度運行 70 億參數(shù)的 Llama 2 模型推理時同樣快 80%。

       原文標題 : 英偉達發(fā)布 H200 NVL 與 GB200 NVL4 新品

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號