ChatGPT背后的算力博弈,中國企業(yè)亟待打破美國桎梏
作者|孫鵬越
編輯|大 風(fēng)
如今AIGC市場一片鮮花著棉烈火烹油,不論是ChatGPT、AUTOGPT,或者國內(nèi)的文心一言,市場亂烘烘你方唱罷我登場,不斷登上熱搜。 華西證券預(yù)測,全球AI軟件市場規(guī)模將在2025年達到1260億美元,2021年到2025年復(fù)合增長率為41.02%。 ChatGPT繁榮的背后,是堪稱天文數(shù)字的算力支持。 據(jù)測算,AI訓(xùn)練服務(wù)器方面,單個大語言模型訓(xùn)練驅(qū)動AI訓(xùn)練服務(wù)器需求約2億美元;AI推理服務(wù)器方面,如ChatGPT在初期便可帶動推理服務(wù)器需求約45億美元。 一時間,ChatGPT們層出不窮,而它們背后的AI服務(wù)器賽道也開始隨之水漲船高。
算力決定ChatGPT
算力作為大模型的核心引擎,它的計算公式很簡單:有多少枚GPU芯片就能產(chǎn)生多大的算力,高端GPU芯片的數(shù)量,能直接影響算力的大小。 ChatGPT所需要的算力并不是固定的,反而是逐次遞增。
ChatGPT越聰明,背后的代價是所需算力越來越多。 據(jù)媒體推測,GPT-3訓(xùn)練成本預(yù)計在500萬美元/次,GPT-3模型需花費訓(xùn)練成本約140萬美元,Google的PaLM模型需花費訓(xùn)練成本約1120萬美元。
據(jù)微軟高管透露,為ChatGPT提供算力支持的AI超級計算機,是微軟在2019年投資10億美元建造的一臺大型頂尖超級計算機,配備了數(shù)萬個英偉達A100 GPU,還配備了60多個數(shù)據(jù)中心總共部署了幾十萬個英偉達GPU輔助。
為了滿足與日俱增的ChatGPT算力需求,微軟宣布將推出基于英偉達最新旗艦芯片H100 GPU和英偉達Quantum-2 InfiniBand網(wǎng)絡(luò)互連技術(shù),推出Azure可大規(guī)模擴展的AI虛擬機系列,以顯著加速AI模型的開發(fā)。 看上去,ChatGPT的背后就是滿篇的英偉達、英偉達和英偉達。
英偉達
實際上,英偉達作為硬件霸主,不僅在消費級市場占據(jù)大部分市場,也是AI服務(wù)器芯片領(lǐng)域的頭號選擇。
物以稀為貴,目前英偉達的旗艦芯片H100,在一周時間漲價近7萬元人民幣,售價普遍高達30萬元左右;次旗艦A100芯片在短短三個月多時間里,從6萬元一路漲至9萬元,漲幅超過50%。 不僅漲價買不到,甚至美國還禁止英偉達賣芯片。
在去年8月,美國政府發(fā)布出口管制政策,禁止英偉達將A100、H100兩款芯片售往中國。 為了不丟掉中國市場,又符合美國出口管制,英偉達隨后推出“性能閹割版”A800、H800芯片。
但這兩款芯片同樣被供不應(yīng)求的市場一搶而空,價格也隨之水漲船高。
以百度阿里騰訊為首,國內(nèi)大部分互聯(lián)網(wǎng)公司都已經(jīng)宣布進軍大模型。市場統(tǒng)計,從ChatGPT之后,中國年內(nèi)即將推出的大模型數(shù)量已超10個。 如果想要達到ChatGPT的水準(zhǔn),至少需要3000枚A100芯片,以9萬/枚的價格來算就是2.7億人民幣才能完成一個大模型部署;10個大模型就需要3萬枚A100芯片,27億人民幣。
加上后期訓(xùn)練成本,所需要的芯片更是天文數(shù)字。但按照目前英偉達的交貨時間來看,想要買到足夠的芯片,可不是一件容易的事情。 恍惚間,礦卡時代又再次來臨。
再次坐在風(fēng)口的英偉達
在前些年虛擬貨幣火熱的時候,作為挖礦必備的顯卡提供商,英偉達幾年時間大賺特賺了48億美元。
如今又靠著ChatGPT活出第二世,讓歷史再次重演。 面對市場需求激增,借AI浪潮翻身的英偉達很雞賊的推出“算力租賃”服務(wù)。
3月21日,2023年GTC大會上,英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛推出NVIDIA DGX Cloud™,可以為企業(yè)提供訓(xùn)練生成式AI高級模型所需的基礎(chǔ)設(shè)施和軟件。
DGX Cloud每個實例配有8個H100或A100 80GB GPU,企業(yè)可以“云租賃”的形式按月租用DGX Cloud集群,價格為每實例3.7萬美元/月起。
英偉達真的沒有替代品嗎?為什么企業(yè)寧愿選擇租賃,也不選擇其他GPU芯片商?
來源:網(wǎng)絡(luò)
IDC數(shù)據(jù)顯示,國內(nèi)GPU服務(wù)器在2021年占國內(nèi)服務(wù)器市場規(guī)模的比例超過88.4%,使用英偉達的產(chǎn)品占比超80%。 AI大模型所需要的芯片在處理信息的精細(xì)度和算力速度要求更高,在超算領(lǐng)域,雙精度浮點計算能力FP64是進行高算力計算的硬性指標(biāo)。
而英偉達的H100、A100是目前唯一具備這些能力的芯片。 美國卡脖子的并不只有英偉達芯片的售賣,從技術(shù)、設(shè)備、材料都限制中國企業(yè)的研發(fā)。但在美國的重重限制下,中國企業(yè)仍然頂著壓力跑出幾匹黑馬。
根據(jù)IDC最新發(fā)布的《中國加速計算市場(2021年下半年)跟蹤報告》,2021年全年中國AI服務(wù)器市場規(guī)模達350.3億元,同比增長68.6%。
在企業(yè)級GPU芯片領(lǐng)域,中國廠商壁仞科技在2022年推出“BR100”芯片、天數(shù)智芯推出了“智鎧100”芯片、寒武紀(jì)推出了“思元270”芯片。
其中壁仞科技稱,BR100擁有全球最高算力,峰值算力達到了市場在售旗艦產(chǎn)品的三倍以上,16位浮點算力達到1000T以上、8位定點算力達到2000T以上,單芯片峰值算力達到PFLOPS級別。
雖然數(shù)據(jù)良好,但缺少至關(guān)重要的處理FP64的能力,依然無法完全取代英偉達H100、A100倆兄弟。 并且,英偉達使用的CUDA平臺早已成為應(yīng)用最為廣泛的AI開發(fā)生態(tài)系統(tǒng),只支持英偉達的Tesla架構(gòu)GPU,在現(xiàn)階段根本無法用國產(chǎn)芯片取代。
雖然中國芯片廠商正在對GPU芯片領(lǐng)域奮起直追,但技術(shù)差距和美國卡脖子仍是關(guān)鍵性問題,還需要一段時間的努力。
不止AI服務(wù)器
借著大模型東風(fēng)一路上揚的不止AI服務(wù)器和GPU芯片,還有儲存器市場。 ChatGPT的運行條件包括訓(xùn)練數(shù)據(jù)、模型算法和高算力,其中高算力的底層基礎(chǔ)設(shè)施是完成對海量數(shù)據(jù)、訓(xùn)練的基礎(chǔ)。
最顯而易見的特點就是ChatGPT經(jīng)歷數(shù)次迭代之后,參數(shù)量從1.17億增加到1750億,近乎兩千倍的增長,也給計算存儲帶來極大的挑戰(zhàn)。 AI新時代開啟,預(yù)計全球數(shù)據(jù)生成、儲存、處理量將呈等比級數(shù)增長,存儲器將顯著受益。
而計算存儲是ChatGPT的重要基石,隨著阿里、百度等科技巨頭類ChatGPT項目入局,整體計算存儲市場需求將進一步快速提升。
文心一言 隨著AIGC持續(xù)火熱,北京、上海、廣州等數(shù)字經(jīng)濟發(fā)達地區(qū)也出臺了政策推進智算中心建設(shè)。
比如,北京市提出“新建一批計算型數(shù)據(jù)中心和人工智能算力中心,到2023年,培育成為人工智能算力樞紐”;上海市提出“布局建設(shè)一批具有高性能、高吞吐的人工智能算力中心,推動公共算力服務(wù)平臺建設(shè)”等。
而各行各業(yè)都將面臨著ChatGPT的洗禮,在迎新一輪人工智能的浪潮下,和AI相關(guān)的行業(yè)將會迎來廣闊的市場空間。 而中國企業(yè)也勢必會沖破美國掣肘,打破不公平的桎梏。
原文標(biāo)題 : ChatGPT背后的算力博弈,中國企業(yè)亟待打破美國桎梏

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?