產(chǎn)業(yè)丨ASIC , 趕超GPU?
當OpenAI悄悄測試谷歌TPU的消息在AI圈傳開時,整個行業(yè)都嗅到了不一樣的味道。如今,谷歌、亞馬遜AWS、Meta等云服務巨頭集體押注自研ASIC,野村證券甚至預測2026年ASIC出貨量將首次超越英偉達GPU。這場沒有硝煙的戰(zhàn)爭,究竟是通用算力的黃昏,還是專用芯片的黎明?
作者 | 方文三
圖片來源 | 網(wǎng) 絡
從[價值壟斷]到[數(shù)量追趕]的微妙失衡
當前的AI服務器市場,英偉達仍牢牢占據(jù)著[價值王座]。
數(shù)據(jù)顯示,其AI GPU在市場價值中的占比超過80%,而ASIC僅為8%-11%。
但如果將目光轉向出貨量這一關鍵指標,天平已在悄然傾斜。
2025年,谷歌自研的TPU芯片出貨量預計達150萬-200萬臺,亞馬遜AWS的Trainium 2 ASIC約為140萬-150萬臺,兩者合計規(guī)模已接近同期英偉達AI GPU的40%-60%。
更具顛覆性的是,隨著Meta計劃2026年量產(chǎn)100萬-150萬顆MTIA芯片,以及微軟2027年啟動大規(guī)模ASIC部署。
野村證券判斷:ASIC整體出貨量有望在2026年某個時間點超越英偉達GPU。
這一變化的背后,是云服務商對[降本增效]的迫切需求。
以日均處理海量數(shù)據(jù)的谷歌為例,其最新一代TPU針對Transformer架構深度優(yōu)化,計算效率較上一代提升30%以上;
亞馬遜AWS的Trainium 2則聚焦分布式訓練場景,支持千億參數(shù)模型的并行計算。
在特定場景下,這些ASIC的表現(xiàn)已逼近甚至部分超越英偉達A100 GPU。
對云服務商而言,自研ASIC的意義遠不止[替代]。
谷歌每天處理數(shù)十億次搜索請求,AWS承載著全球數(shù)百萬企業(yè)的云計算需求,Meta的社交平臺每秒產(chǎn)生海量交互數(shù)據(jù),這些場景的AI任務相對固定,恰好匹配ASIC[定制化]的核心優(yōu)勢。
據(jù)測算,同等算力下ASIC的功耗可控制在GPU的30%以內(nèi),對需要部署數(shù)萬張卡的云服務商來說,每年節(jié)省的電費相當于一個小型電廠的年發(fā)電量。
ASIC的定制化改寫算力經(jīng)濟規(guī)則
如果把芯片世界比作一個工具箱,那么ASIC就是為特定任務量身打造的[專業(yè)工匠],而GPU則是能應對多種場景的[全能選手]。
這種定位差異,在AI大模型規(guī)模化商用的今天被無限放大。
ASIC的核心優(yōu)勢,在于對特定算法的[極致適配]。以大模型推理為例,一旦模型部署,其算法邏輯(如Transformer的注意力機制)、計算流程(輸入輸出格式、精度需求)會長期固定。
ASIC可以直接將這些邏輯[固化]到硬件架構中,去掉GPU中用于通用計算的冗余模塊,讓硬件資源100%服務于目標任務。
谷歌TPU v5e的能效比是英偉達H100的3倍,AWS Trainium 2在推理任務中的性價比比H100高30%-40%,正是這種優(yōu)化的直接體現(xiàn)。
對比更為直觀的是運維成本。一塊NVIDIA GPU功耗約700瓦,運行大模型時每小時電費約0.56元(按0.8元/度計);而同等算力的ASIC芯片功耗可控制在200瓦內(nèi),同樣任務每小時電費僅0.16元。
對ChatGPT這樣需要數(shù)十萬臺推理芯片支撐的應用來說,這種差距意味著每年數(shù)億元的成本節(jié)省。
ASIC的崛起還踩中了AI產(chǎn)業(yè)的[階段紅利]。當前大模型已從[野蠻生長]的訓練階段,逐步轉向[規(guī);涞豜的推理階段。
巴克萊預測,到2026年推理計算需求將占通用人工智能總計算需求的70%以上,是訓練需求的4.5倍。
推理場景的[算法固化]特性,與ASIC的[專用性]形成完美契合,這也是谷歌、Meta等巨頭加速布局的核心邏輯。
從歷史維度看,這種[通用到專用]的迭代并不陌生。
比特幣挖礦早期用CPU,后來轉向GPU,但真正實現(xiàn)產(chǎn)業(yè)化的是比特大陸的ASIC礦機,其單位能耗的挖礦效率是GPU的千倍級別。
當AI模型架構從快速迭代走向相對穩(wěn)定,ASIC正在重復類似的[效率革命]。
ASIC的規(guī);現(xiàn)實困境與隱憂
盡管ASIC的優(yōu)勢顯著,但規(guī);渴鸩⒎翘雇尽_@場算力競賽的背后,隱藏著產(chǎn)能、技術與風險的多重挑戰(zhàn)。
產(chǎn)能瓶頸首當其沖。以Meta計劃2026年量產(chǎn)的MTIA芯片為例,其依賴臺積電CoWoS技術,而當前CoWoS晶圓產(chǎn)能僅能支持30萬-40萬片,遠低于其100萬-150萬顆的出貨目標。
更嚴峻的是,谷歌、AWS、微軟等廠商若同步擴產(chǎn),高端封裝產(chǎn)能將成為制約ASIC放量的[卡脖子]環(huán)節(jié)。
臺積電雖然計劃2025年將CoWoS產(chǎn)能提升50%,但從產(chǎn)能建設到實際投產(chǎn)需12-18個月,短期內(nèi)難以緩解供需矛盾。
技術門檻同樣高企。大尺寸CoWoS封裝對芯片設計、材料一致性要求極高,系統(tǒng)調(diào)試周期長達6-9個月。
即便是技術成熟的谷歌,也需投入大量資源解決散熱、信號干擾等問題。
Meta的MTIA T-V1芯片采用36層高規(guī)格PCB與液冷+空冷混合散熱,其復雜程度堪比航天級設備,任何設計瑕疵都可能導致量產(chǎn)延期。
更隱蔽的風險在于ASIC的[專用性陷阱]。AI模型架構并非一成不變,若未來從Transformer轉向新型架構,前期投入的ASIC可能面臨[瞬間過時]的風險。
黃仁勛曾直言:[一個完美的ASIC在某些工作上表現(xiàn)出色,但在其他方面卻很糟糕。一旦AI的工作內(nèi)容改變,它就會變得毫無用處。]
這也是為何谷歌Gemini模型仍同時部署在英偉達GPU上——通過[通用+專用]的混合架構對沖技術迭代風險。
供應鏈的[蝴蝶效應]也不容忽視。若Meta、AWS等云服務商集中拉貨,高端ABF載板、HBM3E存儲芯片、液冷組件等關鍵物料極易短缺,進一步推高成本并拖慢量產(chǎn)節(jié)奏。
2024年下半年,HBM內(nèi)存價格因需求激增上漲30%,這一情景可能在ASIC擴產(chǎn)潮中重演。
英偉達的技術、生態(tài)與反擊戰(zhàn)
面對ASIC的挑戰(zhàn),英偉達并未坐以待斃,而是通過技術迭代與生態(tài)強化構筑[三重壁壘]。
在2025年COMPUTEX大會上,英偉達推出NVLink Fusion技術,開放互連協(xié)議允許第三方CPU或xPU與自家GPU無縫協(xié)作。
這一策略看似[妥協(xié)],實則通過開放接口擴大生態(tài)覆蓋,同時保持自身在計算核心上的主導權。
硬件參數(shù)上,英偉達H100的計算密度較同期ASIC高出約20%,NVLink互連帶寬是自研ASIC的1.5倍以上,在訓練千億參數(shù)大模型等復雜任務中仍不可替代。
生態(tài)壁壘更是英偉達的[王牌]。全球超90%的企業(yè)AI解決方案基于CUDA開發(fā),從模型訓練到部署,開發(fā)者已形成深度路徑依賴。
即便ASIC算力接近GPU,企業(yè)也需投入數(shù)億甚至數(shù)十億元重構軟件生態(tài),這種[轉換成本]構成了最堅固的護城河。
正如摩根士丹利分析:[CUDA生態(tài)就像一座高速公路網(wǎng),所有的車都在上面跑,想換路就要重建整個路網(wǎng)。]
供應鏈控制力同樣關鍵。英偉達是HBM內(nèi)存的最大買家,占據(jù)SK海力士70%以上的產(chǎn)能;通過與臺積電的深度合作,其獲得了最多的CoWoS封裝產(chǎn)能分配。
這種[搶資源]的能力,讓英偉達在算力競賽中掌握了節(jié)奏主導權。
當ASIC廠商還在為產(chǎn)能焦慮時,英偉達已通過規(guī);少徑档瓦呺H成本,維持高毛利率優(yōu)勢。
黃仁勛的[生態(tài)戰(zhàn)]策略也在奏效。通過開放NVLink Fusion,英偉達將聯(lián)發(fā)科、Marvell等廠商納入[朋友圈],形成[GPU+第三方xPU]的異構計算生態(tài)。
這種[以我為主、開放合作]的模式,既應對了ASIC的挑戰(zhàn),又鞏固了自身在產(chǎn)業(yè)鏈中的核心地位。
通用與專用的共存大概率是未來格局
ASIC的崛起并非意味著GPU的衰落,而是AI算力市場從[一極主導]走向[多元共生]的開始。
這場變革的最終結局,更可能是[通用GPU+定制ASIC]的雙軌并行格局。
短期來看,ASIC是[增量補充]而非[存量替代]。
英偉達在高端訓練市場(如千億參數(shù)模型)仍占據(jù)絕對主導,其技術積累與生態(tài)優(yōu)勢短期內(nèi)難以撼動。
ASIC則在特定場景快速滲透,成為云服務商降本增效的重要選擇。
2025-2026年將是雙線并行的過渡期,市場呈現(xiàn)[GPU主導價值、ASIC增長數(shù)量]的特征。
長期而言,市場將呈現(xiàn)[分層競爭]態(tài)勢。
英偉達繼續(xù)領跑通用AI算力市場,支撐前沿模型探索與復雜任務處理;
ASIC則在垂直場景占據(jù)優(yōu)勢,通過定制化優(yōu)化實現(xiàn)效率最大化。
對主權AI體系,ASIC可能成為突破供應限制的重要路徑,但需突破技術積累、人才儲備與生態(tài)構建的多重障礙。
從應用維度看,兩者的分工將更加清晰:GPU負責[從0到1]的創(chuàng)新探索,ASIC負責[從1到N]的規(guī)模落地。
就像超級計算機用于前沿科研,而專用服務器支撐日常數(shù)據(jù)處理,AI算力市場也將形成[創(chuàng)新與效率]的平衡。
行業(yè)數(shù)據(jù)也印證了這一趨勢。摩根士丹利預計,AI ASIC市場規(guī)模將從2024年的120億美元增長至2027年的300億美元,復合增長率達34%,但同期GPU市場仍將保持20%以上的增速。
這意味著,ASIC的崛起是在做大AI算力市場的[蛋糕],而非單純搶奪GPU的份額。
算力革命的本質(zhì)是效率與創(chuàng)新的平衡
ASIC與GPU的博弈,本質(zhì)上是AI產(chǎn)業(yè)從[通用算力]向[專用效率]進化的縮影。
當大模型訓練成本從GPT-3時代的千萬級飆升至Grok3的數(shù)十億美元級,效率成為不可忽視的核心命題,這為ASIC的崛起提供了土壤。
但技術創(chuàng)新的不確定性,又讓通用GPU的靈活性不可或缺。
未來的AI算力江湖,不會是[非此即彼]的零和博弈,而是[各擅其長]的共生生態(tài)。
英偉達憑借技術、生態(tài)與供應鏈優(yōu)勢,繼續(xù)主導通用算力市場;
谷歌、AWS、Meta等巨頭通過ASIC在垂直場景構建壁壘;
而博通、Marvell等廠商則在定制芯片領域分一杯羹。
這場變革的深層意義,在于重新定義算力經(jīng)濟的成本結構與技術路線。
部分資料參考:
算力之光:《ASIC芯片狂飆,英偉達慌嗎?》
證券之星:《ASIC的時代即將到來?》
硬AI:《谷歌之后Meta需求爆發(fā),ASIC明年就超英偉達GPU?》
電子發(fā)燒友網(wǎng):《OpenAI甩出"王炸":一個APP干翻整個辦公室,ASIC開始逆襲GPU?》
中國電子報:《2026年出貨量超GPU?ASIC時代加速到來》
電子工程世界:《DeepSeek時代,ASIC芯片加冕為王》
半導體產(chǎn)業(yè)縱橫:《GPU王座動搖?ASIC改寫規(guī)則》
原文標題 : AI芯天下丨產(chǎn)業(yè)丨ASIC,趕超GPU?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字