訂閱
糾錯
加入自媒體

這一戰(zhàn),谷歌準備了十年

9月3日,一則消息在科技圈引起了軒然大波:谷歌開始對外出售TPU了。

據(jù)報道,谷歌近期已在接觸那些主要租賃英偉達芯片的小型云服務提供商,敦促他們在其數(shù)據(jù)中心也托管谷歌自家的AI處理器,也就是TPU。

谷歌已與至少一家云服務提供商——總部位于倫敦的Fluidstack——達成協(xié)議,將在紐約的一個數(shù)據(jù)中心部署其TPU。

谷歌的努力不止于此。據(jù)報道,該公司還向其他以英偉達為核心的服務商尋求類似的合作,其中包括正在為OpenAI建造數(shù)據(jù)中心的Crusoe,以及向微軟租賃芯片并與OpenAI簽有供應合同的英偉達“親兒子”CoreWeave。

9月9日,花旗分析師因TPU競爭加劇將英偉達目標價下調(diào)至200美元,預計2026年GPU銷售額將因此減少約120億美元。

明眼人都能看出來的是,谷歌和英偉達之間的大戰(zhàn),已經(jīng)開始了。而它們爭奪的,將是AI計算這個真正的萬億美元市場。

然而,谷歌對這一戰(zhàn)的準備,其實比我們想象的都要久。

01 TPU,AI計算的最優(yōu)解?

早在2006年,谷歌的內(nèi)部就討論過在自家的數(shù)據(jù)中心中部署GPU、FPGA或ASIC的可能性。不過,當時只有少數(shù)應用程序能夠在這些特殊硬件上運行,而谷歌大型數(shù)據(jù)中心的過剩算力也完全夠它們使用了。因此,部署特殊硬件的計劃被擱置。

然而,到了2013年,谷歌的研究人員發(fā)現(xiàn):如果人們每天使用語音搜索并通過深度神經(jīng)網(wǎng)絡進行3分鐘的語音識別,那么當時谷歌的數(shù)據(jù)中心需要雙倍的算力才能滿足日益增長的計算需求。

而如果僅通過擴大數(shù)據(jù)中心規(guī)模來滿足算力需求,不但耗時,而且成本高昂。于是,在這個背景下,谷歌開始了TPU的設計。

谷歌的TPU是為AI計算而生的ASIC芯片,它專注于實現(xiàn)兩個核心目標:極高的矩陣乘法吞吐量與卓越的能效。

為了實現(xiàn)高吞吐量,TPU在硬件層面采用了“脈動陣列”(Systolic Array)架構。該架構由大量簡單的處理單元(PE)構成網(wǎng)格。數(shù)據(jù)流從陣列的邊緣輸入,在每個時鐘周期同步地、一步步地流經(jīng)相鄰的處理單元。每個單元執(zhí)行一次乘法累加運算,并將中間結(jié)果直接傳遞給下一個。

這種設計使得數(shù)據(jù)在陣列內(nèi)部被高度復用,最大限度地減少了對高延遲、高功耗主內(nèi)存的訪問,從而實現(xiàn)了驚人的處理速度。

而其卓越能效的秘訣,則在于軟硬件協(xié)同的“提前編譯”(Ahead-of-Time Compilation)策略。傳統(tǒng)的通用芯片需要高能耗的緩存來應對多樣的、不可預測的數(shù)據(jù)訪問。TPU則不同,它的編譯器在程序運行前就完整規(guī)劃好了所有數(shù)據(jù)路徑,這種確定性使其無需復雜的緩存機制,從而大幅降低了能耗。

在TPU的設計上,谷歌主導整體架構與功能定義,博通Broadcom參與了部分芯片的中后端設計工作,目前,Google TPU主要由臺積電代工生產(chǎn)。

隨著大語言模型參數(shù)的急劇擴張,AI計算任務正在從“訓練”走向“推理”。這時,作為通用算力單元的GPU,開始顯露出成本以及功耗過高的問題。

而TPU從設計之初就專門瞄準了AI計算,具有很高的性價比優(yōu)勢。據(jù)報道,谷歌TPU算力成本僅為OpenAI使用GPU成本的1/5,性能功耗比更是優(yōu)于同代GPU。

因此,為了抓住市場,谷歌圍繞著自己的TPU架構,打造了一系列產(chǎn)品與生態(tài)。

02 谷歌造芯這十年

谷歌第一代TPU (v1) 于2015年推出,通過高度簡化的專用設計,實現(xiàn)了超越同期CPU與GPU的能效比,并在AlphaGo等項目中展示了其高效能,從而驗證了AI ASIC的技術路徑。

隨著研發(fā)深入,訓練環(huán)節(jié)的算力瓶頸日益凸顯,促使TPU的設計方向轉(zhuǎn)向系統(tǒng)級解決方案。2017年發(fā)布的TPU v2為此引入了BF16數(shù)據(jù)格式以支持模型訓練,并配置了高帶寬內(nèi)存(HBM)。

更為關鍵的是,v2通過定制的高速網(wǎng)絡將256個芯片單元互聯(lián),首次構建了TPU Pod系統(tǒng)。隨后的TPU v3通過增加計算單元數(shù)量和引入大規(guī)模液冷技術,實現(xiàn)了性能的顯著提升。

TPU v4的發(fā)布帶來了互聯(lián)技術的重大革新,其核心是采用了光學電路交換(OCS)技術,實現(xiàn)了TPU Pod內(nèi)部網(wǎng)絡拓撲的動態(tài)重構,從而提升了大規(guī)模訓練任務的容錯能力與執(zhí)行效率。進入v5與v6 (Trillium) 階段,TPU產(chǎn)品線呈現(xiàn)出分化策略,形成了分別側(cè)重于極致性能的'p'系列與能效比的'e'系列,以適應多樣化的AI應用場景。

2025年Google TPU的全年出貨量預計為250萬片。v5系列總出貨量預計為190萬,其中v5e占約120萬,v5p占約70萬, v6系列預計總出貨量為60萬,前僅v6e在市場上銷售,v6p將在第四季度上市,約10-20萬左右。預計到2026年,總體TPU銷量將超過300萬片。

在今年的谷歌云大會上,谷歌發(fā)布了第七代TPU,代號“Ironwood”。

Ironwood是谷歌迄今為止性能最強、能效最高且最節(jié)能的TPU芯片,其峰值算力達到4614 TFLOPs,內(nèi)存容量為192GB,帶寬高達7.2 Tbps,每瓦峰值算力為29.3 TFLOPs。此外,Ironwood首次支持FP8計算格式,并在張量核和矩陣數(shù)學單元中實現(xiàn)這一功能,這使得其在處理大規(guī)模推理任務時更加高效。

Ironwood最高配集群可擁有9216個液冷芯片,峰值算力可達42.5 ExaFLOPS,是世界上最大的超級計算機El Capitan的24倍以上。其支持大規(guī)模并行處理和高效內(nèi)存訪問,適用于復雜的推理任務如大型語言模型和混合專家模型。

事實上,Ironwood的整體性能已經(jīng)十分接近英偉達B200,甚至在一些方面還有所超越。

當然,英偉達的統(tǒng)治力不僅在于其硬件性能,更在于整個CUDA生態(tài)。谷歌深知這一點,因此,它也構建了JAX這樣的,能在TPU上運行的高性能計算Python庫。

谷歌還發(fā)布了其模型流水線解決方案“Pathway”,用于向外部開發(fā)者訓練大型語言模型(LLM)。將其作為訓練模型的必備手冊,研究人員無需重新設計模型即可開發(fā)Gemini等LLM。

有了上述的一整個“軍火庫“,谷歌終于可以和英偉達掰掰手腕了。

03 谷歌vs英偉達

投資銀行D.A. Davidson分析師Gil Luria在最新報告中指出,過去一年以來谷歌母公司Alphabet大幅縮小與英偉達的差距,如今已成為“最好的英偉達替代方案”。

報告顯示,過去半年,圍繞Google Cloud TPU的開發(fā)者活躍度激增了約96%。

Gil Luria與前沿AI實驗室的研究人員和工程師交流后發(fā)現(xiàn),業(yè)內(nèi)普遍看好谷歌TPU。因此Luria認為,若谷歌將TPU業(yè)務與DeepMind部門合并并將它們分拆上市,估值或?qū)⒏哌_9000億美元。

AI獨角獸Anthropic此前使用亞馬遜的Trainium芯片來訓練模型,最近,該公司被發(fā)現(xiàn)正在招聘TPU內(nèi)核工程師;馬斯克旗下的人工智能公司xAI也對采購TPU表現(xiàn)出興趣。這一切都說明了業(yè)界對于TPU的認可。

而谷歌自身也在積極行動。首先,谷歌有意在公司內(nèi)部進行從英偉達GPU到自研TPU的迭代。Omdia數(shù)據(jù)顯示,2024年估計谷歌訂購16.9萬臺Hopper 架構GPU,在五大云廠商中排名最后,約為微軟的三分之一。同時,谷歌內(nèi)部已部署了約150萬顆TPU。

谷歌的對外戰(zhàn)略,就是文章開頭提到的,對那些使用英偉達芯片的數(shù)據(jù)中心供應TPU。據(jù)報道,為了與Floydstack達成合作,谷歌將提供最高32億美元的備選擔保支持,若Fluidstack無力支付紐約新數(shù)據(jù)中心的租賃費用,谷歌將補足差額。

根據(jù)野村證券最新報告,預計到2026年,ASIC總出貨量很可能會第一次超過GPU。而TPU正是目前最成熟的ASIC。

英偉達需要緊張起來了。

04 結(jié)語

市場對谷歌TPU的積極接受,反映出越來越多的公司想擺脫英偉達“一卡難求“的困境,尋求更高的性價比和更多元、穩(wěn)定的供應鏈。

而借此機會挑戰(zhàn)英偉達的,也不只有谷歌一家公司。供應鏈數(shù)據(jù)顯示,Meta將于2025年第四季度推出其首款ASIC芯片MTIA T-V1。它由博通設計,具有復雜的主板架構,并采用液冷和風冷混合技術。

到2026年年中,MTIA T-V1.5將進行進一步升級,芯片面積將翻倍,超過英偉達下一代GPU Rubin的規(guī)格,其計算密度將直接接近英偉達的 GB200 系統(tǒng)。2027年的MTIA T-V2可能會帶來更大規(guī)模的CoWoS封裝和高功率機架設計。

報告指出,根據(jù)供應鏈估計,Meta的目標是到2025年底至2026年實現(xiàn)100萬至150萬件ASIC出貨量。

微軟、亞馬遜同樣有自研的ASIC芯片,正在對這片被GPU霸占的市場虎視眈眈。

對此,英偉達也有自己的反擊手段。今年5月,英偉達正式發(fā)布NVLink Fusion。NVLink Fusion允許數(shù)據(jù)中心將英偉達GPU與第三方CPU或定制化AI加速器混合使用,標志著英偉達正式打破硬件生態(tài)壁壘。

近日,英偉達執(zhí)行副總裁暨首席財務官Colette Kress在高盛組織的會議上談及了對于AISC芯片所帶來的競爭看法,稱英偉達GPU更具性價比。

一場大戲已經(jīng)拉開了帷幕。無論是萬億美元的市場規(guī)模,還是未來AI時代硬件結(jié)構的定義權,都值得幾大巨頭為之瘋狂。

這一戰(zhàn),誰都有不能輸?shù)睦碛伞?/span>

       原文標題 : 這一戰(zhàn),谷歌準備了十年

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號