訂閱
糾錯(cuò)
加入自媒體

高通發(fā)布AI推理芯片,入局?jǐn)?shù)據(jù)中心

高通這波從手機(jī)芯片跨界向 AI 數(shù)據(jù)推理進(jìn)攻,以功耗和成本優(yōu)勢(shì)為利刃,期望撕開英偉達(dá)的防線。

10 月 27 日,手機(jī)芯片巨頭高通宣布推出 AI200 和 AI250。

兩款芯片既不是手機(jī) SoC,也不是車規(guī)芯片,而是正兒八經(jīng)的數(shù)據(jù)推理大殺器,爭(zhēng)奪英偉達(dá)占據(jù)優(yōu)勢(shì)的 AI 芯片市場(chǎng)。

消息一出,其股價(jià)盤中飆 20%,收盤仍漲 11%。

AI 大模型真正能持續(xù)產(chǎn)生利潤(rùn)的是推理環(huán)節(jié),也就是 AI 完成問(wèn)答、生圖、生視頻等實(shí)際任務(wù)的過(guò)程。目前推理市場(chǎng)年增速達(dá) 40%,但市場(chǎng)主流英偉達(dá) H100 芯片價(jià)格高、耗電量大,還經(jīng)常缺貨。

高通正是瞄準(zhǔn)這一市場(chǎng)空檔,將其做手機(jī)芯片時(shí) “控制功耗” 的技術(shù)優(yōu)勢(shì)遷移到數(shù)據(jù)中心芯片上,提出 “每花費(fèi)一美元,能多處理 30% token(AI 處理數(shù)據(jù)的基本單位)” 的核心賣點(diǎn)。

參數(shù)上,AI200 搭載 768GB LPDDR 內(nèi)存,內(nèi)存容量是同類產(chǎn)品的約 3 倍,能輕松容納大模型。AI250 采用 “近內(nèi)存計(jì)算” 技術(shù),將算力模塊靠近內(nèi)存,使數(shù)據(jù)傳輸帶寬提升 10 倍,同時(shí)降低功耗,大幅減少數(shù)據(jù)中心的電費(fèi)支出。

此外,兩款芯片都支持冷板液冷散熱,單機(jī)架可承載 160kW 算力,能有效降低數(shù)據(jù)中心的 PUE(能源使用效率)指標(biāo),減少能源浪費(fèi)。

在軟件適配方面,高通借鑒了安卓系統(tǒng)的打法:支持從 Hugging Face(AI 模型開源平臺(tái))一鍵導(dǎo)入模型,通過(guò) Transformers Library 工具可將模型適配為高通芯片兼容的格式,最快 15 分鐘就能完成部署,實(shí)現(xiàn)零修改遷移,降低了云廠商等客戶的使用門檻。

不過(guò)需要注意的是,這兩款芯片的上市時(shí)間存在 “時(shí)間差”:AI200 預(yù)計(jì) 2026 年推出,AI250 則要等到 2027 年。 這給了英偉達(dá)應(yīng)對(duì)時(shí)間,其可提前推出 B100、Rubin 等新一代芯片搶占市場(chǎng)。云巨頭會(huì)不會(huì)用高通報(bào)價(jià)去壓英偉達(dá)?明年硅谷有好戲看了。

沙特的 AI 公司 Humain 已經(jīng)搶先下單,計(jì)劃用 AI200 搭建 200 兆瓦的算力中心。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮,務(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)