訂閱
糾錯
加入自媒體

DeepSeek式創(chuàng)新無法計劃,但對“下一代模型”該有準備

 文 | 佘宗明 

作家大衛(wèi)·弗羅斯特曾說過:想要成功,反而不要以成功為目標,只需要做你喜歡和相信的事情,成功就會自然而然地到來。

DeepSeek的火爆出圈,儼然成了對《為什么偉大不能被計劃》中引用的這句話的詮釋。

身為AI布道者的李彥宏,則跟它打了個共鳴的響指。

2月11日,在第12屆世界政府峰會(WGS 2025)上,被阿聯(lián)酋AI部長奧馬爾·蘇丹·奧拉馬問到如何看待DeepSeek的崛起后,李彥宏就回答道:創(chuàng)新是無法計劃的,你無法知道創(chuàng)新何時何地會出現(xiàn),你所能做的就是營造一個有利于創(chuàng)新的環(huán)境。

創(chuàng)新無法被計劃,但創(chuàng)新不能沒準備。一如巴斯德所說:“在觀察的領域里,機會只青睞有準備的頭腦。”

DeepSeek在Scaling Law的大路旁開辟出“小力出奇跡”的分岔來,也是“有準備”的回報。幻方量化在GPU儲備上的先知先覺,就是“有準備”的直觀注解。

“有準備”的同義詞是“肯投入”。李彥宏在峰會上就表示,盡管技術(shù)進步、成本降低,但仍需持續(xù)投入AI基礎設施,以確保處于技術(shù)創(chuàng)新的最前沿。“我們?nèi)孕鑼π酒、?shù)據(jù)中心和云基礎設施持續(xù)投入,以打造下一代模型。”CNBC的最新報道也顯示,百度將于今年發(fā)布新版本大模型“文心5.0”。

在DeepSeek讓那些對中美AI實力差距倍感灰心之人重燃信心的背景下,李彥宏說的“下一代模型”不無所指:AI角力終究是長跑賽,只有面向次世代技術(shù)持續(xù)投入,才能跑得更遠。 

01 

李彥宏跟DeepSeek“同框”,當然不是偶然。“中國”“AI”等關鍵詞,串聯(lián)起了二者。

作為這屆世界政府峰會主論壇首位對談嘉賓,李彥宏“AI先生”的聲名在外。被《時代》周刊評為“Foremost Futurist”的他,是《時代》周刊首次評選的全球AI百大人物榜單中唯一的中國企業(yè)家。

這么看,他成為阿聯(lián)酋AI部長的對談嘉賓,也就難言奇怪了——此次峰會上,阿聯(lián)酋AI部長只主持了兩場對談,嘉賓分別是李彥宏跟谷歌CEO桑達爾·皮查伊,去年則是黃仁勛。

作為當下全球科技圈的當紅炸子雞,DeepSeek的熱度延伸至世界性高端峰會上,也很正常——這本就是AI發(fā)展的標志性事件。

中國AI“代言人”就中國AI“神秘力量”發(fā)表觀點,自然極具看點。

在技術(shù)大爆炸到來的今天,務實派總是會因時而變地迭代自身認知?梢钥吹,李彥宏在峰會上對DeepSeek發(fā)表的諸多看法,如創(chuàng)新無法被計劃,還有關于大模型訓練、AI應用的觀點,都彰顯了認知視野的開放性。

認同的背面是理解。從推動AI技術(shù)進步的角度講,李彥宏跟DeepSeek創(chuàng)始人梁文鋒本是同路人。

“卷技術(shù)是美國大模型的天命,卷價格是中國大模型的宿命”,是許多人(包括我)此前對于中美大模型對比的直接觀感。

但DeepSeek無疑刷新了不少人的認知:它卷價格,更卷技術(shù)。憑著多頭潛在注意力(MLA)和群組相對策略優(yōu)化(GRPO)技術(shù),DeepSeek實現(xiàn)了對硅谷算力能效比的代際碾壓。

拋開頻域遮蔽效應看會發(fā)現(xiàn),DeepSeek技術(shù)突破的背后是中國大模型技術(shù)的整體進步:百度研發(fā)的“理解-檢索-生成”協(xié)同優(yōu)化的檢索增強技術(shù)(RAG)強過OpenAI的,豆包的端到端對話能力不遜于OpenAI版“Her”,可靈的視頻生成質(zhì)量不輸Sora……即為印證。

就拿百度結(jié)合搜索技術(shù)積累形成的模型特色RAG來說,依靠RAG帶來的中文深度理解、多模態(tài)檢索、垂直領域定制化及實時數(shù)據(jù)整合能力等優(yōu)勢,文心一言在咨詢機構(gòu)沙利文的《2024年中國大模型能力評測》中拿下了五大評測維度的四項第一。

隨之而來的,是文心大模型調(diào)用量快速增長:截止去年11月,其日調(diào)用量已超15億,相比一年前大幅增長30倍,成了中國大模型落地應用爆發(fā)的佐證。

到頭來,從文心一言到DeepSeek-R1,都奠定了外界對中國大模型技術(shù)能力的基礎認知。

02 

去年7月,在率先打響國產(chǎn)大模型價格戰(zhàn)第一槍后,梁文鋒在接受媒體專訪時曾解釋,“我們認為,AI和API服務應該是人人都能負擔得起、隨時可用的。”

與之相呼應的是,DeepSeek驚艷四座后,OpenAI CEO山姆·奧特曼、微軟CEO納德拉和亞馬遜CEO安迪·賈西都不約而同地談到,AI成本下降是趨勢。

此次峰會上,李彥宏同樣談到了這點。他認為,“創(chuàng)新的本質(zhì)是成本下降與生產(chǎn)力提升。”根據(jù)摩爾定律,每十八個月,性能就會翻倍而價格減半。如今大模型推理成本每年降低90%以上。

前不久,在接入DeepSeek模型后,百度智能云立馬宣布了打折——千帆平臺上的DeepSeek-R1僅為官方刊例價的5折,DeepSeek-V3為官方刊例價的3折,并提供限時免費服務,便是回響。

成本下降的后面是技術(shù)帶動:推理引擎性能優(yōu)化層面,針對DeepSeek模型MLA結(jié)構(gòu)的計算進行極致性能優(yōu)化;推理服務工程架構(gòu)創(chuàng)新層面,做了嚴格的推/拉模式性能對比、設計了請求失敗的續(xù)推機制、實現(xiàn)了主流的KV-Cache復用技術(shù)……是百度云智能將AI成本打下來的重要支撐。

結(jié)果就是,DeepSeek模型上線首日,已有超1.5萬家客戶通過百度千帆平臺進行模型調(diào)用。

降本是最好的“刺激”。依托技術(shù)賦能,推動自有與納管主流大模型降低調(diào)用成本,已成千帆平臺的“基操”。過去一年,文心旗艦大模型降價幅度超過90%、主力模型全面免費,就累計幫助用戶精調(diào)了3.3萬個大模型,開發(fā)出逾77萬個企業(yè)級應用。

很大程度上,在推動AI成本下降上,李彥宏跟梁文鋒也是殊途同歸:如果說,DeepSeek讓全世界看到了中國AI花小錢辦大事的破題能力,那百度點亮首個國產(chǎn)萬卡集群,就是中國AI從算力基建層面尋求成本突破的另一種解法。

有專業(yè)人士提到,由于訓練效率與數(shù)據(jù)利用效率差距,中國的模型整體資源消耗大概是全球頂尖模型的四倍。

而DeepSeek的框架創(chuàng)新,百度的AI基礎設施完善,正是將效率提上去、成本降下來的兩種思路。

2024年9月,百度升級發(fā)布百舸AI異構(gòu)計算平臺4.0,就是著力為企業(yè)提供“多、快、穩(wěn)、省”的AI基礎設施。該平臺迄今已具備成熟的10萬卡集群部署和管理能力,能將兩種芯片混合訓練大模型的效率折損控制在5%以內(nèi),達到業(yè)界最領先的水平。

百度近期成功點亮昆侖芯三代萬卡集群,又放大了其降本效應與提效價值:萬卡集群可通過模型優(yōu)化、并行策略、有效訓練率提升、動態(tài)資源分配等手段智能調(diào)度任務,將訓練、微調(diào)、推理任務混合部署,最大化提升集群綜合利用率,降低單位算力成本,滿足AI原生應用快速迭代需求,實現(xiàn)訓練成本指數(shù)級下降。

“創(chuàng)新的本質(zhì)是成本下降與生產(chǎn)力提升”,百度和DeepSeek們降低成本,自然能撬動更多創(chuàng)新。

花旗銀行的研報說,百度、DeepSeek等中國模型展現(xiàn)出的高效和低成本優(yōu)勢,將有助于加速全球AI應用開發(fā),并在全球引發(fā)更多技術(shù)創(chuàng)新,就是前瞻預判。

 03 

提供“多、快、穩(wěn)、省”的AI基礎設施,是百度AI全棧布局之下的能力體現(xiàn)。

“百度是全球少有的在AI上實現(xiàn)全棧布局的公司”,是《時代》周刊將百度納入“2024年全球100大最具影響力企業(yè)”榜單時給出的評語。

何為全棧布局?簡單來說就是,大模型發(fā)展所需的AI基礎設施、框架、云服務、AI生態(tài)反哺模型能力等條件,它都有。從芯片層的昆侖芯、框架層的百度飛槳到模型層與應用層的落子,百度的“六邊形戰(zhàn)士”形態(tài)已若隱若現(xiàn)。

全棧布局,不能少了場景落實、應用搭建等拼塊,也必然體現(xiàn)在應用層的先行一步上。

AI產(chǎn)業(yè)發(fā)展,不是建空中樓閣,應用層跑通了,基礎設施投入才可持續(xù)。移動互聯(lián)網(wǎng)時代,從應用層到基礎設施的倒三角型利益分配,催生了數(shù)量眾多的超級應用和明星獨角獸,支撐了移動生態(tài)的長久繁榮,就是最好的證明。

可AI時代的“倒三角”尚未成型,AI企業(yè)給英偉達們“打工”仍是常見圖景。強如微軟谷歌,AI基礎設施投資中約一半的錢也要用來買卡。

就此看,李彥宏的那段話很有針對性:過去幾年,我們對各種技術(shù)進步和突破感到非常興奮。但如果我們看技術(shù)棧,它就像一個金字塔,最賺錢的是硅層面,即GPU和其他類型的AI芯片;然后在其上面的是云基礎設施,由超大規(guī)模云服務提供商提供;再往上是語言模型,最上層是應用層。應用層雖然位于最頂端,但應用層目前還沒有賺到太多錢。

AI產(chǎn)業(yè)可持續(xù)發(fā)展,推動AI成本下降的確重要,幫助應用層跑通則更為關鍵,這樣才能形成正循環(huán)。李彥宏在峰會上就說:我們確實需要關注應用層的價值創(chuàng)造。如果你作為基礎設施層投入了數(shù)千億美元,卻無法開發(fā)出能帶來十倍以上回報的應用,那么這是不可持續(xù)的。

該怎么加速大模型落地應用的提點擴面?峰會上有個細節(jié)頗堪玩味,也為此提供了參照:李彥宏談到Robotaxi比人開車安全十倍,蘿卜快跑出險率僅為人類駕駛員的1/14,阿聯(lián)酋AI部長也表示也許明年峰會可以探索用蘿卜快跑提供交通服務。

蘿卜快跑是百度推動AI規(guī);瘧玫闹匾ナ帧2024年發(fā)布了全球首個支持L4級無人駕駛的自動駕駛大模型Apollo ADFM的蘿卜快跑,自動駕駛訂單量擊敗谷歌Waymo位居全球第一,入選《全球自動駕駛十大里程碑》及MIT2025十大突破性進展,就表明了中國AI在應用上的巨大未來想象空間。

在大模型應用場景早已從“Chat”擴圍到各個領域的時下,蘿卜快跑只是大模型應用場景豐富性的注腳:大模型To C側(cè)最先實現(xiàn)商業(yè)化的標桿性應用百度文庫,以4000萬付費用戶緊逼微軟的Copilot,百度智能云2024年在中標項目數(shù)、行業(yè)覆蓋數(shù)、央國企中標項目數(shù)三個維度里均為第一……就擘畫出了大模型規(guī);瘧猛緩降亩嘣

DeepSeek爆紅后,有些人又陷入了將研發(fā)與應用二元對立的誤區(qū)。但事實上,規(guī);瘧玫姆床,恰是DeepSeek們?nèi)〉酶嗉夹g(shù)突破的動能。 

04

 需要看到的是,無論是技術(shù)研發(fā),還是落地應用,都需要“有準備”——DeepSeek跟百度都推動了AI技術(shù)進步、成本下降,但這不意味著,就該因此降低對AI的投入。

亞馬遜CEO安迪·賈西就說:(在DeepSeek的帶動下)AI 的成本在降低,但這并不意味著企業(yè)會減少對技術(shù)的投入。相反,降低的成本將使企業(yè)能夠重新考慮那些因預算限制而擱置的創(chuàng)新項目,從而加大整體的技術(shù)支出。

就在近日,微軟、亞馬遜、谷歌和Meta四巨頭表示,在去年創(chuàng)紀錄的支出之后,他們將在2025年進一步加大投資,預計在AI技術(shù)和數(shù)據(jù)中心建設上總共投入3200億美元。相較之下,四巨頭2024年的總資本支出為2300億美元。

其中動作最猛的,正是亞馬遜——它準備將支出增至1000億美元以上。

李彥宏說“仍需對芯片、數(shù)據(jù)中心和云基礎設施持續(xù)投入,以打造下一代模型”,DeepSeek追求持續(xù)進化,顯然也是著眼于提升中國AI競爭力的應然之舉。

伊瓦爾·?死试凇蹲罴芽赡艿氖澜纾簲(shù)學與命運》中說:世界不分因果鏈,不是線性地安排事件……每個事件就像樹干,把網(wǎng)狀的根伸向過去,把樹冠托向未來。

持續(xù)投入,就是將AI技術(shù)突破和應用拓圈的根扎得更深,最終將AI時代紅利的樹冠托得更高。而這,需要技術(shù)理想主義的堅持,需要務實的準備。

4個月前,在百度世界大會上,針對“硅谷預言家”安德森多年前的那個著名論斷“軟件吞噬世界”,李彥宏表示,這個世界不應該被吞噬,而應該被創(chuàng)造。

某種意義上講,他和其他的AI從業(yè)者們都是在“創(chuàng)造”——他們處在同一側(cè),都在以探索下一代技術(shù)為支點,創(chuàng)造“最佳可能的世界”。

創(chuàng)新不能被計劃,但他們都在為創(chuàng)新做準備。

       原文標題 : DeepSeek式創(chuàng)新無法計劃,但對“下一代模型”該有準備

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號