訂閱
糾錯(cuò)
加入自媒體

DeepSeek R1小步快跑,中國AI迎來高光時(shí)刻

2025-05-30 11:31
山自
關(guān)注

一次看似不起眼的小版本更新,卻讓國產(chǎn)大模型在編程和設(shè)計(jì)領(lǐng)域逼近全球頂尖水準(zhǔn)——小步快跑的迭代哲學(xué)正在重塑AI競爭規(guī)則。

2025年1月,DeepSeek R1的橫空出世觸發(fā)了全球AI格局的重新洗牌。這個(gè)由中國團(tuán)隊(duì)開發(fā)的模型以僅600萬美元的訓(xùn)練成本,實(shí)現(xiàn)了與OpenAI投入5億美元打造的o1模型相匹敵的性能。

更令人驚訝的是,在隨后幾個(gè)月里,DeepSeek沒有如預(yù)期般推出革命性的R2版本,而是通過一系列小版本迭代持續(xù)進(jìn)化。

圖片

今年5月28日上線的R1-0528版本,再次以一次“小升級”震動技術(shù)圈。新版本在編程能力上實(shí)現(xiàn)突破,能一次性生成728行代碼構(gòu)建出帶粒子效果的3D動畫應(yīng)用,其效果已與Anthropic的Claude 4并駕齊驅(qū)。

圖片

     小步迭代的得與失:優(yōu)化幻覺與有限的能力拓展

在R1-0528版本中,DeepSeek團(tuán)隊(duì)重點(diǎn)優(yōu)化了模型的核心痛點(diǎn)——幻覺問題。通過增強(qiáng)自我驗(yàn)證機(jī)制,模型在數(shù)學(xué)推理和事實(shí)性回答中的準(zhǔn)確率明顯提升。

一組對比測試顯示,在Extended NYT Connections基準(zhǔn)測試中,新版本的得分從原始R1的38.6躍升至49.8,漲幅近30%。

這種進(jìn)步源于DeepSeek創(chuàng)新的GRPO算法(組相對策略優(yōu)化)。與傳統(tǒng)PPO算法不同,GRPO通過組內(nèi)樣本對比動態(tài)調(diào)整策略,省去了獨(dú)立價(jià)值網(wǎng)絡(luò),使內(nèi)存占用降低40%,訓(xùn)練效率提升2.3倍。

圖片

然而細(xì)察之下,此次升級并未帶來顛覆性能力突破。模型在多語言支持、多模態(tài)理解等關(guān)鍵領(lǐng)域進(jìn)展有限。當(dāng)用戶用德語提問時(shí),模型仍需將其翻譯成中英文處理,導(dǎo)致響應(yīng)速度下降。

在復(fù)雜函數(shù)調(diào)用和角色扮演等場景,表現(xiàn)仍不及行業(yè)頂尖水平。業(yè)界期待的真正革新——如跨模態(tài)理解和復(fù)雜工具使用——仍需等待R2的到來。

      思維深度:是進(jìn)化還是過剩?

最顯著的變化發(fā)生在模型的思考方式上。R1-0528采用了更長的思維鏈,在解決復(fù)雜問題時(shí)展現(xiàn)出類似人類的逐步推理能力。

當(dāng)被要求“估算π/7”時(shí),模型耗時(shí)148秒生成包含大量中間步驟的解答。其推理過程詳細(xì)展示了對泰勒級數(shù)展開、數(shù)值逼近等方法的考量,遠(yuǎn)超簡單問題所需。

這種深度思考模式是雙刃劍:

優(yōu)勢:在編程任務(wù)中,長思維鏈?zhǔn)鼓P湍茏晕壹m錯(cuò)。測試顯示,面對Zig語言開發(fā)任務(wù)時(shí),模型能在出錯(cuò)后快速調(diào)整方案。

代價(jià):響應(yīng)時(shí)間顯著延長。普通用戶面對“思考中”提示等待十余秒已成常態(tài),在實(shí)時(shí)交互場景中體驗(yàn)不佳。

技術(shù)愛好者贊賞這種透明化的推理過程,認(rèn)為它增強(qiáng)結(jié)果的可信度。但普通用戶更關(guān)注效率——當(dāng)Claude能在3秒內(nèi)給出正確答案時(shí),過長的思考鏈?zhǔn)欠裾嬲齽?chuàng)造用戶價(jià)值值得商榷。

中長篇寫作:結(jié)構(gòu)化的勝利

在內(nèi)容創(chuàng)作領(lǐng)域,R1-0528展現(xiàn)出質(zhì)的飛躍。與早期版本相比,其中長篇輸出實(shí)現(xiàn)了三重進(jìn)化:

結(jié)構(gòu)更嚴(yán)謹(jǐn):回答采用“問題解析→分步推導(dǎo)→結(jié)論驗(yàn)證”的標(biāo)準(zhǔn)流程,邏輯清晰度顯著提升。信息更豐富:在歷史類問題中,模型能補(bǔ)充文化背景和爭議觀點(diǎn),而不局限于簡單事實(shí)。表達(dá)更規(guī)范:通過RL訓(xùn)練中的格式獎勵機(jī)制,模型輸出中的中英文混雜問題基本解決。

圖片

       速度之困:深度思考的代價(jià)

性能提升的最大代價(jià)是響應(yīng)速度。多個(gè)實(shí)測場景暴露了這一瓶頸:

●解答高考數(shù)學(xué)壓軸題耗時(shí)83秒

●應(yīng)對AIME競賽真題需213秒

圖片

●處理少樣本提示(Few-Shot Prompt)比非推理模型慢7倍

速度瓶頸部分源于工程選擇。為保持低成本優(yōu)勢,DeepSeek堅(jiān)持使用MoE架構(gòu)(專家混合模型),每次推理僅激活370億參數(shù)(總量6710億)。

這種“省電模式”限制了并行計(jì)算效率。

在API服務(wù)場景,速度問題被性價(jià)比緩解:新版本保持輸入0.55美元/百萬token、輸出2.19美元/百萬token的定價(jià),僅為OpenAI o1價(jià)格的3.7%。但當(dāng)企業(yè)需要實(shí)時(shí)交互時(shí),這一短板依然明顯。

      小步快跑:AI產(chǎn)品迭代新范式

DeepSeek此次采用的策略,標(biāo)志AI產(chǎn)品開發(fā)模式的轉(zhuǎn)變。與追求顛覆性突破的“大版本”思維不同,小步快跑模式展現(xiàn)出獨(dú)特優(yōu)勢:

風(fēng)險(xiǎn)可控:每次迭代聚焦特定能力提升(如本次的編程與設(shè)計(jì)),避免全面重構(gòu)風(fēng)險(xiǎn)。用戶導(dǎo)向:快速響應(yīng)社區(qū)反饋,如針對開發(fā)者需求強(qiáng)化three.js框架支持。生態(tài)友好:MIT開源許可使企業(yè)可即時(shí)集成新版本,蒸餾模型讓普通顯卡也能運(yùn)行70B參數(shù)模型。

這種模式有效破解“杰文斯悖論”:當(dāng)技術(shù)進(jìn)步降低算力成本時(shí),反而激發(fā)更大需求。R1-0528上線后,其API調(diào)用量激增導(dǎo)致服務(wù)短暫中斷,正是這一現(xiàn)象的生動體現(xiàn)。

小版本迭代的累積效應(yīng)不可小覷。經(jīng)過數(shù)次更新,R1的編程能力已從年初的Codeforces 1890 ELO提升至2029,超越96%人類選手。

前端設(shè)計(jì)質(zhì)量更達(dá)到專業(yè)設(shè)計(jì)師才能分辨差異的水準(zhǔn)。

業(yè)界目光已投向DeepSeek R2。當(dāng)小步迭代已能在編程和設(shè)計(jì)領(lǐng)域比肩Claude 4,真正的下一代架構(gòu)革新或?qū)⒅匦露x國產(chǎn)AI的天花板。

       原文標(biāo)題 : DeepSeek R1小步快跑,中國AI迎來高光時(shí)刻

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個(gè)字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號