DeepSeek崛起,到底誰將受益?

DeepSeek已經(jīng)改變了大模型行業(yè)格局。
作者/豆包
出品/新摘
2023年,OpenAI憑借具有顛覆性的ChatGPT,站在了AI行業(yè)的C位上。當時,國內(nèi)的頭部公司和OpenAI的差距只有2-3個月,也有人說是3-5年,甚至有人認為是10年。2-3個月也好,10年也罷,中國企業(yè)在大模型領域的位置一直都沒變,始終處于追趕狀態(tài)。
2025年,情況出現(xiàn)了變化,DeepSeek憑借質(zhì)價比模式,站在了AI行業(yè)的C位上。1月11日前后,DeepSeek在全球范圍內(nèi)上線了App,據(jù)Sensor Tower數(shù)據(jù)顯示,DeepSeek在發(fā)布的18天內(nèi)累計下載量高達1600萬次,而在同一時間段,ChatGPT的下載量為900萬次。截至2月5日,DeepSeek 的全球下載量接近4000萬,ChatGPT則為4100萬。日活方面,DeepSeek在1月31日取得了2215萬的成績,相當于ChatGPT的41.6%。
DeepSeek雖然在總用戶量和日活上和ChatGPT有差距,但他的增速已經(jīng)足以刺激到包括后者在內(nèi)的所有大模型廠商。與此同時,所有人都在問,DeepSeek是怎么做到的?
另外在今日,百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖在全員會上提到,DeepSeek在短期內(nèi)會對百度產(chǎn)生影響,但長期來看是利大于弊的。他表示,面對DeepSeek的來勢洶洶,首當其沖的AI產(chǎn)品,沈抖認為,是字節(jié)跳動的豆包,理由是其訓練成本和投流成本都很高 ,那么DeepSeek崛起,到底誰將受益?誰又受傷害最大?
一、關于DeepSeek的真相與謠言
不同于OpenAI,DeepSeek的成立時間很短,其背后的運營主體是杭州深度求索人工智能基礎技術研究有限公司,該公司成立于2023年7月17日。如果算上和深度求索關系密切的幻方量化,他的歷史比OpenAI久一些。
不過,在科技行業(yè),歷史長短并不是一家企業(yè)技術能力高低的決定性因素,深度求索用兩個模型證明了這一點。
2024年底,深度求索發(fā)布了新一代大語言模型V3。當時的測試結果顯示,V3的多項評測成績超越了一些主流開源模型,而且還具有成本優(yōu)勢。今年1月24日,深度求索又發(fā)布了R1,R1是深度求索引發(fā)全球關注的主要原因。據(jù)深度求索介紹,R1模型在技術上實現(xiàn)了重要突破—用純深度學習的方法讓AI自發(fā)涌現(xiàn)出推理能力,在數(shù)學、代碼、自然語言推理等任務上,性能比肩OpenAI的o1模型正式版。
更重要的是,R1延續(xù)了V3的高性價比特點,其模型訓練成本只有600萬美元,而OpenAI、谷歌等公司的投入規(guī)模為數(shù)億美元乃至數(shù)十億美元。

性能不弱+成本更低,這兩個buff讓DeepSeek吸引了全球的關注,同時也引來了爭議,第一個爭議,也是最主要的爭議就是—成本真的有這么低嗎?
在DeepSeek之前,行業(yè)的模式是通過大規(guī)模堆料,也就是算力、數(shù)據(jù),獲得性能更強的大模型。在這種邏輯的指導下,大模型一直被認為是巨頭的游戲,隨著各巨頭豪擲千金,邏輯被進一步強化,而DeepSeek打破了這個邏輯。
目前廣為流傳的成本數(shù)據(jù)是600萬美元,嚴格來說,這600萬美元指的只是預訓練過程中 GPU的花費,這只是總成本中的一部分。眾所周知,英偉達是訓練大模型GPU的主要提供者,為了應對法規(guī)要求,英偉達推出了不同版本的H100(如H800、H20),目前中國公司只能使用H20,深度求索的主力GPU應是H20,其他還包括H800和H100。
據(jù)知名半導體研究機構 Semianalysis推算,深度求索大約擁有大約10000個H800和10000個H100,以及數(shù)量更多的H20,其服務器資本支出約為16億美元,其中與運營這些集群相關的成本高達9.44億美元。也就是說,深度求索的投入規(guī)模也是億級,即便如此,其成本還是大幅低于OpenAI、谷歌等。對于用了多少GPU,深度求索其實也給出了數(shù)據(jù)—用2048塊GPU即可訓練R1,這個成本也比OpenAI低。
查詢成本的“物美價廉”也說明了DeepSeek具有成本優(yōu)勢。目前,DeepSeek R1模型的每百萬個token(符元,AI時代最基礎的運算單位)的查詢成本為0.14美元,OpenAI的成本為7.50美元。
關于DeepSeek的第二個爭議是,是否使用了OpenAI的數(shù)據(jù),提出質(zhì)疑的是OpenAI和微軟。
1月31日, OpenAI表示已經(jīng)發(fā)現(xiàn)證據(jù),證明DeepSeek利用他們的模型進行訓練,這涉嫌侵犯知識產(chǎn)權。具體來說,他們發(fā)現(xiàn)了DeepSeek“蒸餾”OpenAI模型的跡象,即使用更大模型的輸出來提高較小模型的性能,從而以較低成本在特定任務上取得類似結果。微軟則表示正在調(diào)查DeepSeek是否使用了OpenAI的API。
對于這一點,兩者的做法雖然有依據(jù),但并不符合行業(yè)主流趨勢。
OpenAI的服務條款有規(guī)定,任何人都可以注冊使用OpenAI的API,但是不能使用輸出數(shù)據(jù)訓練對OpenAI造成競爭威脅的模型,也就是說DeepSeek可以調(diào)用OpenAI的數(shù)據(jù),但不可以用來訓練大模型。不過,這個規(guī)定被很多人認為是“雙標”,因為OpenAI在訓練大模型使用了大量數(shù)據(jù),其中的一部分就沒有得到數(shù)據(jù)所有者的授權,而且使用蒸餾數(shù)據(jù)是行業(yè)內(nèi)的普遍做法。
相比之下,微軟的做法更能說明這一質(zhì)疑是否站得住腳,他在指控DeepSeek涉嫌侵權的幾個小時后,就在自家的AI平臺上就接入了DeepSeek。
二、DeepSeepk有什么過人之處?
超低的成本帶來超高的性能,是DeepSeek帶給AI行業(yè)最大的震撼;仡欀袊髽I(yè)在其他行業(yè)的發(fā)展軌跡,他們一直善于做質(zhì)價比,因此DeepSeek能脫穎而出其實是必然的。
前面提到,大模型行業(yè)此前存在算力信仰,無論是誰,如果想開發(fā)出性能更強的產(chǎn)品,都只能選擇堆算力和數(shù)據(jù)這一條路。誠然,這個策略開啟了大模型時代,海外的OpenAI和國內(nèi)的百度、字節(jié)等都受益于此。這種策略雖然仍在發(fā)揮作用,但邊際效應可能正在遞減。
以OpenAI為例,從2012年到2020年,其算力消耗平均每3.4個月就翻倍一次,8年間算力增長了30萬倍。OpenAI首席執(zhí)行官Sam Altman接受公開采訪表示,GTP-4參數(shù)量為GTP-3的20倍,需要的計算量為GTP-3的10倍;GTP-5在2024年底至2025年發(fā)布,它的參數(shù)量為GTP-3的100倍,需要的計算量為GTP-3的200-400倍。
如果每一代的性能都能有巨大的提升,那高昂的成本是可以接受的,問題在于,如果GPT-5今年還做不出來,或者性能成本提高10倍性能只提升10%、20%,那這種模式的追隨者就會大大減少。
導致這種情況出現(xiàn)的原因在于,OpenAI陷入了創(chuàng)新者窘境,他是行業(yè)開創(chuàng)者,背負了巨大的成本包袱,此時選擇閉源策略是合理的。如果GPT能持續(xù)大幅提高性能,市場就會持續(xù)買單。
而DeepSeek在技術上采取了開源的策略,所謂開源指的是軟件的源代碼可以在網(wǎng)絡上免費提供,以便進行修改和再分發(fā)。如果GPT-5的性能真的只提升了10%,那就會有很多人選擇開源,進而幫助DeepSeek成為AI時代的安卓。因此,在性能接近的前提下,DeepSeek的策略更具有普適性。
簡單來說,DeepSeek并沒有帶來顛覆性創(chuàng)新,但他的策略給行業(yè)提供了一個更有普適性的方向,讓大家不必再去堆算力也能做出高性能的大模型。
Stability AI前研究主管Tanishq Mathew Abraham,在近期的博文中強調(diào)了DeepSeek的三個創(chuàng)新點。
首先是多頭注意力機制,大語言模型通常是基于Transformer架構,使用所謂的多頭注意力(MHA)機制。DeepSeek團隊開發(fā)了一種MHA機制的變體,這種機制既能更高效地利用內(nèi)存,又能獲得更好的性能表現(xiàn)。其次是可驗證獎勵的GRPO,DeepSeek證明了一個非常簡單的強化學習(RL)流程實際上可以達到類似GPT-4的效果。更重要的是,他們開發(fā)了一種稱為GRPO的PPO強化學習算法變體,這種算法更加高效且性能更好。最后是DualPipe,在多GPU環(huán)境下訓練AI模型時,需要考慮很多效率相關的因素。DeepSeek團隊設計了一種稱為DualPipe的新方法,這種方法的效率和速度都顯著提高。
金沙江創(chuàng)投董事總經(jīng)理朱嘯虎則表示,DeepSeek的核心是不再需要人類干預,本來是RLHF(人類反饋強化學習),現(xiàn)在直接做RL(強化學習)了,所以成本可以做得很低。
綜合來看,DeepSeek的創(chuàng)新在于推理環(huán)節(jié),通過工程創(chuàng)新,優(yōu)化了大模型在推理環(huán)節(jié)上存在的痛點,讓產(chǎn)品性能實現(xiàn)了大幅提升。而這其實是早已經(jīng)注定的結果,從日用百貨到手機、汽車,中國企業(yè)一直都擅長做質(zhì)價比,DeepSeek在大模型領域延續(xù)了這一傳統(tǒng)。
三、到底誰將受益?誰會受沖擊?
毫無疑問,DeepSeek作為繼OpenAI之后第二個對行業(yè)產(chǎn)生重大影響的大模型,必將會讓一部分人受益,也會沖擊一部分人的利益。
目前來看,受沖擊較大的是提供GPU的英偉達,其市值因為DeepSeek一度下跌超過6000億美元。不過,這只是表面現(xiàn)象,受DeepSeek沖擊最大的其實是以OpenAI為首的閉源大模型廠商。
對英偉達來說,DeepSeek的另辟蹊徑在一定程度上打破了大模型的唯算力論。但是,不管是DeepSeek還是OpenAI,在做訓練時依然需要他的GPU,即便是其他大模型廠商轉(zhuǎn)向DeepSeek的策略,也要依靠英偉達。瓦特在1759年改良蒸汽機后,更高效的蒸汽機開始廣泛應用,這沒有降低對煤炭的需求,英國的煤炭總消耗指數(shù)反而出現(xiàn)了上升,這種現(xiàn)象也適用于算力市場。
相比之下,DeepSeek對OpenAI為首的閉源大模型廠商的沖擊更大。前面提到,如果OpenAI不能證明這種萬卡集群模式能持續(xù)地幫助大模型大幅提升性能,那他不僅要被投資人質(zhì)疑,還會被用戶拋棄,如此一來,其商業(yè)模式就很難走通。
DeepSeek也將對傳統(tǒng)搜索廠商產(chǎn)生沖擊,這其實在OpenAI爆火后就出現(xiàn)過一次,當時的邏輯是大模型的高效和低成本將侵蝕谷歌的搜索市場的份額。在PC互聯(lián)網(wǎng)時代,搜索是第一個殺手級應用,業(yè)內(nèi)普遍認為,AI時代的第一個殺手級應用也是搜索。

與此同時,隨著DeepSeek加快了人工智能從“訓練階段”到“推理階段”的周期,這會增加對推理芯片的需求。
具體來說,推理指的是使用人工智能根據(jù)新的信息作出預測或決策的行為,這是DeepSeek的優(yōu)勢和創(chuàng)新點。不少行業(yè)人士認為,隨著客戶采用和構建DeepSeek的開源模型,對推理芯片和計算的需求會越來越大。
人工智能芯片初創(chuàng)公司d-Matrix的首席執(zhí)行官Sid Sheth表示,DeepSeek已經(jīng)證明,較小的開源模型可以訓練得與大型專有模型一樣強大,甚至更強大,而且成本很低。隨著小型功能模型的廣泛使用,他們催化了推理的時代。因此,隨著成本的降低,AI應用的采用可能會呈指數(shù)級增長,推理環(huán)節(jié)的算力需求或?qū)⒈l(fā)。
值得注意的是,盡管DeepSeek的模式有獨到之處,由于采取了開源的策略,對手也可以用他的技術開發(fā)出相似的產(chǎn)品,這對他的商業(yè)化提出了挑戰(zhàn)。目前,李飛飛和斯坦福大學、華盛頓大學的研究人員已經(jīng)以不到50美元(只是云計算服務費)的成本,成功訓練出了類似R1的s1,s1在數(shù)學和編碼能力測試中的表現(xiàn),與OpenAI的O1和R1不相上下。
DeepSeek的成績是值得關注的,但長期來看,他還需要找到一個合適的商業(yè)化模式,才能走得更遠。
原文標題 : DeepSeek崛起,到底誰將受益?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?