訂閱
糾錯
加入自媒體

從高光到塌房,Meta Llama 4 遭遇驚魂72小時

2025-04-09 09:31
雷科技
關注

都是DeepSeek逼的?

開源大模型 Llama 4 的翻車還在持續(xù)發(fā)酵。

4 月 8 日,作為大語言模型「權威榜單之一」的 Chatbot Arena(民間俗稱「大模型競技場」)發(fā)布了一則語氣罕見嚴肅的聲明。面對社群對于 Meta 新模型 Llama 4 排名的質疑,官方表示將公開 2000 多場真人對比測試的完整數據,并罕見點名 Meta:

「Meta 應該更清楚地表明『Llama-4-Maverick-03-26-Experimental』是一個作為人類偏好進行優(yōu)化的定制化模型。我們正在更新排行榜的策略,以避免此類混淆再次發(fā)生。」

截屏2025-04-08 20.19.51.png

圖/ X

這條聲明不只是澄清,一定程度上也是對整個大模型行業(yè)的一記警鐘。

Chatbot Arena 由加州大學伯克利分校發(fā)起,是當前大模型評測中可能最具行業(yè)影響力的「真人盲測」排行榜,核心的機制是通過讓開發(fā)者和 AI 愛好者會在平臺上用相同問題向兩款模型提問,對比回答內容并投票打分。

而這種「真人盲測」的機制,讓 Chatbot Arena 有別于其他任何基準測試,也成為了外界最為信賴的大模型排行榜。可以說,一款模型是否登上「Chatbot Arena 排行榜」前列,在一定程度上直接影響其在媒體和開發(fā)者群體中的口碑與采納率。

正因如此,當 Meta 在 4 月 5 日發(fā)布其最新一代開源大模型 Llama 4,隨后快速沖上Chatbot Arena 排行榜第二,力壓一眾頂級大模型,僅次于 Google 前腳發(fā)布的 Gemini 2.5 Pro,自然也就引起了所有人的好奇和期待。

但很快,社區(qū)發(fā)現這一版本是未公開、定制化調優(yōu)的「實驗模型」,而并非 Meta 開源的正式版。于是,爭議爆發(fā):這算不算「刷榜」?Chatbot Arena 是否被利用為營銷工具?Meta 為什么要這樣操作?

更糟的是,在部分官方沒有展示的專業(yè)基準測試中,Llama 4 表現也不盡如人意,幾乎墊底。不少第一批嘗試的用戶也在 Reddit、X 等社交平臺上發(fā)文表達了失望,有人就在發(fā)帖中提到 Llama 4 在編程能力上的不盡如人意,并指出:

「考慮到 Llama-4-Maverick 有 402B 的參數量,我為什么不直接使用 DeepSeek-V3-0324 呢?或者 Qwen-QwQ-32B 可能更合適——雖然性能相似,但它的參數量只有 32B!

截屏2025-04-08 20.28.23.png

圖/ Reddit

這讓人不禁疑惑,曾經被開源陣營寄予厚望、憑借 Llama 2 和 Llama 3 逐漸建立口碑的 Meta,為什么就在 Llama 4 翻了車?

從高光到塌房,Llama 4的72小時驚魂

時間回到 4 月 5 日,Meta 在官方博客上發(fā)布《The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation》一文,正式宣布 Llama 4 系列模型面向社區(qū)開源。

這一次,Meta 公開了最新一代模型的三個版本:Llama 4 Scout、Llama 4 Maverick、還在訓練中的「教師模型」Llama 4 Behemoth,均首次采用了混合專家(MoE)架構。

Llama-4-1.png

圖/ Meta

其中最主流、最受關注的 Maverick 版本,是擁有 128 個「專家」的 170 億活躍參數模型(總參數為 4000 億),Meta 將其描述為「同類最佳的多模態(tài)模型」,強調其在多方面超過了 Gemini 2.0 與 GPT-4o,在編碼和推理方面比 Deepseek 3.1 更有競爭力。

但就在 Llama 4 發(fā)布不久,情況迅速脫離了 Meta 的預期。

在社區(qū)層面,首批用戶對 Llama 4 的表現并不買賬。在多個測試中,尤其是在需要代碼能力和嚴謹邏輯推理的場景中,Llama 4 的表現并沒有兌現其超越 GPT、DeepSeek 的表現。包括在 Aider Chat 提供的 Polyglot 編程測試中,Maverick 版本的正確率僅為 16%,處于排行榜末尾。

不僅與其龐大的參數體量完全不符,甚至落后于規(guī)模更小的開源模型,比如 Google Gamma 。這種結果讓不少開發(fā)者大感意外,也與官方宣傳形成了強烈反差。

489039141_17878176075285119_3305638652462632010_n.jpg

圖/ Chatbot Arena

風評下滑之際,更嚴厲的質疑也接踵而至——Llama 4 是否使用了公開測試集進行訓練?是否針對通用基準的 Chatbot Arena 針對性優(yōu)化?這些質疑都在技術社區(qū)迅速傳播、發(fā)酵,包括 Chatbot Arena 在聲明中盡管并未使用「作弊」等字眼,但字里行間的語氣已足夠強硬和不滿。

尤其是中文移民社區(qū)「一畝三分地」上,自稱提交辭呈、要求從 Llama 4 技術報告中刪除名字的「Meta 員工」發(fā)帖表示,隨著 Deadline(截止日期)的逼近,Meta 最終選擇了將各個基準測試的測試集混合在 Post-Training「后訓練」(對應大模型的「預訓練」階段)之中。

不過 Meta 團隊很快出面做了澄清,一位經手「后訓練」的 Meta GenAI 成員實名(Licheng Yu)表示:

「這兩天虛心聆聽各方 feedback(比如 coding、creative writing 等缺陷必須改進)希望能在下一版有提升。但為了刷點而 overfit 測試集我們從來沒有做過,實名 LichengYu,兩個 oss model 的 post training 有經手我這邊請告知哪條 prompt 是測試集選出來放進訓練集的我給你磕一個+道歉!」

截屏2025-04-08 20.36.36.png

圖/ Licheng Yu

公開資料顯示,Licheng Yu(虞立成)本科畢業(yè)于上海交通大學,2014 年獲佐治亞理工學院和上海交通大學雙碩士學位,2019 年獲北卡羅來納大學教堂山分校計算機科學博士學位,2023 年 6 月至今在 Meta 擔任研究科學家經理,并參與了 Llama 3、Llama 4 項目。

同時,負責 Meta GenAI 的副總裁 Ahmad Al-Dahle 也在 X 平臺明確表示,「Meta 沒有在測試集上訓練 Llama 4。」而針對 Llama-4-Maverick-03-26-Experimental,Meta 也在爭議發(fā)生后選擇了發(fā)布開源版本,以回應外界的批評。

截屏2025-04-08 20.38.24.png

圖/ X

但這些回應顯然都沒能回避掉一個問題:Llama 4 的真實能力。事實上,不管是 Licheng Yu,還是 Ahmad Al-Dahle,都在駁斥部分質疑的同時承認了 Llama 4 在性能存在的問題。

作為開源陣營中曾經「最有希望挑戰(zhàn) OpenAI」的旗手,Llama 4 原本承載著開發(fā)者與產業(yè)界的高度期待。但現在,它卻在發(fā)布一周內從「高光」跌入「信任危機」,成為大模型競賽中一次罕見的口碑「滑鐵盧」。

DeepSeek加速開源,Meta被逼到失速

如果只看表面,這次 Llama 4 的口碑翻車,似乎充滿了戲劇張力——匿名離職員工爆料稱,Meta 高層為了趕上內部設定的 Deadline,要求將各大測試集混入 「后訓練」,只為「一個能看的結果」。甚至還傳言,負責 AI 的副總裁 Joelle Pineau 也因反對這一做法而離職。

不過從目前公開的信息來看,這些說法經不起推敲。關于使用測試集進行后訓練一事,前文的回應其實已經基本澄清。而 Joelle Pineau 的離職發(fā)生在發(fā)布前兩天,但她并不負責生成式 AI 團隊,而是領導 Meta Fundamental AI Research(FAIR)研究部門,與 Llama 4 項目并無直接關聯(lián)。

Untitled-design-19-1300x731.jpg

發(fā)布前幾天離職的 Joelle Pineau,圖/ Meta

在辟除這些輿論雜音之后,真正的問題才浮出水面。追根究底,Llama 4 的問題,不在于造假,而在于開源大模型競爭加劇下的失速。

過去兩年,Meta 憑借 Llama 2 和 Llama 3,逐步在開源模型市場上建立起「領先、可靠」的認知。然而到了 Llama 4,情況已經發(fā)生了巨大的變化,DeepSeek V3/R1 的發(fā)布扭轉了開源與閉源模型的差距,并且大大加速了開源模型的發(fā)展速度。

這讓原本作為「開源領導者」的 Llama 面臨更大的壓力。

盡管我們認為前文爆料很多經不起推敲,但有一點卻是現實:Llama 4 確實有 Deadline。這一點從 Llama 4 Behemoth 還在訓練中就得以窺見,而且在參數規(guī)模膨脹、架構復雜化(MoE)的同時,Llama 4 很可能沒有留出足夠的測試和改進時間,才導致發(fā)布后不穩(wěn)定的性能表現。

67f17f54363f2716703eb03c_llama-4-og.png

圖/ Meta

此外,Meta 也沒能控制住動作的變形。Llama-4-Maverick-03-26-Experimental 針對對話模式的優(yōu)化本身無可厚非,但「首發(fā)」Chatbot Arena 的目的卻是路人皆知。我們也不知道,這個特調版本又犧牲了哪些?

而從目前來看,Meta 的做法顯然錯了,經過能在發(fā)布之處獲得更高的期待、更多的關注,但之后的實際表現不僅讓人更加失望,也打破了用戶對 Llama 系列「領先、可靠」的認知。

怎么看都是輸。

Meta 當然還有機會補救。只是,它首先必須正面面對 DeepSeek、Qwen、Gamma 等其他大模型已經崛起、甚至超越自己的現實,才能談重整河山。

     來源:雷科技

           原文標題 : 從高光到塌房,Meta Llama 4 遭遇驚魂72小時

    聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

    發(fā)表評論

    0條評論,0人參與

    請輸入評論內容...

    請輸入評論/評論長度6~500個字

    您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

    暫無評論

    暫無評論

      掃碼關注公眾號
      OFweek人工智能網
      獲取更多精彩內容
      文章糾錯
      x
      *文字標題:
      *糾錯內容:
      聯(lián)系郵箱:
      *驗 證 碼:

      粵公網安備 44030502002758號