訂閱
糾錯
加入自媒體

大模型,在內卷中尋找出口

2024-12-31 14:04
腦極體
關注

圖片

2024年,大模型進展不斷。從年初的Sora到最新的o3,更新更好的模型不斷被推出,“內卷”到底有沒有發(fā)生?

我們要先確定“內卷”的定義,指某一類產(chǎn)業(yè)模式,發(fā)展到一種確定形式后,陷入“高水平均衡陷阱”,出現(xiàn)“沒有發(fā)展的增長”,這種局面一直無法被打破,那就會走向停滯和危機。

圖片

而這一年,大模型的scaling law法則越來越受到挑戰(zhàn),訓練模型的算力集群已經(jīng)從萬卡發(fā)展到十萬卡,擴大了十倍,而模型的智商并沒有以這個倍率提高。應用端也沒有出現(xiàn)killer app(殺手級應用),模型廠商開始了流血換量的價格戰(zhàn)……這些特征與“內卷”的定義是契合的。

那么接下來的問題就是,內卷化讓大模型陷入危機了嗎?以及脫離內卷的出口,究竟在哪里?

圖片

在內卷化周期中,一個產(chǎn)業(yè)是很難保持活力和創(chuàng)新動力的。大模型內卷化的加劇,也讓行業(yè)進入調整期。

首先可以感受到的,就是公眾和投資者的失望。2023年,人們都用“AI一天,人間一年”來形容AI的發(fā)展,美股 “七姐妹”(蘋果、微軟、谷歌母公司alphabet、亞馬遜、英偉達、特斯拉、Meta)更是在這一股熱潮下屢創(chuàng)新高。而近來我們明顯看到,這股熱情已經(jīng)回落。

OpenAI的股東、接入模型API的服務商企業(yè),都公開抱怨過,AI能力沒有太大進展了。剛剛結束的為期12天的OpenAI 發(fā)布會,也大多是對已有模型、產(chǎn)品或技術路線的增強,符合預期,但缺乏亮點,無法為AGI提供強支撐。OpenAI前首席科學家Ilya在NeurIPS 2024大會上提出“預訓練將會終結(Pre-training as we know it will end)”,更是給大眾澆了一瓢涼水。

來自產(chǎn)學各界的質疑態(tài)度是一個比較危險的信號,因為歷史上的AI寒冬都源于信心缺失和投資退潮。

另一個危機信號,是產(chǎn)品同質化競爭和淘汰賽加劇。

基礎模型的競賽,也在2024變得格外激烈,一是模型數(shù)量過密,且性能表現(xiàn)逐漸趨同,尤其是開源模型與閉源模型的差距在快速縮小,進入同質化競爭。

圖片

二是同一廠商的模型家族,也在加速淘汰,比如GPT-3.5-Turbo就退役了,由GPT-4o mini取代,國內模廠的模型也基本如此,用戶都愿意用加量不加價、物美價更廉的新模型,舊模型沒人愿意用了。GPT-4o Mini發(fā)布后,API 的使用量翻了一番。

激烈的同質化競爭,讓模廠不敢減少訓練新模型的投入,又為了應對價格戰(zhàn)而不得不下調token價格,結果就是經(jīng)濟負擔越來越重?梢哉f,目前大模型無論是外部的宏觀形勢,還是企業(yè)的微觀經(jīng)營狀態(tài),都沒有2023年那么積極了。

圖片

模型層面,底層技術路線、數(shù)據(jù)瓶頸等無法在短期內得到有效突破,那么從商業(yè)層面尋找出路,就成為必然。

2024年,我們能看到大模型內卷,給商業(yè)模式帶來的諸多挑戰(zhàn)。

一是云+API模式,流血降價、以價換量并不是最優(yōu)解。

API調用量付費,是大模型的主要變現(xiàn)模式之一,通過token降價來贏得更多大模型業(yè)務上云,獲得長期收益,是云廠商價格戰(zhàn)的基本邏輯。但目前來看,以價換量似乎并不奏效。

圖片

究其原因,是因為B端客戶更關注模廠的長期性、模型質量,質在價先,可靠優(yōu)先。所以,我們看到,一部分以價換量成功的云廠商,本身就具有比較強的模型能力,比如文心一言兩款主力模型免費之后,百度智能云的日調用量一個月翻了十倍。基于豆包大模型家族的火山云,token調用量也大幅上升,甚至有客戶的tokens調用量增長了5000倍。這說明新用戶會傾向于頭部模型,而老用戶要么不考慮替換現(xiàn)有模型,要么會把雞蛋放在多個頭部廠商的籃子里,趁降價接入更多模型,最終留下性價比高的。而不打價格戰(zhàn)的云廠商,比如華為云將盤古大模型作為“尖刀產(chǎn)品”,也在B端市場取得了不錯的成績,與行業(yè)伙伴協(xié)同打造的煤炭大模型、醫(yī)藥大模型及數(shù)智化解決方案,今年在垂直領域的多個企業(yè)內被復用。很多行業(yè)用戶考慮華為云,就有企業(yè)抗風險能力強,能在基礎模型堅持投入,業(yè)務穩(wěn)健運營的預期考量。

圖片

上述企業(yè)說明,云+API模式成功的根本,是“質在價先”。

二是訂閱制,由于大模型內卷化,導致用戶粘性低、忠誠度不高,會員市場呈現(xiàn)出極高的分散性。

因為大模型的更新?lián)Q代非?欤环矫嫘履P驮谫|量和性價比上往往更好,“等等黨”更愿意觀望;另外很多舊模型會不再更新或退役,這就讓會員更不愿意跟平臺長期綁定。這就導致模廠為了不斷吸引新用戶,拉新營銷活動難以停止,獲客成本居高不下,而且影響用戶體驗,需要高頻彈窗廣告,打擾用戶,開發(fā)出多個會員等級和收費權益套餐,增加了用戶的決策疲勞。而好不容易拉來的新客戶,往往使用一段時間之后就轉向免費版本,或者更新更便宜的友商產(chǎn)品,長期續(xù)費率不高。

可以看到,大模型的內卷化,導致大多數(shù)模廠難以說服客戶和開發(fā)者,與其建立長期信賴關系。這就給后續(xù)的商業(yè)變現(xiàn)與價值挖掘,造成了極大挑戰(zhàn)。

圖片

告別內卷,就要向外尋找出路。數(shù)量多、同質化的大模型,形成了一個密度很高的堰塞湖。那么逃離內卷,就必須疏浚河道,緩解擁塞。所以,2025,將是大模型商業(yè)基礎設施日趨完善的一年,通過更全面的“水利設施”,讓大模型應用者和開發(fā)者們能夠更方便地取用。

如何判斷一個大模型是否“外向”?有以下幾個衡量標準:

一是模型的開放度或者說兼容性。

如前所說,內卷化周期中,用戶并不愿意將雞蛋放在一個籃子里,或者跟某一個模廠進行長期綁定,這就需要模型具備很強的開放度和兼容性。比如騰訊混元大模型的免費資源包,同時支持hunyuan-pro、hunyuan-standard、hunyuan-turbo等多個模型共享,支撐第三方平臺、ISV服務商為客戶提供多種模型的靈活選擇與切換、模型競技場等,來滿足最終客戶對多元多模的需求。

圖片

二是更細致地開發(fā)工具。

將大模型技術轉化為生產(chǎn)力,還需要加工工具、工作流等更細致的支持,比如此次OpenAI就為Sora打造了Remix、Blend和Loop三個專業(yè)工具,來支撐更好的視頻生成,為此支付每月200美元的Pro用戶也不少。國內,我們實測過的,字節(jié)跳動的扣子開發(fā)平臺、百度文心智能體開發(fā)平臺等的開發(fā)工具也已經(jīng)很容易上手了。

圖片

圖片

三是大模型應用從開發(fā)到商業(yè)化的“端到端”支持。

2024年并沒有出現(xiàn)國民級的第三方AI應用。一方面是模型能力本身還需要提升,一些AI智能體平臺充斥著大量低水平、易復制的個人智能體,對話體驗、理解能力、多模態(tài)任務等的效果一般,沒有太大商業(yè)價值;另一方面,是很多開發(fā)者不知道AI應用如何商業(yè)化,所以還沒有投入太大精力去開發(fā)市場缺乏的產(chǎn)品,滿足尚未解決的需求,這就需要平臺加大對開發(fā)者的商業(yè)資源扶持。

歸根結底,技術天花板短期內難以突破,大模型市場飽和與同質化競爭的局面就不會宣布解決。大模型要取得商業(yè)成功,前提是用戶和開發(fā)者的業(yè)務能否成功,這是為什么完善的商業(yè)基礎設施必不可少。

逃離內卷的堰塞湖,所有模廠2025年都必須回答的問題是:如果大模型是水和電,那么用戶和開發(fā)者擰開開關,究竟能得到什么?

圖片

       原文標題 : 大模型,在內卷中尋找出口

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號