訂閱
糾錯
加入自媒體

訓(xùn)練18個月GPT-5跳票!AI大模型的泡沫要破裂了?

2024-12-24 16:55
雷科技
關(guān)注

OpenAI遭遇史上最大危機?

12月上旬到中旬,OpenAI召開了為期12天的馬拉松式發(fā)布會,每天都會公布一些新產(chǎn)品或新技術(shù),帶來了包括增強版o1大模型、文生視頻大模型Sora Turbo、精簡版推理模型o3-mini,以及高級語音模式增強等成果。

然而連續(xù)12天的發(fā)布會,卻未能收獲太高熱度,即使是多款全面升級的大模型和文生視頻大模型Sora Turbo,討論度也十分有限,收到的吐槽可能比贊揚更多。

QQ20241223-192436.png

(圖源:OpenAI)

其中的原因很簡單,這些大模型功能確實更強了,可以幫助用戶完成更多任務(wù),但沒有太多本質(zhì)上的提升。廣大用戶期盼已久的GPT-5沒有來,全新產(chǎn)品Sora Turbo也僅能生成最長20秒鐘的1080P視頻,未達(dá)到其在2024年初宣傳的2分鐘時長。

2023年3月GPT-4發(fā)布后,OpenAI就啟動了代號為“Orion”(獵戶座)的GPT-5研發(fā)項目。OpenAI主要投資者微軟原計劃2024年中期看到GPT-5,結(jié)果18個月時間過去了,GPT-5卻依然難產(chǎn)。

面對遲遲未能發(fā)布的GPT-5,《華爾街日報》表示,OpenAI的AI項目費用極高,卻不清楚何時能成功,甚至難以確定究竟能否成功。還有人質(zhì)疑,問題或許不在OpenAI身上,而在于AI行業(yè)的發(fā)展已進入瓶頸。

耗資甚巨卻不見成效,OpenAI遭遇大麻煩

2023年中期,OpenAI啟動了針對Orion的首次實戰(zhàn)測試項目,代號“Arrakis”。然而測試結(jié)果卻顯示,更大規(guī)模的AI大模型訓(xùn)練所需時間極長,會導(dǎo)致整體成本飆升。

OpenAI工作人員認(rèn)為,Orion進展緩慢的原因在于沒有足夠多的高質(zhì)量數(shù)據(jù)。早之前,OpenAI不斷從互聯(lián)網(wǎng)抓取數(shù)據(jù),將新聞報道、社交媒體的帖子、科學(xué)論文等數(shù)據(jù)統(tǒng)統(tǒng)拿去訓(xùn)練大模型,甚至因此遭到加拿大Torstar Corp集團的起訴。

然而現(xiàn)有的互聯(lián)網(wǎng)數(shù)據(jù)不夠訓(xùn)練出GPT-5,因此OpenAI想到了一個方案——原創(chuàng)數(shù)據(jù)。OpenAI正在招聘人員,負(fù)責(zé)編寫軟件代碼或解決數(shù)學(xué)問題,供Orion學(xué)習(xí)。顯而易見,該方案勢必導(dǎo)致Orion訓(xùn)練時間進一步延長,訓(xùn)練所需的成本也會大幅提高。

電腦與代碼及 AI (2).png

(圖源:AI生成)

2024年初,感受到同行的壓力后,OpenAI接連對Orion進行了幾次小規(guī)模訓(xùn)練,并于5月到11月啟動了第二次大規(guī)模訓(xùn)練,可數(shù)據(jù)量太少、數(shù)據(jù)多樣化不足的問題依然存在。

OpenAI CEO山姆·奧特曼(Sam Altman)曾表示,訓(xùn)練GPT-4的費用大約是1億美元,未來AI模型訓(xùn)練費用將達(dá)到10億美元。而現(xiàn)在,GPT-5為期個月的訓(xùn)練已耗費了5億美元,且未能取得理想的效果。

困擾OpenAI的不只是數(shù)據(jù)和成本,外部競爭同樣關(guān)鍵。AI行業(yè)爆火后,對于人才的需求暴增,身為行業(yè)領(lǐng)頭羊的OpenAI,自然成了其他企業(yè)爭相挖墻腳的對象。OpenAI最初的11位聯(lián)合創(chuàng)始人,已有9人離職,首席技術(shù)官Mira Murati、首席研究官Bob McGrew、研究副總裁Barret Zoph等高層也于2024年相繼離職。

另一方面,來自對手的競爭迫使OpenAI開拓更多賽道,如打造精簡版的GPT-4和文生視頻大模型Sora等。知情人士稱,這些新的項目導(dǎo)致OpenAI內(nèi)部新品開發(fā)團隊和Orion研究人員不得不爭搶有限的資源。

對于OpenAI而言,唯一值得慶幸的是,不只是OpenAI遇到了數(shù)據(jù)、資金問題。曾在谷歌、OpenAI工作過的Ilya Sutskever直言,數(shù)據(jù)是AI的化石燃料,而這份燃料即將耗盡,但我們只有一個互聯(lián)網(wǎng),最大化數(shù)據(jù)的時代已經(jīng)過去了。

正因如此,《華爾街日報》才會質(zhì)疑GPT-5最終能否研發(fā)成功。但數(shù)據(jù)量的局限性,真的鎖死AI行業(yè)的發(fā)展了嗎?

賦予AI大模型思維能力,這是OpenAI的大餅?

盡管Orion項目耗費了大量資金,但擁有微軟、蘋果等互聯(lián)網(wǎng)巨頭支持的OpenAI,暫時不缺資金,所缺的唯有數(shù)據(jù)和算力。

面對數(shù)據(jù)量不足的問題,OpenAI研究人員想到了一個捷徑——給予AI大模型更長的思考時間,去解決未經(jīng)訓(xùn)練的困難問題。也就是說,OpenAI要憑借賦予大模型思維能力的方法,規(guī)避數(shù)據(jù)量不足的問題,令其可以像人類一樣思考,去解決從未遇到類型的問題。

問題是,AI大模型真的具有思維能力嗎?蘋果研究員在《理解大語言模型中數(shù)學(xué)推理局限性》論文中提出了異議,蘋果研究人員稱,AI大模型只能套用現(xiàn)有模式,不具備真正的推理能力。蘋果還舉了一個奇異果測試案例,在該案例中,當(dāng)描述語加了句廢話“其中五個比平均較小”,GPT-4o mini便無法準(zhǔn)確計算奇異果數(shù)量。

在之前的文章中,小雷曾實測了該案例,GPT-4o mini雖計算失敗,但豆包、Kimi等多款大模型成功通過測試。另外,現(xiàn)在向AI大模型詢問數(shù)學(xué)問題,得到的回答通常會帶有解題思路,也能夠說明大模型已不再是單純套用訓(xùn)練過的模式,而是根據(jù)一定的邏輯去解題。

通過這種方式,訓(xùn)練AI大模型所需的數(shù)據(jù)量自然會大幅減少,未來甚至有可能實現(xiàn)僅輸入數(shù)學(xué)公式就能解決相應(yīng)問題。當(dāng)然,目前AI大模型的能力還沒有達(dá)到這種地步,高質(zhì)量數(shù)據(jù)依然不可或缺。

高質(zhì)量數(shù)據(jù)真的如Ilya Sutskever所言,被用完了嗎?小雷認(rèn)為,答案是否定的。準(zhǔn)確地說,容易采集的數(shù)據(jù)被用完了。

訓(xùn)練AI大模型的數(shù)據(jù)主要有三大來源:第一,公開數(shù)據(jù),如部分機構(gòu)或組織公開的開源數(shù)據(jù)、互聯(lián)網(wǎng)上的帖子、論文等等,盡管互聯(lián)網(wǎng)數(shù)據(jù)也存在版權(quán)問題,但審查并不嚴(yán)格,而且方便抓。坏诙杂袛(shù)據(jù),如阿里巴巴、小米等企業(yè)開發(fā)AI大模型,完全可以使用平臺用戶積累的數(shù)據(jù);第三,合作數(shù)據(jù),AI公司與其他企業(yè)交換或購買到的數(shù)據(jù)。

電腦與代碼及 AI (1).png

(圖源:AI生成)

被采集完的數(shù)據(jù),主要指公開數(shù)據(jù)和自有數(shù)據(jù),合作數(shù)據(jù)還有極大的挖掘空間。例如在中國互聯(lián)網(wǎng)文化的發(fā)展歷程中,網(wǎng)頁端的占比沒有想象中大,大量數(shù)據(jù)集中在App開發(fā)者手中,與開發(fā)者合作互換或購買這部分?jǐn)?shù)據(jù),同樣可以用于訓(xùn)練大模型。另外,不少企業(yè)也會有一些保密數(shù)據(jù),AI公司也可以買來訓(xùn)練大模型。

這些數(shù)據(jù)并未公開,企業(yè)需要付出一定的成本才能獲取到,可能會增加AI公司訓(xùn)練大模型的成本。因而不少AI公司也在考慮,使用AI生成的數(shù)據(jù)或?qū)σ延袛?shù)據(jù)進行變換處理,用于訓(xùn)練AI大模型。

不過AI創(chuàng)作的數(shù)據(jù)用于訓(xùn)練自身,可能會出現(xiàn)故障或生成無意義內(nèi)容,因而需要另一款A(yù)I大模型負(fù)責(zé)生成數(shù)據(jù),以規(guī)避該問題,這種方案同樣需要大量資金。

AI大模型的發(fā)展進入了瓶頸,但遠(yuǎn)沒有到盡頭,只是AI企業(yè)獲取數(shù)據(jù)的成本飆升,且對于算力的需求更高。解決困境的方法也很簡單,那就是盡快實現(xiàn)盈利。

AI大模型成了吞金獸,燒錢模式何時休?

前幾年元宇宙、區(qū)塊鏈、一滴血預(yù)測所有疾病等轟動全球的泡沫接連被戳破,導(dǎo)致不少網(wǎng)友懷疑AI也是泡沫和騙局。就小雷的體驗而言,AI已成為提高我們工作效率的好幫手,如本文多張配圖便是由AI生成,AI絕非泡沫,但資金問題已然成為困擾AI技術(shù)發(fā)展的重要因素。

今年初,奧特曼曾表示,需要7萬億資金重塑全球半導(dǎo)體行業(yè)格局,為AI大模型的訓(xùn)練提供足夠的算力支持。當(dāng)時幾乎所有人都認(rèn)為奧特曼的想法不切實際,NVIDIA CEO黃仁勛更是表示,目前全球數(shù)據(jù)中心總價值僅1萬億美元。

現(xiàn)在看來,7萬億美元都不見得能夠?qū)I行業(yè)推至巔峰,AI公司仍需為數(shù)據(jù)付出極高代價。沒有大量數(shù)據(jù),AI大模型就難以產(chǎn)生質(zhì)變,若不能質(zhì)變,其帶來的價值不夠,又可能導(dǎo)致投資者放棄支持。在AI大模型一只腳踏入瓶頸的今天,盡快扭虧為盈方能激活A(yù)I行業(yè)。

當(dāng)前全球付費版AI大模型的訂閱價格都相當(dāng)昂貴,行業(yè)領(lǐng)頭羊OpenAI推出的ChatGPT更是如此,ChatGPT Plus訂閱價格已高達(dá)20美元/月,更強的ChatGPT Pro則達(dá)到了驚人的200美元/月。

微信圖片_20241223202412.png

(圖源:ChatGPT截圖)

然而提高訂閱費用就能實現(xiàn)盈利嗎?恐怕不行。愿意付費使用的個人用戶始終是少數(shù),唯有打造專業(yè)應(yīng)用場景,從企業(yè)身上賺錢,方能盡快實現(xiàn)盈利。更何況專業(yè)場景訓(xùn)練所需的數(shù)據(jù)和算力較少,能夠一定程度節(jié)省成本。C端市場向來錢少事多加眾口難調(diào),可以暫時減少相關(guān)投入,以降低支出成本。

AI公司實現(xiàn)盈利后,投資者自然更有信心投入資金支持,公司也將有更多資金購買數(shù)據(jù)和算力芯片,從而訓(xùn)練和提升AI大模型。

來源:雷科技

       原文標(biāo)題 : 訓(xùn)練18個月GPT-5跳票!AI大模型的泡沫要破裂了?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號