給中國廠商潑一盆冷水:火爆的ChatGPT,可能在2024年破產(chǎn)?
眾所周知,自從ChatGPT火爆之后,引發(fā)了千模大戰(zhàn),特別是中國市場,幾十家企業(yè)涌入這個賽道,搞類似于ChatGPT這樣的AI大模型。
百度、阿里、騰訊、華為、訊飛這樣的大企業(yè)在搞,我們能理解,很多小企業(yè),初創(chuàng)企業(yè)也邁入進來,搞起了AI模型。
據(jù)統(tǒng)計,短短半年左右的時間,國內(nèi)已有超過80個大模型公開測試……
不過,這些大模型誰能笑到最后,卻無人得知。
而大家模仿和學習的ChatGPT,已經(jīng)遇到了難題,從6月份開始,ChatGPT的網(wǎng)站,不管是流量,還是獨立訪問數(shù),以及訪客花費的時間,均下滑了10%以上。
不僅如此,火爆的投資圈,也開始謹慎評估大模型,因為大模型泡沫太大了。
而近日,更是有一份報告,給了大模型迎頭潑了一盆冷水,報告稱OpenAI 僅運行其人工智能服務ChatGPT每天就要花費約 70 萬美元。
而商業(yè)化不給力,OpenAI 目前一直處于燒錢的狀態(tài),按照燒錢速度計算,如果 OpenAI 不能很快獲得更多資金,那么很可能在 2024年底之前,OpenAI就得申請破產(chǎn)。
報告也許有點夸張,但卻也是實情,因為搞AI大模型確實太燒錢了。
前期投入非常大,需要的高端GPU數(shù)量太多,比如GPT-4可能在大約10000-25000張A100上進行了訓練,而根據(jù)馬斯克的說法,GPT-5可能需要30000-50000個H100。
A100售價超過1萬美元,僅前期訓練這一塊的投資就是數(shù)億美元。
訓練過程中,除了GPU的投入外,還需要大量的資金,比如還包括訓練中的人工標注等等,也是不小的開支。
后期運營更是需要海量的資金,建立龐大的計算集群等,維持計算集群的運行等等,ChatGPT目前運營就需要70萬美元1天。
前面已經(jīng)說過,國內(nèi)目前已經(jīng)有超過80家大模型在測試了,還有更多的沒有在測試,還處于研發(fā)狀態(tài)的大模型,但實際上,我們真的需要這么多的大模型么?這是要打一個問號的。
更何況,如果連ChatGPT都撐不住,要破產(chǎn)的話,那它的模仿者,又有多少能夠活下來呢?
原文標題 : 給中國廠商潑一盆冷水:火爆的ChatGPT,可能在2024年破產(chǎn)?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?