GPT成為耗電狂魔,一年電費2億元?
文/陳根
3月11日,《紐約客》發(fā)布的一篇文章引起了廣泛關(guān)注。根據(jù)文章報道,ChatGPT每天大約要處理2億個用戶請求,每天消耗電力50萬千瓦時,相當于美國家庭每天平均用電量(29千瓦時)的1.7萬多倍。
也就是說,ChatGPT一天的耗電量,大概等于1.7萬個家庭一天的耗電量,ChatGPT一年,光是電費,就要花2億元。
《紐約客》還在文章中提到,根據(jù)荷蘭國家銀行數(shù)據(jù)科學家Alex de Vries的估算,預計到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力(1太瓦時=10億千瓦時)。這個電量相當于肯尼亞、危地馬拉和克羅地亞三國的年總發(fā)電量!都~約客》的消息一出,直接沖上了微博熱搜。
事實上,在這之前,關(guān)于AI耗電的討論就已經(jīng)有很多了,不管是研究報告還是調(diào)查數(shù)據(jù),都顯示人工智能已經(jīng)成為了耗電大戶,并且,隨著人工智能的發(fā)展,耗電量還會越來越大。
科羅拉多大學與德克薩斯大學的研究人員在一篇名為“讓AI更節(jié)水”的預印論文中也發(fā)布了訓練AI的用水估算結(jié)果,顯示訓練GPT-3所需的清水量相當于填滿一個核反應堆的冷卻塔所需的水量。并且在使用過程中,ChatGPT(在GPT-3推出之后)每與用戶交流25到50個問題,就得“喝下”一瓶500毫升的水來降溫。
人工智能為啥這么耗電?這其實和人工智能的工作原理有關(guān)。人工智能工作原理的核心,就是計算。而本質(zhì)上,計算就是把數(shù)據(jù)從無序變成有序的過程,這個過程則需要一定能量的輸入。特別是為了處理海量的數(shù)據(jù)和復雜的計算任務,人工智能系統(tǒng)需要強大的計算能力和存儲設(shè)備,而這些設(shè)備在運行過程中會產(chǎn)生大量的熱量和能耗。
并且,隨著人工智能技術(shù)的不斷發(fā)展,對芯片的需求也在急劇增加,進一步推動了電力需求的增長。
可以很明確的說,人工智能如果想進一步發(fā)展和突破,或者說人工智能如果要真正地進入人類社會中應用,必須要解決耗能問題。
如果依然是遵照傳統(tǒng)路徑,繼續(xù)購買算力來擴增人工智能的計算能力,那么人工智能將會對電力的需求形成一個無底洞。對于AI耗能的問題,奧特曼也曾警告說,下一波生成型人工智能系統(tǒng)消耗的電力將遠遠超出預期,能源系統(tǒng)將難以應對。馬斯克也多次表達了對未來能源基礎(chǔ)設(shè)施,尤其是電力和變壓器短缺將成為AI技術(shù)突破運行的瓶頸,而這種電力短缺最早可能在2025年就會出現(xiàn)。
而解決耗能問題的關(guān)鍵,就在于發(fā)展新的能源技術(shù),比如可控核聚變,或者更便宜的太陽能及存儲等等。說到底,科技帶來的能源資源消耗問題,依然只能從技術(shù)層面來根本性地解決。
當然這也讓我們看到為什么奧特曼在打造通用人工智能的道理上,也提前投資了可控核聚變公司的初衷。曾經(jīng)的趕英超美,今天回頭看我們是最大的糧食進口大國;如今國內(nèi)一些人工智能企業(yè)喊出的趕超OpenAI,過幾年回頭看,大家覺得會是一個什么結(jié)果?
原文標題 : 陳根:GPT成為耗電狂魔,一年電費2億元?

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風翻身?