訂閱
糾錯(cuò)
加入自媒體

國(guó)際巨頭角逐AI,誰(shuí)能觸及世界之巔?

想感受最新的科技,只需關(guān)注IT領(lǐng)域就夠了,因?yàn)檫@里的新技術(shù)迭代極快,幾乎每天都有創(chuàng)新。

而在IT領(lǐng)域,當(dāng)前最炙手可熱的就是人工智能,它正在引領(lǐng)著我們一步步走向“科幻電影”般的未來(lái)。

國(guó)際巨頭角逐巨量模型

就在本周,微軟和英偉達(dá)聯(lián)合發(fā)布了Megatron-Turing自然語(yǔ)言生成模型(MT-NLG)。其包含5300億個(gè)參數(shù),成為了英文領(lǐng)域最強(qiáng)的巨量模型。

而在兩周前,浪潮發(fā)布了人工智能巨量模型“源1.0”,它則是中文領(lǐng)域最強(qiáng)的巨量模型。

他們二者都代表了行業(yè)內(nèi)最先進(jìn)的人工智能巨量模型,也讓我們看到國(guó)內(nèi)企業(yè)浪潮與微軟、英偉達(dá)等巨頭站在了同一起跑線上。就訓(xùn)練難度而言,中文模型源1.0顯然更具挑戰(zhàn)。

從OpenAI的GPT-3、到浪潮的源1.0,再到微軟和英偉達(dá)聯(lián)合發(fā)布Megatron-Turing,可以看到,眾多IT巨頭們都開(kāi)始將戰(zhàn)略重點(diǎn)轉(zhuǎn)移到角逐人工智能巨量模型領(lǐng)域了。

現(xiàn)在的人工智能模型非常多,幾乎所有互聯(lián)網(wǎng)企業(yè)都在做,在搜索引擎上搜索“AI模型”,會(huì)有超過(guò)3270萬(wàn)條相關(guān)結(jié)果,足見(jiàn)其火熱程度。

那么,為什么很多IT巨頭會(huì)花費(fèi)大量精力研究巨量模型呢?

答案很簡(jiǎn)單,還不是因?yàn)橐话鉇I模型“不靠譜”!

AI應(yīng)用,依然挑戰(zhàn)滿滿

現(xiàn)在很多服務(wù)領(lǐng)域的客服系統(tǒng)都用“AI機(jī)器人”替代人工了,美其名曰智能化降低運(yùn)營(yíng)成本。但實(shí)際效果卻并沒(méi)有那么理想。

我們做個(gè)簡(jiǎn)單的測(cè)試,在電子商務(wù)平臺(tái)上問(wèn)客服一些簡(jiǎn)單問(wèn)題,“AI”會(huì)通過(guò)關(guān)鍵詞搜索形式來(lái)幫你“解答”。如果問(wèn)題稍微復(fù)雜,那么AI就無(wú)法理解用戶的意思,出現(xiàn)的結(jié)果完全就是風(fēng)馬牛不相及,此時(shí)則還需人工來(lái)受理。這其實(shí)就是模型參數(shù)不足所造成的。

并且,當(dāng)前互聯(lián)網(wǎng)等企業(yè)也面臨著嚴(yán)重的模型碎片化問(wèn)題,企業(yè)各自為政針對(duì)不同領(lǐng)域都訓(xùn)練出了很多小模型,但其真正實(shí)戰(zhàn)效果卻往往僅有最基礎(chǔ)的水平。

所以當(dāng)前亟需的是有一定通用性并且基于海量數(shù)據(jù)訓(xùn)練的巨量模型,只有這樣它才能足夠聰明。如果用讀書(shū)來(lái)比喻的話,小模型可能僅有小學(xué)生水平,而巨量模型則早已具備教授的知識(shí)量了。

源1.0,最強(qiáng)大的中文巨量模型

在巨量模型領(lǐng)域,我們看到很多都是來(lái)自國(guó)外的模型,以中文為核心的模型少之又少。正如尼采所說(shuō),“誰(shuí)也不能為你建造一座你必須踏著它渡過(guò)生命之河的橋,除你自己之外沒(méi)有人能這么做!

無(wú)論是學(xué)術(shù)界還是產(chǎn)業(yè)界,都需要擁有符合我們國(guó)人習(xí)慣的中文巨量模型,才能真正讓AI實(shí)現(xiàn)落地。

正如前文所述,浪潮人工智能研究院發(fā)布的全球最大規(guī)模人工智能中文巨量模型“源1.0”,再次刷新了多項(xiàng)記錄,其單體模型參數(shù)量達(dá)到了驚人的2457億。

這個(gè)量級(jí)大概是個(gè)什么概念呢?

當(dāng)前的“網(wǎng)紅”語(yǔ)言模型當(dāng)屬 GPT-3,其在發(fā)布之時(shí)極具里程碑意義,它的參數(shù)量是1750億個(gè),擁有570GB的英文語(yǔ)料庫(kù)。而浪潮的源1.0單體模型參數(shù)量則比GPT-3還高40%,訓(xùn)練采用的中文數(shù)據(jù)集達(dá)到了5000GB,它總共閱讀了大約 2000 億詞,是全球最大的中文數(shù)據(jù)集,在AI領(lǐng)域也絕對(duì)屬于巨量型選手。

如果說(shuō)微軟聯(lián)合英偉達(dá)5300億個(gè)參數(shù)的Megatron-Turing是業(yè)界最大的話,那么源1.0則是中文界巨量模型的魁首。

我們來(lái)舉個(gè)例子,假設(shè)人一個(gè)月能讀十本書(shū),一年讀一百本書(shū),讀50年,一生所讀不過(guò)5000本。一本書(shū)如果20萬(wàn)字的話,加起來(lái)也只有10億字。源1.0共閱讀了大約2000億詞,假如人一年讀100本20萬(wàn)字的書(shū),則需要一萬(wàn)年才能讀完這2000億詞。

沒(méi)錯(cuò),就是一萬(wàn)年,注意這可不是“大話西游”喲!

據(jù)了解,源1.0大模型共4095PD(PetaFlop/s-day)的計(jì)算量,獲得高達(dá)2457億的參數(shù)量;相對(duì)于GPT-3消耗3640PD計(jì)算量得到1750億參數(shù),源1.0大模型計(jì)算效率大幅提升。

而這些計(jì)算量的支撐,則是海量的浪潮服務(wù)器。眾所周知,浪潮AI服務(wù)器市占率已位居全球第一,并累計(jì)獲得56個(gè)MLPerf全球AI基準(zhǔn)測(cè)試冠軍,在人工智能領(lǐng)域的專利方面貢獻(xiàn)量也位居中國(guó)前列。浪潮在AI推理、訓(xùn)練方面能力絕對(duì)處于世界領(lǐng)先級(jí)。

實(shí)戰(zhàn)測(cè)試,AI水平拿下多個(gè)第一

在自然語(yǔ)言理解方面,由于分詞方式不同、同一詞組不同歧義以及新詞匯等方面挑戰(zhàn),所以中文訓(xùn)練的難度更高。

例如分詞難點(diǎn):中國(guó)科學(xué)技術(shù)大學(xué);中國(guó)科學(xué)技術(shù)大學(xué);中國(guó)科學(xué)技術(shù)大學(xué)。這三種不同的分詞形式,表達(dá)的意思有著天壤之別。這還僅僅是其中之一。

因此可以說(shuō)訓(xùn)練中文NPL要比英文難很多,源1.0的訓(xùn)練難度要比同量級(jí)英文模型難度更高。

空談理論并不務(wù)實(shí),只有真正跑起來(lái)測(cè)試才見(jiàn)真知。源1.0的水平到底如何呢?

其實(shí),它已經(jīng)刷新了權(quán)威中文語(yǔ)言理解測(cè)評(píng)基準(zhǔn)CLUE的零樣本學(xué)習(xí)和小樣本學(xué)習(xí)2項(xiàng)榜單榜首。

zero-shot零樣本學(xué)習(xí)和Few-shot learning 小樣本學(xué)習(xí)在是最能衡量巨量模型智能程度的兩項(xiàng)測(cè)試,在zero-shot榜單中,源1.0以超越第二名18.3%的絕對(duì)優(yōu)勢(shì)遙遙領(lǐng)先,在文獻(xiàn)分類(CSLDCP)、TNEWS(新聞分類),商品分類(IFLYTEKF)、OCNLIF(原生中文自然語(yǔ)言推理)、成語(yǔ)完型填空(CHIDF)、名詞代詞關(guān)系(CLUEWSCF)6項(xiàng)任務(wù)中獲得冠軍,甚至在成語(yǔ)閱讀理解填空(CHIDF)項(xiàng)目中超越人類的水平,成為最強(qiáng)人工智能。

在Few-shot learning榜單中,文獻(xiàn)分類(CSLDCP)、商品分類(IFLYTEKF)、文獻(xiàn)摘要識(shí)別真假(CSLF)、名詞代詞關(guān)系(CLUEWSCF)4項(xiàng)任務(wù)中獲得冠軍。

AI進(jìn)階:實(shí)現(xiàn)吟詩(shī)作賦

我們對(duì)人工智能的最大訴求是什么?

當(dāng)然是“以假亂真”了,更期望的是能夠代替人類完成一些具體工作。那么最好的衡量方式依然是圖靈測(cè)試,也就是通過(guò)多輪測(cè)試,然后用真人來(lái)進(jìn)行評(píng)估,如果人工智能讓平均每個(gè)參與者做出超過(guò)30%的誤判,那么這臺(tái)機(jī)器就會(huì)被認(rèn)為具備人類智能了。

在圖靈測(cè)試中,源1.0表現(xiàn)出了非凡的“智力”,受訪者平均誤判率為50.84%,在新聞生成這一領(lǐng)域,誤判率更是高達(dá)57.88%。有意思的是,將源1.0創(chuàng)作的對(duì)話、小說(shuō)續(xù)寫(xiě)、新聞、詩(shī)歌、對(duì)聯(lián),混雜在文學(xué)大師的作品中,超50.84%的人不能辨別文學(xué)大師的作品和“源1.0”的作品。

接下來(lái)我們看看源1.0的作品,對(duì)聯(lián)的上聯(lián)為:五湖四海皆春色,源1.0所對(duì)下聯(lián)為:三江八荒任我游。

數(shù)字對(duì)數(shù)字,湖對(duì)江,海對(duì)荒,皆對(duì)任,并且念起來(lái)朗朗上口,還真看不出是機(jī)器所作。

下面一首詩(shī)詞也是源1.0撰寫(xiě),戰(zhàn)鼓催征千嶂寒,陰陽(yáng)交會(huì)九皋盤(pán)。飛軍萬(wàn)里浮云外,鐵騎叢中明月邊。

感受一下,是不是很有古詩(shī)的韻味了。讓人不禁感嘆,這個(gè)水平的人工智能真的越來(lái)越強(qiáng)大了!

此外,在故事編寫(xiě)及人物對(duì)話等方面,源1.0也表現(xiàn)出了驚人的能力。

也就是說(shuō),源1.0不僅博學(xué),而且還善用。可以說(shuō),既寫(xiě)的了八股文,又能與00后們網(wǎng)聊。通過(guò)測(cè)試可以發(fā)現(xiàn),源1.0的優(yōu)勢(shì)能夠廣泛應(yīng)用于人機(jī)對(duì)話、自助服務(wù)、智能辦公以及文獻(xiàn)智能識(shí)別等等領(lǐng)域。

源1.0,打造行業(yè)AI催化劑

如此強(qiáng)大的巨量模型,會(huì)不會(huì)有很高的門(mén)檻,讓企業(yè)高攀不起呢?

據(jù)浪潮信息副總裁、浪潮信息AI&HPC產(chǎn)品線總經(jīng)理劉軍介紹,浪潮將會(huì)開(kāi)放源1.0,讓學(xué)術(shù)界和產(chǎn)業(yè)界都能夠直接使用,極大降低了巨量模型研究和應(yīng)用的門(mén)檻。

學(xué)術(shù)與產(chǎn)業(yè)相結(jié)合,給業(yè)界呈現(xiàn)出了一個(gè)有擔(dān)當(dāng)、大格局的浪潮,它不僅在服務(wù)器、存儲(chǔ)等硬件領(lǐng)域引領(lǐng)行業(yè),而且還在大數(shù)據(jù)、AI等方面展開(kāi)新探索,包括此次源1.0的推出。

源1.0對(duì)于行業(yè)都有哪些幫助呢?據(jù)劉軍介紹,很多產(chǎn)業(yè)都會(huì)在源1.0的幫助下產(chǎn)生巨變,例如運(yùn)營(yíng)商的智能運(yùn)維、智能辦公場(chǎng)景報(bào)告的自動(dòng)生成、手機(jī)互聯(lián)網(wǎng)用戶自動(dòng)對(duì)話的智能助手等等,未來(lái)都能夠變得更加智能。

正如劉軍所說(shuō),AI正在飛速進(jìn)步,浪潮希望有足夠的動(dòng)力快速推動(dòng)數(shù)據(jù)、算法和算力這三駕馬車(chē),降低AI開(kāi)發(fā)者和行業(yè)用戶的使用門(mén)檻,以更通用的人工智能巨量模型賦能科研創(chuàng)新、公共服務(wù)智慧化升級(jí)和產(chǎn)業(yè)AI化應(yīng)用,加速人工智能落地,進(jìn)而構(gòu)建出一個(gè)智慧化的未來(lái)。

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)