人工智能之循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
前言:人工智能機器學(xué)習(xí)有關(guān)算法內(nèi)容,人工智能之機器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點探討一下循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)算法。
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)現(xiàn)已成為國際上神經(jīng)網(wǎng)絡(luò)專家研究的重要對象之一。它是一種節(jié)點定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò),最初由Jordan,Pineda.Williams,Elman等于上世紀(jì)80年代末提出的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型。
引領(lǐng)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN研究的主要是JuergenSchmidhuber和他的學(xué)生——其中包括SeppHochreiter,他發(fā)現(xiàn)了高深度網(wǎng)絡(luò)所遇到的梯度消失問題,后來又發(fā)明了長短期記憶(LSTM)循環(huán)網(wǎng)絡(luò);還有Alex Graves,他目前在DeepMind任職。另外兩位比較著名的研究者分別是:Felix Gers,他發(fā)明了LSTM遺忘門;Justin Bayer,他發(fā)明了可以讓LSTM拓?fù)浣Y(jié)構(gòu)根據(jù)具體問題進行自動演化的方法。
RNN概念:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent NeuronNetwork)的內(nèi)部狀態(tài)可以展示動態(tài)時序行為。不同于前饋神經(jīng)網(wǎng)絡(luò)的是,RNN可以利用它內(nèi)部的記憶來處理任意時序的輸入序列,這讓它可以更容易處理如不分段的手寫識別、語音識別等。
循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)可以實現(xiàn)并行和序列計算,原則上可以計算任何傳統(tǒng)計算機所能計算的東西。但和傳統(tǒng)計算機不同的是,RNN與人類大腦有相似之處;人腦是一種由神經(jīng)元相互聯(lián)結(jié)組成的大型前饋網(wǎng)絡(luò),可以借由某種方式學(xué)會將長達人的一生的感覺信號輸入流轉(zhuǎn)換為一個有效的運動輸出序列。人腦是一個杰出的模范,因為它能解決許多計算機尚且力所不及的問題。
RNN特征:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的本質(zhì)特征是在處理單元之間既有內(nèi)部的反饋連接又有前饋連接。從系統(tǒng)觀點看,它是一個反饋動力系統(tǒng),在計算過程中體現(xiàn)過程動態(tài)特性,比前饋神經(jīng)網(wǎng)絡(luò)具有更強的動態(tài)行為和計算能力。
RNN分類:
1)完全遞歸網(wǎng)絡(luò)(Fully recurrent network)
2)Hopfield網(wǎng)絡(luò)(Hopfield network)
3)Elman networks and Jordannetworks
4)回聲狀態(tài)網(wǎng)絡(luò)(Echo state network)
5)長短記憶網(wǎng)絡(luò)(Long short term memery network)
6)雙向網(wǎng)絡(luò)(Bi-directional RNN)
7)持續(xù)型網(wǎng)絡(luò)(Continuous-time RNN)
8)分層RNN(Hierarchical RNN)
9)復(fù)發(fā)性多層感知器(Recurrent multilayer perceptron)
10)二階遞歸神經(jīng)網(wǎng)絡(luò)(Second Order Recurrent Neural Network)
11)波拉克的連續(xù)的級聯(lián)網(wǎng)絡(luò)(Pollack’s sequential cascaded networks)
RNN與FNN區(qū)別:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN和前饋神經(jīng)網(wǎng)絡(luò)FNN的最大區(qū)別在于有一個反饋循環(huán)。另外,兩者的記憶模式完全不同。在定型之后,前饋神經(jīng)網(wǎng)絡(luò)會生成已學(xué)習(xí)數(shù)據(jù)的靜態(tài)模型,然后接受新的樣例,進行準(zhǔn)確的分類或聚類。而循環(huán)神經(jīng)網(wǎng)絡(luò)RNN則會生成動態(tài)模型,即會隨時間推移而變化的模型,即將第n-1步的輸出反饋給神經(jīng)網(wǎng)絡(luò),對第n步的輸出產(chǎn)生影響,之后的每一步也都以此類推。這種變化可以讓模型依據(jù)輸入樣例的上下文來進行準(zhǔn)確的分類。
RNN模型與記憶:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN包含了決定同個序列中的前一次分類結(jié)果的隱藏狀態(tài)。以后每一步,這一隱藏狀態(tài)會與新一步的輸入數(shù)據(jù)相加,生成一個新的隱藏狀態(tài),再得出一個新的分類結(jié)果。每個隱藏狀態(tài)都會被循環(huán)利用,生成經(jīng)過調(diào)整的后續(xù)隱藏狀態(tài)。
人類的記憶模式同樣能考慮上下文,循環(huán)利用對于過往狀態(tài)的認(rèn)知來恰當(dāng)?shù)亟庾x新數(shù)據(jù)。人類會受到短期記憶和先前感覺的影響,保留了不同的“隱藏狀態(tài)”。
RNN基本結(jié)構(gòu):
RNN是一種對序列數(shù)據(jù)建模的神經(jīng)網(wǎng)絡(luò),即一個序列當(dāng)前的輸出與前面的輸出也有關(guān)。具體的表現(xiàn)形式為網(wǎng)絡(luò)會對前面的信息進行記憶并應(yīng)用于當(dāng)前輸出的計算中,即隱藏層之間的節(jié)點不再無連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時刻隱藏層的輸出。下面是一個RNN模型的示例圖,其中:
xt是t時刻的輸入;
st是t時刻的隱狀態(tài)(memory),基于上一時刻的隱狀態(tài)和當(dāng)前輸入得到:st=f(Uxt+Wst?1),其中f一般是非線性的激活函數(shù),在計算s0時,需要用到s?1。
ot表示t時刻的輸出,ot=softmax(Vst);
在RNN中,所有層次均共享同樣的參數(shù)。其反應(yīng)出RNN中的每一步都在做相同的事,只是輸入不同,因此大大地降低了網(wǎng)絡(luò)中需要學(xué)習(xí)的參數(shù)。
RNN允許對向量的序列進行操作:輸入可以是序列,輸出也可以是序列,在最一般化的情況下輸入輸出都可以是序列。輸出序列理解為RNN關(guān)于序列下一個狀態(tài)預(yù)測的信心程度。
RNN參數(shù)訓(xùn)練:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的參數(shù)訓(xùn)練可以通過隨時間進行反向傳播(Back propagation Through Time,BPTT)算法,BPTT算法是針對循環(huán)層的訓(xùn)練算法,包含三個步驟:
1)前向計算每個神經(jīng)元的輸出值;
2)反向計算每個神經(jīng)元的誤差項值,它是誤差函數(shù)E對神經(jīng)元j的加權(quán)輸入的偏導(dǎo)數(shù);
3)計算每個權(quán)重的梯度,最后再用隨機梯度下降算法更新權(quán)重。
RNN優(yōu)點:
1)分布式表達;
2)能在序列預(yù)測中明確地學(xué)習(xí)和利用背景信息;
3)具有長時間范圍內(nèi)學(xué)習(xí)和執(zhí)行數(shù)據(jù)的復(fù)雜轉(zhuǎn)換能力。
RNN缺點:
1)會造成梯度消失問題;
2)會造成梯度爆炸問題;
RNN改進方案:
1)選擇其他的激活函數(shù),比如ReLU;
2)引入改進網(wǎng)絡(luò)結(jié)構(gòu)的機制,比如LSTM,GRU;
3)自然語音處理上應(yīng)用十分廣的就是LSTM。
RNN應(yīng)用場景:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是一類功能強大的人工神經(jīng)網(wǎng)絡(luò)算法,特別適用于處理聲音、時間序列(傳感器)數(shù)據(jù)或書面自然語言等序列數(shù)據(jù)。DeepMind在自動代理玩游戲的研究中就使用了一種循環(huán)網(wǎng)絡(luò)。
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN也適用于聚類和異常狀態(tài)檢測。可以應(yīng)用于可穿戴式設(shè)備生成的醫(yī)療保健數(shù)據(jù)、恒溫器等智能設(shè)備生成的家居環(huán)境數(shù)據(jù)、股票及指數(shù)變動生成的市場數(shù)據(jù)、賬戶交易活動生成的個人財務(wù)數(shù)據(jù)(可用于檢測欺詐或洗錢行為)等。
目前,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN在自然語言處理、機器翻譯、圖像識別、語音識別等領(lǐng)域迅速得到大量應(yīng)用。
RNN已在實踐中證明對自然語言處理是非常成功的,如詞向量表達、語句合法性檢查、詞性標(biāo)注等。
結(jié)語:
循環(huán)神經(jīng)網(wǎng)絡(luò)RNN是一類功能強大的人工神經(jīng)網(wǎng)絡(luò)算法,其模型是目前人工神經(jīng)網(wǎng)絡(luò)應(yīng)用中最為廣泛的一類模型。特別適用于處理聲音、時間序列(傳感器)數(shù)據(jù)或書面自然語言等序列數(shù)據(jù)。DeepMind在自動代理玩游戲的研究中就使用了一種循環(huán)網(wǎng)絡(luò)。RNN算法在人工智能之機器學(xué)習(xí)、自然語言處理、機器翻譯、圖像識別、語音識別、時間序列數(shù)據(jù)、股票交易數(shù)據(jù)和氣象觀測數(shù)據(jù)等領(lǐng)域有著廣泛應(yīng)用。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?