神經網絡:多層感知器-MLP
MLP神經網絡的結構和原理
理解神經網絡主要包括兩大內容,一是神經網絡的結構,其次則是神經網絡的訓練和學習,其就好比我們的大腦結構是怎么構成的,而基于該組成我們又是怎樣去學習和識別不同事物的,這次樓主主要講解第一部分,而訓練和學習則放到后續(xù)更新中。
神經網絡其實是對生物神經元的模擬和簡化,生物神經元由樹突、細胞體、軸突等部分組成。樹突是細胞體的輸入端,其接受四周的神經沖動;軸突是細胞體的輸出端,其發(fā)揮傳遞神經沖動給其他神經元的作用,生物神經元具有興奮和抑制兩種狀態(tài),當接受的刺激高于一定閾值時,則會進入興奮狀態(tài)并將神經沖動由軸突傳出,反之則沒有神經沖動。
我們基于生物神經元模型可得到多層感知器MLP的基本結構,最典型的MLP包括包括三層:輸入層、隱層和輸出層,MLP神經網絡不同層之間是全連接的(全連接的意思就是:上一層的任何一個神經元與下一層的所有神經元都有連接)。
由此可知,神經網絡主要有三個基本要素:權重、偏置和激活函數
權重:神經元之間的連接強度由權重表示,權重的大小表示可能性的大小
偏置:偏置的設置是為了正確分類樣本,是模型中一個重要的參數,即保證通過輸入算出的輸出值不能隨便激活。
激活函數:起非線性映射的作用,其可將神經元的輸出幅度限制在一定范圍內,一般限制在(-1~1)或(0~1)之間。最常用的激活函數是Sigmoid函數,其可將(-∞,+∞)的數映射到(0~1)的范圍內。
激活函數還有tanh和ReLU等函數,tanh是Sigmoid函數的變形,tanh的均值是0,在實際應用中有比Sigmoid更好的效果;ReLU是近來比較流行的激活函數,當輸入信號小于0時,輸出為0;當輸入信號大于0時,輸出等于輸入;具體采用哪種激活函數需視具體情況定。
從上面可知下層單個神經元的值與上層所有輸入之間的關系可通過如下方式表示,其它以此類推。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業(yè)大會
-
精彩回顧立即查看>> 【限時福利】TE 2025國際物聯網展·深圳站