訂閱
糾錯
加入自媒體

人工智能之強化學(xué)習(xí)(RL)

強化學(xué)習(xí)設(shè)計考慮:

1)如何表示狀態(tài)空間和動作空間。

2)如何選擇建立信號以及如何通過學(xué)習(xí)來修正不同狀態(tài)-動作對的值。

3)如何根據(jù)這些值來選擇適合的動作。

強化學(xué)習(xí)常見算法:

強化學(xué)習(xí)的常見算法包括:1)時間差分學(xué)習(xí)(Temporal difference learning);2)Q學(xué)習(xí)(Q learning);3)學(xué)習(xí)自動(LearningAutomata);4)狀態(tài)-行動-回饋-狀態(tài)-行動(State-Action-Reward-State-Action)等。

blob.png

強化學(xué)習(xí)目標(biāo):

強化學(xué)習(xí)通過學(xué)習(xí)從環(huán)境狀態(tài)到行為的映射,使得智能體選擇的行為能夠獲得環(huán)境最大的獎賞,使得外部環(huán)境對學(xué)習(xí)系統(tǒng)在某種意義下的評價(或整個系統(tǒng)的運行性能)為最佳。簡單的說,強化學(xué)習(xí)的目標(biāo)動態(tài)地調(diào)整參數(shù),達(dá)到強化信號最大

強化學(xué)習(xí)應(yīng)用前景:

前段時間被刷屏的機器人,大家一定不陌生吧,來自波士頓動力的機器人憑借出色的平衡性給大家留下了深刻的印象。機器人控制領(lǐng)域就使用了大量的強化學(xué)習(xí)技術(shù)。除此之外,游戲、3D圖像處理、棋類(2016年備受矚目的AlphaGo圍棋)、等領(lǐng)域都有應(yīng)用。

blob.png

機   器  人

blob.png

游  戲

blob.png

3D 圖 像 處 理

blob.png

人 機 大 戰(zhàn)

結(jié)語:

強化學(xué)習(xí)是通過對未知環(huán)境一邊探索一邊建立環(huán)境模型以及學(xué)習(xí)得到一個最優(yōu)策略。強化學(xué)習(xí)與其他機器學(xué)習(xí)算法不同的地方在于沒有監(jiān)督者,只有一個Reward信號,而且反饋是延遲的。強化學(xué)習(xí)是人工智能之機器學(xué)習(xí)中一種快速、高效且不可替代的學(xué)習(xí)算法,實際上強化學(xué)習(xí)是一套很通用的解決人工智能問題的框架,值得人們?nèi)パ芯。另外?strong>深度學(xué)習(xí)[參見人工智能(22)]和強化學(xué)習(xí)相結(jié)合,不僅給強化學(xué)習(xí)帶來端到端優(yōu)化便利,而且使得強化學(xué)習(xí)不再受限于低維空間,極大地拓展了強化學(xué)習(xí)的使用范圍。谷歌DeepMind中深度強化學(xué)習(xí)領(lǐng)頭人David Silver曾經(jīng)說過,深度學(xué)習(xí)(DL)+ 強化學(xué)習(xí)(RL) = 人工智能(AI)。

<上一頁  1  2  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號