訂閱
糾錯
加入自媒體

關(guān)于可解釋的人工智能,人們需要了解四件事

人工智能(AI)的能力無疑令人震驚,這讓許多人想知道它是如何做到的?,而這個問題的答案推動了可解釋人工智能的概念,有時候稱為XAI。

許多人喜歡參與有關(guān)可解釋人工智能的討論,但他們往往沒有提出能夠?qū)崿F(xiàn)的可行性想法。

什么是可解釋的人工智能?

可解釋的人工智能是通過人工智能算法解釋它是如何以人類可以破譯的方式得出結(jié)論的想法。這將面臨一個眾所周知的“黑盒問題”,其中人工智能算法可以確定某些內(nèi)容,但無法提供導(dǎo)致這些結(jié)果的因素的詳細信息。那么,人們怎么認為他們可以相信人工智能算法所說的內(nèi)容呢?

實現(xiàn)可解釋人工智能的目標(biāo)是一項令人欽佩的必要壯舉,但這并不簡單。在將可解釋的人工智能變成現(xiàn)實之前,行業(yè)人士需要認識到以下四件事情。

1.解釋可能不是建立信任的最佳方式

人們能夠理解的是,如果人工智能可以自我解釋,用戶以及使用人工智能做出決策的企業(yè)會相信人工智能更值得信賴。但是一些人認為,努力實現(xiàn)可解釋的人工智能并不是建立增強信任的最佳途徑。相反,測試和分析可以給出所尋求的答案。

這是因為人工智能用來得出結(jié)論的方法可能非常復(fù)雜,即使提供了解釋,人們也無法理解。但是,當(dāng)人工智能用戶能夠測試和分析人工智能所做的決策,并確保它們顯示出足夠的一致性,以顯示系統(tǒng)按預(yù)期工作時,就會產(chǎn)生信任。

可解釋的人工智能仍然是有用的,但是人們不應(yīng)該把它視為最終解開人工智能的奧秘。

2.可解釋的人工智能與應(yīng)用程序設(shè)計直接相關(guān)

對于可解釋的人工智能而言,另一件至關(guān)重要的事情是,與大多數(shù)人認為的相反,人們不需要將人工智能視為獲得答案的起點。相反,使用可解釋的人工智能取得進展意味著從應(yīng)用程序級別開始。

例如,用于促進貸款審批流程的人工智能應(yīng)用程序能夠以這樣的方式運行,即允許人們采取人工智能工具的每個步驟以及通過這些操作創(chuàng)建的路徑。然后,人們可能會深入挖掘并查看應(yīng)用程序的哪些特征觸發(fā)了批準或拒絕。

采用這種方法并不一定能為給定的應(yīng)用程序帶來完全可解釋的人工智能。但是,記住可解釋性對于參與構(gòu)建使用人工智能的應(yīng)用程序的人來說是一個很好的策略。

3.強化學(xué)習(xí)比人們想象的要復(fù)雜得多

人工智能算法以多種方式學(xué)習(xí)。這是一種有監(jiān)督的學(xué)習(xí),它涉及人工智能從預(yù)先分類的數(shù)據(jù)變得更智能,以便查看和分類;蛘,當(dāng)人工智能算法仔細檢查輸入數(shù)據(jù)以找到其中的模式時,就會發(fā)生無監(jiān)督學(xué)習(xí)。最后,有一種被誤解的第三種人工智能學(xué)習(xí)風(fēng)格稱為“強化學(xué)習(xí)”,也有一些人稱之為“自我學(xué)習(xí)”。

這種算法根據(jù)收到的反饋,將執(zhí)行的操作理解為可取或不可取。人們需要關(guān)注由它所做的事情引起的響應(yīng),然后從嘗試和錯誤的方法中學(xué)習(xí)。

不幸的是,考慮到復(fù)雜任務(wù)的成功都是由所有行動的總和造成的,因此加強人工智能并不是那么簡單?紤]到這一點,人們必須考慮到一些使增強人工智能有效的必要條件。例如,系統(tǒng)必須提供具體的激勵。但是,不同的場景有不同的相關(guān)期望動作。

此外,任何適當(dāng)使用強化學(xué)習(xí)的系統(tǒng)都必須考慮環(huán)境中的每個可用變量。但是,當(dāng)人們考慮到許多現(xiàn)實問題的不可否認的復(fù)雜性時,很容易看出這是一個非常耗時的步驟。

當(dāng)人們努力實現(xiàn)可解釋人工智能的目標(biāo)時,他們需要記住人工智能算法以多種方式學(xué)習(xí)。此外,由于所有變量都在發(fā)揮作用,強化學(xué)習(xí)尤其困難。整理出描述強化學(xué)習(xí)算法得出結(jié)論的所有細節(jié)可能是一個過于漫長的過程。

4.所有關(guān)于可解釋的人工智能的對話應(yīng)包括道德倫理部分

當(dāng)人們談?wù)撊斯ぶ悄軙r,道德倫理問題經(jīng)常發(fā)揮作用。當(dāng)使用人工智能處理可能導(dǎo)致傷亡的事件時,尤其可能發(fā)生這種情況,例如加強國防力量。盡管人工智能機器最終可能比制造它們的人更聰明,但是人類仍然有責(zé)任設(shè)計出盡可能符合道德規(guī)范的人工智能機器。

有些人甚至爭辯說,實現(xiàn)可解釋人工智能的里程碑意味著人們將機器保持在比人類更高的標(biāo)準。畢竟,當(dāng)人們要求充分解釋所做出的決定以及如何做出決定的時候,做到這些事情往往是不可能的。轉(zhuǎn)瞬即逝的想法和原始欲望是兩種能讓人們在意識原因之前就開始行動的因素。

但是,是什么讓機器實施道德的行為與非道德的行為?幾乎可以肯定的是,編程已經(jīng)開始發(fā)揮作用,但它很可能無法說明整個過程。因此,盡管讓人工智能解釋自己是至關(guān)重要的,但也應(yīng)該對人工智能合乎道德更多的關(guān)注——即使在可解釋性出現(xiàn)之前。

發(fā)展之路還很漫長

這份清單強調(diào)了許多人喜歡參與討論有關(guān)可解釋人工智能的一些原因,但他們往往沒有提出如何實現(xiàn)的想法。

盡管如此,這仍是一個有價值的目標(biāo),隨著人們逐漸開發(fā)和采用人工智能,并用它實現(xiàn)新事物。

聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號