徐飛玉:可解釋性AI ,讓AI從煉金術變成“化學”
4月12日,F(xiàn)US獵云網(wǎng)2019年度人工智能產(chǎn)業(yè)峰會在北京千禧大酒店隆重舉行,近百位知名資本大咖,獨角獸創(chuàng)始人、創(chuàng)業(yè)風云人物及近千位投資人與創(chuàng)業(yè)者共聚一堂。
聯(lián)想集團副總裁、聯(lián)想研究院人工智能實驗室負責人徐飛玉博士受邀參與本次峰會并發(fā)表《“可解釋性人工智能“, 打造人機互信智能時代》的主題演講。徐飛玉表示:可解釋性AI,可以讓AI由煉金術變成“化學”。
近幾年,深度學習大大推動了人工智能的發(fā)展,但由于可解釋性差,它就像一個黑盒子,阻礙了人工智能的落地和商業(yè)化。同時,在一些學者眼里看來,由于缺乏可解釋性,現(xiàn)有的人工智能技術好比煉金術,不夠科學和嚴謹。因此,伴隨著人工智能大火,可解釋性AI成為非常重要的研究方向,而智能時代需要是一個人機互信的時代
徐飛玉分析指出,可解釋性AI的重要性可以從三個角度來體現(xiàn):對使用者來說,如果人工智能技術幫助我們做決定,做決定的人需要理解,為什么人工智能系統(tǒng)提供這樣的建議。第二,對于受到AI影響的人,如果AI自己做了決定,那些受到?jīng)Q定影響的人要能夠理解這個決定。第三,對于開發(fā)者來說,理解了深度學習的黑盒子,可以通過提供更好的學習數(shù)據(jù), 改善方法和模型, 提高系統(tǒng)能力。
徐飛玉還介紹了目前世界范圍內(nèi)可解釋AI研究的三個重要領域:一是使深度神經(jīng)網(wǎng)組件變得透明,二是從深度神經(jīng)網(wǎng)里面學習到語義網(wǎng),三是生成解釋,生成人可以理解的解釋。。
對于AI下一步的發(fā)展和應用,徐飛玉指出,必須要把深度學習和知識圖譜結合起來。在她的暢想中,未來的AI將更像化學一樣,并以人作為最重要的“元素”賦能社會。
FUS 為“Future Unicorn Summit”的簡稱,意為未來獨角獸峰會。獵云網(wǎng)以發(fā)現(xiàn)產(chǎn)業(yè)獨角獸為初衷,開啟系列產(chǎn)業(yè)獨角獸峰會。本次大會將繼續(xù)致力于探究人工智能行業(yè)核心發(fā)展趨勢,通過優(yōu)質(zhì)AI應用實例分享、科技領域、金融投資等業(yè)界大佬互動,聚焦國內(nèi)人工智能的產(chǎn)業(yè)力量,以行業(yè)從業(yè)者的視角,探討科技浪潮的機遇與挑戰(zhàn)。
以下為徐飛玉演講實錄:
可解釋性AI既是一個舊話題,也是一個新話題。
上世紀70年代末、80年代初,當時很多的輔助顧問系統(tǒng)已在可解釋性上有研究。在人工智能研究之初,科學家們就提出人工智能系統(tǒng)需要能解釋,特別是這些人工智能系統(tǒng)參與決定的情況下。但是過去的人工智能系統(tǒng),它們是以規(guī)則、以知識為基礎,而這些人工智能系統(tǒng)的規(guī)則和知識是人定義的,據(jù)此推算出來的結果,人是可以理解的。
近幾年,深度學習很大程度上推動了人工智能的快速發(fā)展,可解釋性AI成為一個新的課題。對機器學習,特別是深度學習來說,可解釋性AI是一個很大的挑戰(zhàn)。
深度神經(jīng)網(wǎng)絡對我們?nèi)藖碚f是一個黑盒子。在人工智能落地做應用的時候,如果是個黑盒子,大家不敢用,但也可能不能用。深度學習在預測能力方面比目前任何其他學習方法更好,但可解釋性也最差。
最近,人工智能在人臉識別或者語音識別上的突破都和它的預測準確性有很大關系,可是要落地、要商業(yè)化,可解釋性就變得非常重要。深度學習很多算法,如人臉識別的深度神經(jīng)網(wǎng)絡,我們希望它的神經(jīng)元是有透明度和可視化的。我們可能理想地認為每個神經(jīng)元和我們?nèi)说恼J知的語義對應,有可能底層的神經(jīng)元對應鼻子、耳朵,然后再是完整的臉,而實際中,很多神經(jīng)元既有眼睛的信息,也有鼻子的信息,是很混亂的。
為什么可解釋性AI這么重要呢?第一,對我們使用者來說,如果人工智能的技術只是提一些建議或者幫助我們做決定,做決定的人他要必須理解,為什么人工智能系統(tǒng)給他們提了這個建議。比如,醫(yī)生做診斷,要能理解為什么醫(yī)療診斷系統(tǒng)做這樣的建議。第二,對于受到AI影響的人,如果AI自己做了決定,那些受到?jīng)Q定影響的人要能夠理解這個決定。第三,對于開發(fā)者來說,理解了深度學習的黑盒子,可以通過提供更好的學習數(shù)據(jù), 改善方法和模型, 提高系統(tǒng)能力。
大家都知道,歐洲共同體,歐盟對數(shù)據(jù)保護非常重視,對用戶權利保護非常重視,歐盟在GDPR(GeneralDataProtectionRegulation歐盟一般數(shù)據(jù)保護條例)上面有要求,要求人工智能的算法如果參與決定必須要有解釋的能力,這對人工智能的研發(fā)人員和提供人工智能的公司來說、企業(yè)來說,我們必須要做可解釋性人工智能的研發(fā),提供可解釋性的人工智能系統(tǒng)。所以說遵守立法是我們做可解釋性AI的一個重要的原因之一。
舉個例子,美國德州的教師控告了AI系統(tǒng)用于課堂教學評估并取得勝訴。德州用一個AI系統(tǒng)自動評估教師上課的質(zhì)量,老師說不能用這個系統(tǒng),這個系統(tǒng)不能告訴我,為什么我上課的效果不好,后來德州把這個系統(tǒng)去掉了。
用可解釋性AI可以幫助我們驗證我們的系統(tǒng)推出的是正確的還是錯誤的預算。這里有一個很簡單的例子,我們的人工智能黑盒子用了一堆數(shù)據(jù)推算出來,有哮喘病的病人得肺炎的可能性很低。用常識來說,這個推算不對。問題在于它的數(shù)據(jù)是有問題的,研發(fā)人員用了住在醫(yī)院里的哮喘病人數(shù)據(jù)來推算,他們被看護得很好、治療得很好,他們患肺炎可能性低。但如果用醫(yī)院外的病人數(shù)據(jù)來推算,哮喘病人得肺炎的可能性非常高。所以通過可解釋性AI可以理解并糾正我們系統(tǒng)的弱點,知道數(shù)據(jù)的偏差,而且發(fā)現(xiàn)模型中的錯誤。
最近幾年,在可解釋性AI方面,很多的企業(yè)或者是投資企業(yè)當中,可解釋性AI還不是重點。目前,全球在研發(fā)可解釋性AI的工作上,主要有三個重要領域:第一是使深度神經(jīng)網(wǎng)組件變得透明,第二是從深度神經(jīng)網(wǎng)里面學習到語義圖,第三是生成解釋,生成人理解的解釋。
2016年,來自谷歌機器學習科學家Ali Rahimi 在NIPS(神經(jīng)信息處理系統(tǒng)大會)上表示,當前有一種把機器學習當成煉金術來使用的錯誤趨勢。因為人工智能系統(tǒng)已經(jīng)參與了很多社會的決定,幫助我們醫(yī)療系統(tǒng)、幫助醫(yī)生,但他希望生活在一個社會里,在這個社會里,這個社會里用的系統(tǒng)建立在可驗證的、嚴謹?shù)、全面的知識之上,而不是煉金術。他認同Andrew Ng的觀點即人工智能是新的電力,他比喻到,可解釋性AI的發(fā)展是要讓機器學習或者是現(xiàn)在的人工智能從煉金術變成電力學。但我個人認為說化學更合適。
2016年,美國國防高級研究計劃局(DARPA)制定了《DARPA Explainable AI (XAI) Program》,這是一個五年研發(fā)計劃,F(xiàn)在人工智能機器學習,有了數(shù)據(jù)進行訓練,訓練出來的模型,一張圖片放進去,識別出這是一只貓,但人不知道為什么是貓,而不是其他東西。而美國的五年計劃希望實現(xiàn)的效果是,有了訓練數(shù)據(jù)以后,用新的方法得出來可解釋性的模型,這個可解釋性的模型,加上可以解釋的界面,對投資者來說是非常重要的,可解釋性AI對投資的決定是一個很好的應用。
人工智能想模擬人的智力。人有顯性的知識和隱性的知識,隱性的知識就是我們的經(jīng)驗直覺,人可以有效結合兩種不同的知識,把經(jīng)驗、直覺、知識結合在一起。我們在解釋的時候,理解的時候必須是顯性的。深度學習是以概率的模型得到了隱性的知識,深度神經(jīng)網(wǎng)它們不理解任何的事情,只是數(shù)據(jù)和數(shù)據(jù)之間的關系。深度學習雖然被強調(diào)了很多,但在人工智能領域還有其他的方法,比如知識圖譜,知識圖譜在模擬顯性的知識。目前深度學習和知識圖譜這兩個世界還沒有在一起,但是下一步對整個人工智能的發(fā)展和應用落地來說,必須把顯性知識和隱性知識結合在一起。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 6 一文看懂視覺語言動作模型(VLA)及其應用
- 7 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 8 百億AI芯片訂單,瘋狂傾銷中東?
- 9 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領跑?
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單