訂閱
糾錯
加入自媒體

是否有可能,為AI加上安全鎖?

二、檢察官

無論是歧視還是錯誤的機器直覺,在本質上都可歸因于深度學習的黑箱性。那么是不是有方法可以去透視黑箱,讓人類研發(fā)者找到問題AI的出錯點,從而去修正而不是魯莽地中斷它呢?

事實上,解決黑箱才是AI安全領域與應用場景的主要努力方向。我們今天已經(jīng)可以看到越來越多的黑箱解釋工具出現(xiàn)在科研甚至產(chǎn)業(yè)領域。

今天解釋黑箱的主要方式有兩種,一種是用AI來檢索AI,比如利用注意力機制,訓練一個神經(jīng)網(wǎng)絡模型專門去復制追蹤其他AI模型的運行軌跡,從而找出錯誤訓練結果的訓練來源,幫助研發(fā)者進行修正。

另一個思路是通過一些工具,達成深度學習模型的結構可視化,也就是說讓黑箱變成玻璃箱。從而當AI出錯,研發(fā)人員可以相對簡單的自行查詢每一層的訓練過程,找到問題所在。

然而無論是AI檢察官,還是人類檢察官,今天這些黑箱可解釋性技術普遍都只能應對不那么復雜的深度學習模型。而且普遍需要大量人工來參與其中,又把人工智能變成了“人工+智能”,而且所耗費的人力必須具備相當?shù)募夹g水準。

、道德家

無論從何種方向上看,阻止AI作惡在今天都不僅僅是一個技術問題。比如訓練數(shù)據(jù)的三觀夠不夠正,很多程度取決于開發(fā)者的三觀;再比如能否克制對開發(fā)AI武器、AI監(jiān)視工具的渴望,應該是一個社會與國際責任的問題;而很多AI歧視問題,出自于背后開發(fā)者希望提高商業(yè)效率的目的,這也是個道德問題。

為了預防這些問題泛濫,AI的安全鎖顯然不僅應該是一把技術之鎖,而應該引入廣泛的社會機制。今年2月,OpenAI、牛津大學、劍橋大學等14家機構和高校發(fā)布了一份名為《人工智能惡意使用》的研究報告。報告指出,應該承認今天人工智能的研究成果是一把雙刃劍。而為了控制人工智能帶來的風險,政策制定者應該與技術人員密切合作,調查、預防和緩解人工智能可能的惡意使用方式。并且應該在人工智能領域優(yōu)先形成規(guī)范和道德框架;討論這些人工智能挑戰(zhàn)時所涵蓋的利益相關者和專家范圍應該擴大。

防止AI的惡意問題,應該從技術、法律、道德、研究習慣等領域進行綜合防治,這已經(jīng)成為了一個國際社會共識。但是顯然這把鎖看上去最簡單,實際鑄造起來的難度高到無法想象。

無論是“斷電”、大檢查還是社會共同監(jiān)督,這些AI安全鎖的背后,都隱藏著在AI倫理問題面前,今天人類共有的彷徨:人性的本質是矛盾的,但我們卻想要模仿人類的AI具備統(tǒng)一規(guī)則。

可是,誰來擔保安全鎖的清白?

無論任何AI安全保護措施,歸根結底就是一句話:希望AI能明辨善惡,善則從之,惡則止矣。

而這談何容易?在AI需要越來越多人類社會產(chǎn)出的訓練數(shù)據(jù)時,人類的種種價值判斷也映射其中。一些人類社會中的倫理障礙也不免裹挾進了AI的世界。

比如說,我們已經(jīng)開始探索,能不能讓AI系統(tǒng)在其他AI犯錯時終止它的行為。但這就涉及什么才是錯誤AI行為的定義邊界問題。誰來標注錯誤行為呢?

我們都知道,谷歌AI曾經(jīng)把黑人識別成猩猩,這顯然是一種歧視行為。但如果AI判斷應該在某個治安不好的街區(qū)加強警力部署,那這是不是也是一種歧視,應該被終端呢?這個問題確實已經(jīng)在洛杉磯警察局所使用的系統(tǒng)中展現(xiàn)了出來,在加州當?shù)匾l(fā)了激烈爭論。

更進一步,國家間的AI規(guī)則是否應該一致?今天越來越多的AI公司與國際產(chǎn)業(yè)組織,甚至政府組織開始呼吁重視AI的倫理道德問題,制定國際統(tǒng)一的AI道德規(guī)范。但統(tǒng)一的AI規(guī)范會不會侵犯某些國家的風俗與習慣?是不是會對一些國家地區(qū)的AI研究造成阻礙?比如說歐盟的AI研究隱私保護政策真的適合全世界嗎?

這些AI倫理層面近乎悖論的問題,是一切AI安全鎖技術與產(chǎn)業(yè)行為面對的最深處敵人。甚至向更長遠的未來看去,人類的行為判斷真的就比AI好嗎?某些時候,用技術來中斷不可預測的機器學習行為,是否其實展露著人類的無知?或者終止了用技術創(chuàng)造技術的全新可能?

好吧,這些問題在今天都沒有什么真正的答案。這也意味著,今天想要給AI戴上一把嚴格意義上的安全鎖,還是一個不可能的任務。然而破解AI黑箱性和AI自我監(jiān)督的技術進展,確實正在讓AI應用的安全指數(shù)快速提升。很多今天浮現(xiàn)在媒體中的AI安全問題,應該都可以被快速解決掉。

問題和解決方案,永遠是交替往復的狀態(tài)向前奔跑。

最后讓我們“科幻”一下來結束這個話題。

文 / 腦極體

<上一頁  1  2  
聲明: 本文系OFweek根據(jù)授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號