AI算法透明早已捉襟見(jiàn)肘,算法問(wèn)責(zé)制才是最佳解決方案
雖然人工智能曾被譽(yù)為開(kāi)啟經(jīng)濟(jì)繁榮新時(shí)代的關(guān)鍵,但如今,政策制定者們卻面臨著一波又一波有關(guān)確保人工智能公平、道德和安全的呼聲。紐約市長(zhǎng)de Blasio最近宣布成立美國(guó)第一個(gè)監(jiān)測(cè)和評(píng)估算法使用的特別工作組。幾天后,歐盟制定了全面的新數(shù)據(jù)保護(hù)規(guī)則,要求公司能夠向消費(fèi)者解釋所有自動(dòng)化決策。像埃隆·馬斯克這樣備受矚目的批評(píng)者,呼吁政策制定者采取更多措施來(lái)規(guī)范人工智能。
不幸的是,兩個(gè)最受歡迎的想法——要求公司披露算法源代碼并解釋它們?nèi)绾巫龀鰶Q策以及通過(guò)規(guī)范商業(yè)模式和內(nèi)部運(yùn)作,會(huì)導(dǎo)致弊大于利,并不能讓這些公司對(duì)結(jié)果負(fù)責(zé)。
第一個(gè)想法——“算法透明度”——要求公司披露其AI系統(tǒng)中使用的源代碼和數(shù)據(jù)。除了過(guò)于簡(jiǎn)單之外,這個(gè)想法并不具有作為廣泛解決方案的優(yōu)點(diǎn)。許多AI系統(tǒng)太復(fù)雜,僅通過(guò)查看源代碼是無(wú)法完全理解的。一些AI系統(tǒng)依賴于數(shù)百萬(wàn)個(gè)數(shù)據(jù)點(diǎn)和數(shù)千行代碼,而且決策模型在遇到新數(shù)據(jù)時(shí)會(huì)隨時(shí)間而產(chǎn)生變化。期望即使是最積極的、資源重組的監(jiān)管機(jī)構(gòu)或有關(guān)公民,能夠發(fā)現(xiàn)該系統(tǒng)的開(kāi)發(fā)人員可能無(wú)法做到的所有潛在瀆職行為,是不現(xiàn)實(shí)的。
此外,并非所有公司都有開(kāi)源商業(yè)模式。要求他們披露源代碼會(huì)降低他們投資開(kāi)發(fā)新算法的動(dòng)力,因?yàn)檫@會(huì)讓競(jìng)爭(zhēng)對(duì)手山寨。與美國(guó)在人工智能的主導(dǎo)地位上競(jìng)爭(zhēng)激烈的中國(guó)不良行為者,經(jīng)常蔑視知識(shí)產(chǎn)權(quán),并可能會(huì)使用透明度要求來(lái)竊取源代碼。
另一個(gè)想法——“算法可解釋性”——將要求公司向消費(fèi)者解釋他們的算法如何做出決策。該提議的問(wèn)題在于AI系統(tǒng)中的可解釋性和準(zhǔn)確性之間經(jīng)常存在不可避免的折衷。算法的準(zhǔn)確性通常隨其復(fù)雜性而變化,所以算法越復(fù)雜,解釋就越困難。雖然隨著對(duì)可解釋性人工智能研究的成熟,這可能會(huì)在未來(lái)發(fā)生變化,比如DARPA在2017年投入了7500萬(wàn)美元用于解決這一問(wèn)題,但目前,可解釋性的要求將會(huì)付出準(zhǔn)確性的代價(jià)。這是非常危險(xiǎn)的。例如,對(duì)于自動(dòng)駕駛汽車來(lái)說(shuō),能夠解釋事故重要,還是避免事故重要?解釋比準(zhǔn)確性更重要的情況很少見(jiàn)。
政策制定者不應(yīng)該要求公司披露他們的源代碼或限制他們可以使用的算法類型,而是應(yīng)該堅(jiān)持算法問(wèn)責(zé)制——算法系統(tǒng)應(yīng)采用各種控制措施來(lái)確保運(yùn)營(yíng)商(即負(fù)責(zé)部署算法的一方)可以驗(yàn)證它是否按預(yù)期運(yùn)行,并確定和糾正有害后果的原則。
圍繞算法問(wèn)責(zé)制構(gòu)建的政策框架將具有幾個(gè)重要好處。首先,它會(huì)使運(yùn)營(yíng)商對(duì)其算法可能造成的任何危害負(fù)責(zé),而不是開(kāi)發(fā)人員。運(yùn)營(yíng)商在算法如何影響社會(huì)方面擁有最大的影響力,而且他們已經(jīng)必須遵守各種旨在確保他們的決定不會(huì)造成傷害的法律。例如,雇主必須遵守招聘中的反歧視法律,無(wú)論他們是否是使用算法來(lái)做出這些決定的。
其次,讓運(yùn)營(yíng)商對(duì)結(jié)果而不是算法的內(nèi)部運(yùn)作負(fù)責(zé),可以讓他們專注于確保算法不會(huì)造成傷害的最佳方法,諸如信心措施,影響評(píng)估或程序規(guī)律等。例如,大學(xué)可以在部署人工智能系統(tǒng),預(yù)測(cè)哪些學(xué)生可能會(huì)輟學(xué)之前進(jìn)行影響評(píng)估,以確保其有效和公平。與透明度或可解釋性要求不同,這將使大學(xué)能夠有效地識(shí)別任何潛在的缺陷,而不禁止使用復(fù)雜的專有算法。
這并不是說(shuō)透明度和可解釋行就沒(méi)有它們的位置。例如,透明度要求對(duì)刑事司法系統(tǒng)中的風(fēng)險(xiǎn)評(píng)估算法來(lái)說(shuō)是有意義的。畢竟,長(zhǎng)期以來(lái),公眾都有興趣要求司法系統(tǒng)接受最高程度的審查,即使這種透明度可能無(wú)法解釋先進(jìn)的機(jī)器學(xué)習(xí)系統(tǒng)如何運(yùn)作。
同樣,“平等信用機(jī)會(huì)法”等法律要求公司向消費(fèi)者提供足夠的解釋,才能拒絕給予信貸。無(wú)論公司是否使用AI來(lái)做出決策,消費(fèi)者仍然有權(quán)獲得這些解釋。
關(guān)于如何使AI安全的辯論忽視了對(duì)細(xì)微差別、有針對(duì)性的監(jiān)管方法的需要,迅速的處理算法透明度和可解釋性而不考慮它們的許多缺點(diǎn)是不行的。想要減輕AI造成的潛在危害是沒(méi)有錯(cuò)的,但到目前為止提出的解決方案都過(guò)于簡(jiǎn)單,過(guò)于寬泛的解決方案在很大程度上是無(wú)效的,甚至可能弊大于利。算法問(wèn)責(zé)制為確保組織負(fù)責(zé)任地使用AI提供了更好的途徑,使其真正成為社會(huì)的福音。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
3月27日立即報(bào)名>> 【工程師系列】汽車電子技術(shù)在線大會(huì)
-
4月30日立即下載>> 【村田汽車】汽車E/E架構(gòu)革新中,新智能座艙挑戰(zhàn)的解決方案
-
5月15-17日立即預(yù)約>> 【線下巡回】2025年STM32峰會(huì)
-
即日-5.15立即報(bào)名>>> 【在線會(huì)議】安森美Hyperlux™ ID系列引領(lǐng)iToF技術(shù)革新
-
5月15日立即下載>> 【白皮書(shū)】精確和高效地表征3000V/20A功率器件應(yīng)用指南
-
5月16日立即參評(píng) >> 【評(píng)選啟動(dòng)】維科杯·OFweek 2025(第十屆)人工智能行業(yè)年度評(píng)選
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開(kāi)始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺(tái)
- 5 國(guó)產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計(jì)算迎來(lái)商業(yè)化突破,但落地仍需時(shí)間
- 7 東陽(yáng)光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開(kāi)成長(zhǎng)空間
- 8 地平線自動(dòng)駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營(yíng)收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機(jī)器人東風(fēng)翻身?