偏見:人工智能輔助決策的隱患
“有人的地方,就有偏見,數(shù)據(jù)亦然!
在《Futurama》這部漫畫里,機(jī)器人法官風(fēng)趣而勇敢,但是現(xiàn)實(shí)中,COMPAS算法卻很難讓人笑得出來。
譯注:
COMPAS全稱是Correctional Offender Management Profiling for Alternative Sanctions,以“替代性制裁為目標(biāo)的懲教犯管理畫像”。簡(jiǎn)單理解,就是對(duì)嫌疑人進(jìn)行人工智能畫像,以量刑或者判斷是否假釋。類似于2002年上映的電影《少數(shù)派報(bào)告》,將犯罪的萌芽消滅于襁褓之中。但此處提出COMPAS是因?yàn)檫@一算法因數(shù)據(jù)集或者其他問題,會(huì)產(chǎn)生對(duì)有色人種或特殊族裔的偏見。
和我們看過的大多數(shù)科幻電影不同,人工智能給現(xiàn)代生活帶來的革命是潤(rùn)物無聲的;擁有自主意識(shí)的機(jī)器人統(tǒng)治人類的場(chǎng)景還沒有出現(xiàn),但人工智已經(jīng)滲透到我們的生活之中,穩(wěn)步地侵入了以前人類獨(dú)有的決策領(lǐng)域。正因如此,你甚至可能沒有注意到你的生活中已經(jīng)有太多方面受到算法的影響。
清晨醒來,你伸手拿起手機(jī),翻翻微博或者抖音,此時(shí),一個(gè)由算法創(chuàng)建的內(nèi)容提要正在為你服務(wù)。然后你檢查了你的電子郵件,收件箱中只有重要的信息,因?yàn)樗锌梢院雎缘膬?nèi)容都已經(jīng)自動(dòng)丟棄到垃圾郵件或促銷文件夾中。你戴上耳機(jī),收聽網(wǎng)易云音樂上的一個(gè)新的播放列表,這是算法根據(jù)你以前所感興趣的音樂為你挑選的。繼續(xù)著上午的例行工作,你進(jìn)入汽車,并使用百度地圖,看看今天路上堵不堵。
在半個(gè)小時(shí)的時(shí)間里,你所消費(fèi)的內(nèi)容、收聽的音樂以及你上班的路程都依賴于算法的預(yù)測(cè)建模,而不是你自己的大腦。
機(jī)器學(xué)習(xí)來了。人工智能來了。我們正處在信息革命的進(jìn)程之中,在感嘆生逢其時(shí)的同時(shí),必須警惕隨之而來的影響。讓機(jī)器告訴你通勤的時(shí)間、你應(yīng)該聽的音樂以及你可能感興趣的內(nèi)容,這些都是相對(duì)無害的例子。但是當(dāng)你瀏覽你的微博新聞時(shí),某個(gè)地方的一個(gè)算法正在決定某人的醫(yī)療診斷、假釋資格或者職業(yè)前景。
從表面上看,機(jī)器學(xué)習(xí)算法看起來是一種很有前景的解決方案,可以消弭人類的偏見,這一人性的弱點(diǎn)可能對(duì)數(shù)百萬人的生活產(chǎn)生負(fù)面影響。人們的初衷是,人工智能中的算法能夠在公平和高效等方面超越人類既有的水平。世界各地的公司、政府、組織和個(gè)人都在使用機(jī)器決策,支持這樣做的理由有很多:更可靠、更容易、更便宜、更節(jié)省時(shí)間等。然而,仍有一些問題需要注意。
偏見的一般定義
圖片來源:Getty Images
偏見可以被定義為在被認(rèn)為不公平的情況下比其他人更受青睞的某些事物、人或群體。它通常是對(duì)某些理性決定或規(guī)范的偏離,可以從統(tǒng)計(jì)學(xué)、法律、道德的或?qū)嵱弥髁x的角度來理解。我們?cè)谌粘I钪幸约霸谌祟惿鐣?huì)尺度上都可以看到偏見的影子。通常情況下,偏見之間會(huì)相互強(qiáng)化。
例如,在回家的路上,你可能會(huì)選擇走一條不那么“陰暗”的街區(qū),為何會(huì)這樣?也許是因?yàn)檫@個(gè)地區(qū)是那些社會(huì)經(jīng)濟(jì)地位較低的人的家園。雖然不是說這類人群一定更有可能參與犯罪活動(dòng),但你的偏見,無論是顯性的還是隱性的,都促使你選擇一條不同的路線。從更宏觀的視角看,警方也可能由于偏見從而加強(qiáng)對(duì)這些地區(qū)的巡邏,而這反過來又可能導(dǎo)致比富裕的社區(qū)更高的逮捕率,從而產(chǎn)生一種高犯罪率的假象,而無關(guān)那里實(shí)際發(fā)生的犯罪率有多大。這種惡性循環(huán)似乎只會(huì)加劇我們最初的偏見。
算法與機(jī)器學(xué)習(xí)
讓我們首先區(qū)分經(jīng)典算法和機(jī)器學(xué)習(xí)算法。經(jīng)典算法通常被描述為輸入輸出處理器。傳統(tǒng)的編程依賴于植根于邏輯的函數(shù):如果x,那么y。經(jīng)典算法是基于規(guī)則的,顯式的,生硬的。機(jī)器學(xué)習(xí)比這更復(fù)雜。機(jī)器學(xué)習(xí)算法不是通過預(yù)先設(shè)定的數(shù)據(jù)必須滿足的條件來做出決策,而是通過對(duì)決策領(lǐng)域中數(shù)百或數(shù)千個(gè)數(shù)據(jù)集的審計(jì)和統(tǒng)計(jì)分析來做出決定的。
例如,當(dāng)招聘學(xué)習(xí)算法尋找理想的求職者時(shí),培訓(xùn)數(shù)據(jù)集可能會(huì)提供在企業(yè)中表現(xiàn)最好的候選人的200份簡(jiǎn)歷,然后,算法在這些數(shù)據(jù)中尋找模式和相關(guān)性,這樣在評(píng)估一份新的簡(jiǎn)歷的持有者能否成為理想的候選人的時(shí)候,算法的預(yù)測(cè)能力能夠更強(qiáng)。將決策交給機(jī)器學(xué)習(xí)算法對(duì)人類有許多好處,包括節(jié)省時(shí)間、金錢和精力。然而,當(dāng)涉及到道德和責(zé)任的決定,界限就會(huì)變得模糊。因?yàn)槲覀儫o法確切地理解為什么一臺(tái)機(jī)器會(huì)做出這樣的決定(基于人工智能算法中的黑盒特性),所以當(dāng)偏見發(fā)生時(shí),我們并不總是能夠發(fā)現(xiàn)和回避。
機(jī)器學(xué)習(xí)的偏見
Mathwashing (盲目相信算法)
Mathwashing 是一個(gè)被創(chuàng)造出來的術(shù)語(yǔ),用來代表社會(huì)對(duì)數(shù)學(xué)和算法的癡迷,以及一種心理傾向,即如果有數(shù)學(xué)或相關(guān)語(yǔ)義的參與(即使這些數(shù)值很武斷),就更容易相信某事物的真相。人類有一種傾向,認(rèn)為數(shù)學(xué)的參與會(huì)自動(dòng)使事物客觀化,因?yàn)閿?shù)學(xué)對(duì)象似乎獨(dú)立于人類的思想。而數(shù)學(xué)這一存在本身就是基于人類的思想,數(shù)學(xué)這一體系及相關(guān)屬性,作為人類思維的產(chǎn)物而存在,這使得數(shù)學(xué)與其他衡量方法一樣容易受到人的主觀性的影響。
訓(xùn)練數(shù)據(jù)“分類中的公平性”
機(jī)器學(xué)習(xí)算法是基于程序員選擇的數(shù)據(jù)集來訓(xùn)練的。有了這些訓(xùn)練數(shù)據(jù),他們就能識(shí)別和利用統(tǒng)計(jì)數(shù)據(jù)中的模式、關(guān)聯(lián)和相關(guān)性。例如,通過數(shù)千張不同貓和狗的圖片,可以訓(xùn)練出區(qū)分貓和狗的算法。這種分類任務(wù)相對(duì)簡(jiǎn)單;將算法應(yīng)用于基于人類的法庭判決比這錯(cuò)綜復(fù)雜得多。例如,就刑事司法系統(tǒng)中的人工智能而言,協(xié)助法官作出是否給予罪犯假釋的決定,工程師可以將過去人類針對(duì)數(shù)千例案件所作出的判決輸入系統(tǒng),但人工智能僅能就此了解到判決的結(jié)論。機(jī)器沒有能力感知到人類在做出這些判決時(shí),是受何其多的變量的影響,而理性并不總是占據(jù)決策的主導(dǎo)地位。計(jì)算機(jī)科學(xué)家稱之為“選擇性標(biāo)簽”。人類的偏見是在多年的社會(huì)融合、文化積累、媒體影響中學(xué)到的。算法中學(xué)習(xí)偏見的滲透過程與此類似:就像人類在誕生之初并無偏見,算法本身也是不存在偏見的,但是,如果給定了一個(gè)有缺陷的數(shù)據(jù)集,偏見將不可避免。
社會(huì)反思
人類教會(huì)了算法根據(jù)輸入信息和從信息中提取的模式來進(jìn)行預(yù)測(cè)。鑒于人類存在著各種各樣的偏見,一個(gè)表征環(huán)境的數(shù)據(jù)集也同樣會(huì)表征這些偏見。從這個(gè)意義上說,算法就像鏡子:其學(xué)習(xí)模式反映了我們社會(huì)中存在的偏見,無論是顯性的還是隱性的。
微軟在2016年設(shè)計(jì)的人工智能聊天機(jī)器人,Tay
以Tay為例,它是微軟研發(fā)的聊天機(jī)器人。Tay的設(shè)計(jì)初衷是為了模擬一個(gè)十幾歲的女孩與Twitter用戶的互動(dòng)內(nèi)容,然而,在不到24小時(shí)的時(shí)間里,網(wǎng)友就見證(其實(shí)是推動(dòng),譯者注)了Tay的轉(zhuǎn)變,從表達(dá)“人類是超酷的”這樣的天真無邪的小女生到叫囂“希特勒是對(duì)的,我恨猶太人”這樣的狂熱分子,僅僅是憑借互聯(lián)網(wǎng)上的推特互動(dòng)。微軟刪除了這些推文,并解釋說Tay在最初的測(cè)試階段采用的數(shù)據(jù)集主要是經(jīng)過過濾的、非攻擊性的推文,因而并沒有出現(xiàn)任何問題。顯然,當(dāng)Tay上線時(shí),過濾過程不復(fù)存在。從好的方面講,這似乎表明了一種消除偏見的可能方法,即隨著算法的使用和與現(xiàn)實(shí)世界的接觸,應(yīng)該對(duì)輸入的數(shù)據(jù)進(jìn)行監(jiān)測(cè)和過濾。

發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
6月20日立即下載>> 【白皮書】精準(zhǔn)測(cè)量 安全高效——福祿克光伏行業(yè)解決方案
-
7月3日立即報(bào)名>> 【在線會(huì)議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報(bào)名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會(huì)
-
7.30-8.1火熱報(bào)名中>> 全數(shù)會(huì)2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身機(jī)器人動(dòng)力電池技術(shù)應(yīng)用大會(huì)
-
免費(fèi)參會(huì)立即報(bào)名>> 7月30日- 8月1日 2025全數(shù)會(huì)工業(yè)芯片與傳感儀表展
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語(yǔ)權(quán)
- 3 深度報(bào)告|中國(guó)AI產(chǎn)業(yè)正在崛起成全球力量,市場(chǎng)潛力和關(guān)鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級(jí)獨(dú)角獸:獲上市公司戰(zhàn)投,干人形機(jī)器人
- 5 國(guó)家數(shù)據(jù)局局長(zhǎng)劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰(shuí)在領(lǐng)跑?
- 9 格斗大賽出圈!人形機(jī)器人致命短板曝光:頭腦過于簡(jiǎn)單
- 10 “搶灘”家用機(jī)器人領(lǐng)域,聯(lián)通、海爾、美的等紛紛入局