算法偏見:被AI算法包圍的時代
前言:人工智能在各個領域似乎被吹捧為在各種應用領域?qū)崿F(xiàn)自動化決策的“圣杯”,被認為可以做得比人類更好或更快,但事實上人工智能面臨了一個大挑戰(zhàn)就是算法偏見。
人工智能是否全能
機器是沒有情感的,只能根據(jù)輸入的數(shù)據(jù)來進行學習,然后按照既定設計完成相應功能,AI需要大量數(shù)據(jù)來運作,但通常沒有合適的數(shù)據(jù)基礎設施來支持AI學習,最終AI的數(shù)據(jù)基礎不夠,無法真正有效地完成功能,更多的是從事一些指令性的工作,就像生產(chǎn)線上的機器手一樣,都是提前輸入指令,由機器手臂按照固定的步驟操作完成。
人類對大腦還是未知的,我們并不清楚大腦是如何進行學習和工作的,AI其實就是模仿人腦去思考和工作,但我們對大腦的機理并不清楚,就無法讓AI完全模擬人腦,無法完全代替人腦去學習和工作,AI更多時候是根據(jù)輸入的數(shù)據(jù),將見到的問題錄入與已輸入的數(shù)據(jù)進行對比,有重疊度比較高的就認為匹配成功,執(zhí)行相應的預設動作,當已有的樣本庫里沒有匹配到,那AI也不知道該怎么辦。在很多人類活動中,摻雜著很多復雜的社會問題,比如說種族歧視、國家競爭、疾病傳染等問題,AI顯然還意識不到這些問題的存在,這些數(shù)據(jù)不好采集和錄入,AI算法也沒有考慮這些社會因素。
算法的偏見來自哪里
工程師很少刻意將偏見教給算法,那偏見究竟從何而來,這個問題與人工智能背后的核心技術—機器學習休戚相關。機器學習過程可化約為如下步驟,而為算法注入偏見的主要有三個環(huán)節(jié)—數(shù)據(jù)集構建、目標制定與特征選。üこ處煟、數(shù)據(jù)標注(標注者)。
工程師是規(guī)則制定者,算法工程師從頭到尾參與了整個系統(tǒng),包括:機器學習的目標設定、采用哪種模型、選取什么特征(數(shù)據(jù)標簽)、數(shù)據(jù)的預處理等。不恰當?shù)哪繕嗽O定,可能從一開始就引入了偏見,比如意圖通過面相來識別罪犯;不過,更典型的個人偏見代入,出現(xiàn)在數(shù)據(jù)特征的選取環(huán)節(jié)。
數(shù)據(jù)標簽就是一堆幫助算法達成目標的判定因素。算法就好像一只嗅探犬,當工程師向它展示特定東西的氣味后,它才能夠更加精準地找到目標。因此工程師會在數(shù)據(jù)集中設置標簽,來決定算法要學習該數(shù)據(jù)集內(nèi)部的哪些內(nèi)容、生成怎樣的模型。
對于一些非結構化的數(shù)據(jù)集如大量描述性文字、圖片、視頻等,算法無法對其進行直接分析。這時就需要人工為數(shù)據(jù)進行標注,提煉出結構化的維度,用于訓練算法。舉一個很簡單的例子,有時Google Photos會請你幫助判斷一張圖片是否是貓,這時你就參與了這張圖片的打標環(huán)節(jié)。
當打標者面對的是“貓或狗”的提問時,最壞結果不過是答錯;但如果面對的是“美或丑”的拷問,偏見就產(chǎn)生了。作為數(shù)據(jù)的加工人員,打標者時常會被要求做一些主觀價值判斷,這又成為偏見的一大來源。
打標過程正是將個人偏見轉移到數(shù)據(jù)中,被算法吸納,從而生成了帶有偏見的模型,F(xiàn)如今,人工打標服務已成為一種典型商業(yè)模式,許多科技公司都將其海量的數(shù)據(jù)外包進行打標。這意味著,算法偏見正通過一種“隱形化”、“合法化”的過程,被流傳和放大。
人工智能偏見的分類
偏見不是以一種形式出現(xiàn)的,而是有各種類型的。這包括交互偏見、潛意識偏見、選擇偏見、數(shù)據(jù)驅(qū)動的偏見和確認偏見。
交互偏見:是指用戶由于自己與算法的交互方式而使算法產(chǎn)生的偏見。當機器被設置向周圍環(huán)境學習時,它們不能決定要保留或者丟棄哪些數(shù)據(jù),什么是對的,什么是錯的。相反,它們只能使用提供給它們的數(shù)據(jù)——不論是好的、壞的,還是丑的,并在此基礎上做出決策。機器人Tay便是這類偏見的一個例子,它是受到一個網(wǎng)絡聊天社區(qū)的影響而變得偏種族主義。
潛意識偏見:是指算法錯誤地把觀念與種族和性別等因素聯(lián)系起來。例如,當搜索一名醫(yī)生的圖像時,人工智能會把男性醫(yī)生的圖像呈現(xiàn)給一名女性,或者在搜索護士時反過來操作。
選擇偏見:是指用于訓練算法的數(shù)據(jù)被傾向性地用于表示一個群體或者分組,從而使該算法對這些群體有利,而代價是犧牲其他群體。以招聘為例,如果人工智能被訓練成只識別男性的簡歷,那么女性求職者在申請過程中就很難成功。
數(shù)據(jù)驅(qū)動的偏見:是指用來訓練算法的原始數(shù)據(jù)已經(jīng)存在偏見了。機器就像孩子一樣:他們不會質(zhì)疑所給出的數(shù)據(jù),而只是尋找其中的模式。如果數(shù)據(jù)在一開始就被曲解,那么其輸出的結果也將反映出這一點。
確認偏見:這類似于數(shù)據(jù)驅(qū)動的偏見,偏向于那些先入為主的信息。它影響人們怎樣收集信息,以及人們怎樣解讀信息。例如,如果自己覺得8月份出生的人比其他時候出生的更富有創(chuàng)造性,那就會偏向于尋找強化這種想法的數(shù)據(jù)。
Applause推出偏見解決方案
應用測試公司Applause推出了新的人工智能解決方案,同時提供AI訓練所需的龐大數(shù)據(jù)。
Applause已經(jīng)為其應用程序測試解決方案建立了龐大的全球測試社區(qū),該解決方案受到谷歌、Uber、PayPal等品牌的信任。
具體地說,Applause的新解決方案跨越五種獨特的AI活動類型:
①語音:源發(fā)聲以訓練支持語音的設備,并對這些設備進行測試,以確保它們能夠準確地理解和響應;
②OCR:提供文檔和對應的文本來訓練識別文本的算法,并比較打印文檔和識別文本的準確性;
③圖像識別:交付預定義對象和位置的照片,并確保正確識別圖片和識別對象;
④生物識別:獲取生物特征輸入,如人臉和指紋,并測試這些輸入是否會產(chǎn)生易于使用且實際有效的體驗;
⑤聊天機器人:給出樣本問題和不同的意圖讓聊天機器人回答,并與聊天機器人互動,以確保它們能像人類那樣準確地理解和響應。
結尾:
但回過頭來,技術不過是社會與人心的一面鏡子。某種程度上,算法偏見就像在這個我們認為進步、美好的當下,重新呈遞灰暗角落的真相并敲響警鐘。因此,當談及算法偏見的應對時,一部分努力便是要回歸于人?尚业氖,即便是技術層面的自律與治理嘗試,也能極大地降低偏見程度、避免偏見大幅擴張。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
-
10 月之暗面,絕地反擊
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?