提高人工智能道德水平的9個步驟
涉及人工智能應(yīng)用的法律目前還很少,這使得很多組織面臨各方面的壓力,而為了讓公眾放心,人工智能應(yīng)用必須是合乎道德和公平的。
隨著人工智能的應(yīng)用越來越普遍,越來越多的IT領(lǐng)導(dǎo)者開始關(guān)注人工智能的道德含義。事實(shí)上,由SnapLogic公司贊助,由Vanson Bourne公司進(jìn)行的2019年調(diào)查報告發(fā)現(xiàn),在接受調(diào)查的1000名美國和英國IT決策者中, 94%的受訪者認(rèn)為人們應(yīng)該更加關(guān)注人工智能開發(fā)中的企業(yè)責(zé)任和道德規(guī)范。
人們?yōu)榇烁械綋?dān)憂是有理由的。一些著名的科技公司已經(jīng)卷入相關(guān)丑聞,因?yàn)樗麄儎?chuàng)建的人工智能系統(tǒng)沒有按預(yù)期行事。例如,在2015年,很多用戶抱怨谷歌公司的圖像識別軟件將黑人標(biāo)記為“大猩猩”,雖然這家科技巨頭承諾要解決這個問題,但在三年之后,谷歌公司提供的唯一解決方案就是取消人工智能識別大猩猩的能力。而微軟公司的基于人工智能的Twitterbot-tay上在使用了幾個小時后,就變成了種族主義者,這讓微軟公司不得不取消了這個業(yè)務(wù)。
此外據(jù)悉,舊金山日前成為美國第一個禁止市場機(jī)構(gòu)使用面部識別軟件的主要城市,其部分原因是該技術(shù)存在潛在的偏見。幾個規(guī)模較小的城市已經(jīng)通過或正在考慮類似的禁令。
雖然有關(guān)人工智能失誤的報道屢見不鮮,但許多人擔(dān)心,在沒有公眾知識的情況下,更普遍、更陰險的人工智能犯罪可能發(fā)生在幕后?蛻艨赡苡肋h(yuǎn)不會知道他們是否因?yàn)榈赖律峡梢傻娜斯ぶ悄芩惴ǘ痪芙^貸款或面臨欺詐嫌疑。
紐約大學(xué)的AI Now研究所和美國南部浸禮會派這樣的組織都在呼吁開發(fā)人工智能的公司讓其技術(shù)變得更加透明,并同意遵守相應(yīng)的道德原則。作為回應(yīng),包括谷歌公司和微軟公司在內(nèi)的一些企業(yè)已經(jīng)發(fā)布了有關(guān)人工智能使用的內(nèi)部指南。
然而,許多人認(rèn)為這還遠(yuǎn)遠(yuǎn)不夠。相反,他們希望政府機(jī)構(gòu)參與并頒布法規(guī)。在Vanson Bourne公司的研究中,87%的商業(yè)IT領(lǐng)導(dǎo)者表示應(yīng)該對人工智能開發(fā)進(jìn)行監(jiān)管。
IT領(lǐng)導(dǎo)者具有這種愿望的部分原因是,在缺乏相關(guān)法律的情況下,企業(yè)沒有辦法知道他們是否做了足夠的工作來確保其開發(fā)的人工智能是合乎道德的。監(jiān)管法律可能使他們有能力向客戶保證人工智能的應(yīng)用,因?yàn)榭梢员硎舅麄冏袷亓怂邢嚓P(guān)法律。如果沒有這些法律,獲得和保持客戶信任可能會更加困難。
但即使沒有監(jiān)管法律,企業(yè)也可以而且應(yīng)該采取措施確保他們使用人工智能是道德的。以下提供了企業(yè)可以改善其在人工智能方面的道德立場采取的9項(xiàng)措施:
1.遵守法規(guī)
組織至少需要確保其人工智能應(yīng)用程序符合數(shù)據(jù)隱私法規(guī)。大多數(shù)人工智能軟件(尤其是機(jī)器學(xué)習(xí))都依賴于大量的數(shù)據(jù)來進(jìn)行操作,企業(yè)有責(zé)任確保他們對這些數(shù)據(jù)的處理符合相關(guān)法律。在美國,組織可能需要遵守健康保險便攜性和責(zé)任法案(HIPAA)、兒童在線隱私保護(hù)法案(COPPA)或其他聯(lián)邦或州法律。
如果組織在歐洲擁有客戶或員工,他們還必須遵守歐盟的通用數(shù)據(jù)保護(hù)法規(guī)(GDPR)。除其他事項(xiàng)外,這項(xiàng)全面的立法要求組織盡可能以最短的時間存儲數(shù)據(jù),并為個人提供查看和刪除其個人數(shù)據(jù)的方法。就人工智能而言,最重要的是,GDPR法規(guī)還指出,“個人不應(yīng)僅僅依據(jù)自動處理(例如算法)做出決定,而且具有法律約束力或?qū)ζ洚a(chǎn)生重大影響!
2. 遵守數(shù)據(jù)科學(xué)最佳實(shí)踐
除了遵守政府部門的規(guī)定外,組織還應(yīng)該提供數(shù)據(jù)科學(xué)最佳實(shí)踐。Forrester公司在其名為“人工智能的倫理:如何避免有害的偏見和歧視” 報告中建議,“為了防止模型中的算法偏見,組織需要堅持?jǐn)?shù)據(jù)挖掘的基本原則,確保組織培訓(xùn)數(shù)據(jù)代表其計劃使用模型的人群!
還有一些人建議,數(shù)據(jù)科學(xué)家需要反復(fù)測試和驗(yàn)證他們的模型,并保持跟蹤數(shù)據(jù)沿襲的方法。雖然很少有企業(yè)高管了解機(jī)器學(xué)習(xí)的復(fù)雜性,但他們有義務(wù)確保他們的數(shù)據(jù)科學(xué)家遵守行業(yè)最佳實(shí)踐。
3.安全設(shè)計
幾十年來,科幻作家一直在警告人工智能可能具有世界末日的危險。如今人工智能變得越來越普遍,重要的是不要忽視人工智能傷害人類的可能性,因?yàn)樗恢皇窃跁碗娪爸谐霈F(xiàn)的事物。自動駕駛汽車和基于人工智能的武器系統(tǒng)等相關(guān)應(yīng)用顯然會影響人類的安全,設(shè)計師應(yīng)確保這些系統(tǒng)盡可能安全。雖然其他機(jī)器學(xué)習(xí)系統(tǒng)可能不會直接影響人類的人身安全,但它們可能會對他們的隱私和在線安全產(chǎn)生重大影響。
4.使人工智能技術(shù)更加透明
企業(yè)在人工智能道德方面可以采取的最重要步驟之一是確保他們完全理解使用的任何人工智能系統(tǒng)的運(yùn)作。人工智能供應(yīng)商Kyndi公司首席執(zhí)行官Ryan Welsh在一次采訪中指出,“要發(fā)揮人工智能的全部潛力,信任至關(guān)重要。而信任來自人們的理解,并且能夠證明系統(tǒng)結(jié)論和結(jié)果背后的推理。人工智能不可能是一個黑盒,因?yàn)樗?jīng)常出現(xiàn)。要想讓人工智能蓬勃發(fā)展,就必須更加透明。”
AI Now研究所表示,“為了實(shí)現(xiàn)有意義的問責(zé)制,我們需要更好地理解和跟蹤人工智能系統(tǒng)的組成部分及其所依賴的完整供應(yīng)鏈:這意味著要考慮培訓(xùn)數(shù)據(jù)、測試數(shù)據(jù)、模型的來源和使用、產(chǎn)品生命周期中的應(yīng)用程序接口(API)和其他基礎(chǔ)設(shè)施組件!

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
6月20日立即下載>> 【白皮書】精準(zhǔn)測量 安全高效——福祿克光伏行業(yè)解決方案
-
7月3日立即報名>> 【在線會議】英飛凌新一代智能照明方案賦能綠色建筑與工業(yè)互聯(lián)
-
7月22-29日立即報名>> 【線下論壇】第三屆安富利汽車生態(tài)圈峰會
-
7.30-8.1火熱報名中>> 全數(shù)會2025(第六屆)機(jī)器人及智能工廠展
-
7月31日免費(fèi)預(yù)約>> OFweek 2025具身機(jī)器人動力電池技術(shù)應(yīng)用大會
-
免費(fèi)參會立即報名>> 7月30日- 8月1日 2025全數(shù)會工業(yè)芯片與傳感儀表展
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權(quán)
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關(guān)鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨(dú)角獸:獲上市公司戰(zhàn)投,干人形機(jī)器人
- 5 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領(lǐng)跑?
- 9 格斗大賽出圈!人形機(jī)器人致命短板曝光:頭腦過于簡單
- 10 一文看懂視覺語言動作模型(VLA)及其應(yīng)用