訂閱
糾錯
加入自媒體

人工智能在工作場景下的新興技術(shù)及倫理問題

以員工為中心的人工智能的確帶來了巨大的好處,但短期內(nèi)的收益也可能會帶來反作用,因?yàn)樗赡軙䦷韱T工士氣低落、員工流動率上升、生產(chǎn)率下降等問題,并引發(fā)公共關(guān)系方面的反彈。

人工智能正在迅速的進(jìn)入工作場所。因?yàn)槿斯ぶ悄苣軌蛟谒查g做出明智的預(yù)測,并以人類無法匹敵的規(guī)模完成特定任務(wù),因而正在被應(yīng)用于從業(yè)務(wù)流程到分析的所有領(lǐng)域。

雖然人工智能對工作場所的影響的大部分審查都集中在適合替換的工作類型上,但是人工智能專門針對勞動力問題的努力,比如進(jìn)行求職者篩選和績效評估,出現(xiàn)了特別棘手的問題——尤其是當(dāng)機(jī)器人開始進(jìn)入管理領(lǐng)域的時候。

誠然,以員工為中心的人工智能具有顯著的優(yōu)勢,但短期內(nèi)人工智能推動的生產(chǎn)率或安全性的提高,從長遠(yuǎn)來看可能會適得其反,員工不滿和士氣低落都會導(dǎo)致更高的人員流動率,并最終導(dǎo)致生產(chǎn)率的下降。此外,人工智能的影響還可能會導(dǎo)致公關(guān)問題,讓客戶、投資者和求職者失去興趣,更不用說可能違反工作場所隱私的法律和合規(guī)問題了。

以下是對工作場所出現(xiàn)的新人工智能技術(shù)的研究,它們是如何工作的,它們的意圖是什么,以及它們可能會在何時越界。

篩選你的工作申請

上個月,亞馬遜(Amazon)取消了一款基于人工智能(AI)的招聘工具,因?yàn)樗鼘ε源嬖谄姟J聦?shí)證明,當(dāng)一家公司的開發(fā)者大多是白人男性時,他們開發(fā)的人工智能得出的結(jié)論就很可能是,白人男性比其他人群更適合這家公司。如果將性別從考慮范圍中剔除,人工智能也將找到實(shí)現(xiàn)同樣目標(biāo)的代理措施。

但這并沒有阻止其他公司將人工智能應(yīng)用于簡歷篩選。例如,Oracle正在推出自己的工具來尋找“最適合”的候選人,Oracle負(fù)責(zé)自適應(yīng)智能應(yīng)用程序的副總裁Melissa Boxer說。

“我們總是喝著自己的香檳,”Boxer表示。甲骨文(Oracle)是一家數(shù)據(jù)公司,希望向其客戶銷售各種人工智能工具。 “這是不可談判的問題之一。我們在公司內(nèi)部推出了我們正在開發(fā)的產(chǎn)品!

Boxer說,Oracle雇傭了很多人,所以這是一個很好的起點(diǎn)。但人力資源員工不得不費(fèi)力處理大量的員工。“我們?nèi)绾尾拍茏屵@項(xiàng)工作變得更輕松,并確保我們雇傭了合適的人才?”

此外,但無意識的偏見、數(shù)據(jù)隱私和其他道德問題也是其中人們最關(guān)心的問題。

“我們有一個道德委員會,”Boxer說。 “他們負(fù)責(zé)建立機(jī)器學(xué)習(xí)公平性的最佳實(shí)踐,以及相關(guān)的問責(zé)制和透明度概念。”

例如,其中包括哪些類型的個人數(shù)據(jù)可能會或可能不會用作學(xué)習(xí)過程的一部分的指導(dǎo)原則。

她還表示,Oracle致力于讓人工智能變得可以解釋——努力解決人工智能的“黑箱”問題。“我們已經(jīng)在應(yīng)用程序中設(shè)置了一系列監(jiān)督控制措施,以促進(jìn)透明度和問責(zé)制。”

Boxer說,Oracle還計(jì)劃推出向員工提供推薦服務(wù)的工具。例如,銷售人員可能會得到關(guān)于下一位最有希望成為潛在客戶的建議。Boxer說,雖然使用人工智能來建議員工要承擔(dān)的任務(wù)可能會產(chǎn)生一系列負(fù)面影響,但Oracle的目標(biāo)是讓員工更容易完成工作。

“這不僅僅是讓AI來提醒你需要做的事情,”她說。 “它讓員工更深入的了解了他們的銷售渠道。以及我們是否專注于正確的機(jī)會?”

接聽服務(wù)臺電話

在電影中,當(dāng)人工智能與人類對話時,結(jié)局往往很糟糕。比如,Hal 9000,還有終結(jié)者。但這也會發(fā)生在現(xiàn)實(shí)生活中。最著名的是,在2015年,微軟的Tay聊天機(jī)器人僅僅在互聯(lián)網(wǎng)上曝光了幾個小時,就變成了一個種族主義者。

大多數(shù)公司正在以更可控的方式部署聊天機(jī)器人——例如,用于客戶服務(wù)或技術(shù)服務(wù)臺。

本月,微軟(Microsoft)宣布將正面解決這個問題,發(fā)布了一套建立負(fù)責(zé)聊天機(jī)器人的指導(dǎo)方針。

例如,該公司表示,用戶應(yīng)該清楚,他們是在與聊天機(jī)器人交談,而不是與另一個人交談。當(dāng)對話進(jìn)行得不順利時,聊天機(jī)器人應(yīng)該迅速將問題轉(zhuǎn)到真人身上。

其中還包括了一個關(guān)于確保機(jī)器人有內(nèi)置的安全措施來防止其被濫用,并對濫用或攻擊性用戶做出適當(dāng)反應(yīng)的章節(jié)。

“承認(rèn)你的機(jī)器人的局限性,確保你的機(jī)器人堅(jiān)持著它的設(shè)計(jì)目的。”微軟公司負(fù)責(zé)會話AI的副總裁Lili Cheng在一篇博客文章中寫道。 例如,一個專為點(diǎn)披薩而設(shè)計(jì)的機(jī)器人應(yīng)該避免涉及種族、性別、宗教和政治等敏感話題。

這些準(zhǔn)則還涉及了可靠性、公平性和隱私問題。

評估你的表現(xiàn)

今年夏天,彭博社(Bloomberg)報(bào)道稱,IBM正利用其人工智能平臺沃森(Watson)來評估員工的表現(xiàn),甚至是預(yù)測其未來的表現(xiàn)。然后,這些評級將被經(jīng)理們用于獎金、薪酬和晉升決策。

IBM聲稱其準(zhǔn)確率為96%,但是在員工評估中引入人工智能并提出注意事項(xiàng)可能會引起關(guān)注。畢竟,你需要知道當(dāng)它出錯時你該怎么辦?還有很多事情可能會出錯,特別是如果這項(xiàng)技術(shù)沒有被正確推廣的話。

“我們可以設(shè)計(jì)一個用于績效評估的人力資源系統(tǒng),該系統(tǒng)可以與智能算法一起運(yùn)行,從個人過去的行為中學(xué)習(xí),或者進(jìn)行某種測試來衡量他們的決策能力,”來自瑞爾森大學(xué)的一位教授表示。 “無論它是什么,如果設(shè)計(jì)不當(dāng),它就可能會有很大的偏差,而且最終可能會給出錯誤的建議!

為了避免問題,任何這樣的系統(tǒng)都應(yīng)該從一開始就具有透明度。

“這個模型的每一步都應(yīng)該得到公司的驗(yàn)證,所以他們不會處理任何黑盒算法,”她說。對于內(nèi)部開發(fā)的系統(tǒng)和商用工具來說都是如此。

她表示,該算法的大部分設(shè)計(jì)也可能是主觀的,比如決定是否推薦時要考慮哪些因素。她說,這些設(shè)計(jì)決策需要與使用該技術(shù)的人分享,并且需要被相關(guān)人員理解。

她說:“如果你還記得金融危機(jī),那里就涉及到了人們無法理解和審計(jì)的復(fù)雜的數(shù)學(xué)問題。他們看不出到底出了什么問題!

除了檢查算法是否如設(shè)計(jì)的那樣工作,公司還應(yīng)該確保使用了正確的數(shù)據(jù)集,并且系統(tǒng)能夠識別出何時存在數(shù)據(jù)不足,或者數(shù)據(jù)不合適的問題。

對于績效評估,考慮到每個工作類別需要不同的標(biāo)準(zhǔn),并且這些標(biāo)準(zhǔn)可能會因部門或其他因素而變化,數(shù)據(jù)集在許多情況下可能不充分,或者存在過度代表某些類別而犧牲其他類別的問題。

Bener說:“人工智能術(shù)語中還有一種叫做概念漂移的東西,這意味著今天我的模型假設(shè)是正確的,但是事情發(fā)生了變化,我的數(shù)據(jù)發(fā)生了變化,我的環(huán)境發(fā)生了變化,我的客戶也發(fā)生了變化。因?yàn)檎麄系統(tǒng)也就有了一個漂移,我需要重新審視算法來校準(zhǔn)它并再次進(jìn)行優(yōu)化!

“審計(jì)非常重要,”她說。“但我認(rèn)為目前的審計(jì)系統(tǒng)沒有很好地涵蓋這些算法,因?yàn)槭苓^培訓(xùn)的人不夠多!

她表示,審計(jì)師需要10到15年的經(jīng)驗(yàn),才能熟練地評估人工智能算法,而且現(xiàn)在還為時過早!拔覀儧]有那樣的人!

管理你的工作

擔(dān)心你的老板可能會被人工智能取代,而你很快就要為機(jī)器人工作?對一些人來說,這種未來已經(jīng)到來。

擁有15年工作經(jīng)驗(yàn)的軟件開發(fā)人員Paulo Eduardo Lobo就職于巴西巴拉那州政府。但最近,他還在科技供應(yīng)商Zerocracy做自由職業(yè)者,該公司用人工智能取代了項(xiàng)目經(jīng)理。

AI會根據(jù)開發(fā)人員的聲譽(yù)和其他因素分配項(xiàng)目任務(wù)。他們還會設(shè)定時間表,預(yù)測交付時間,并計(jì)算預(yù)算。

Lobo說:“我們不需要開會或人為干預(yù)來給團(tuán)隊(duì)成員分配任務(wù)!贝送,他還說,這有助于鼓舞士氣!拔覀儧]有人試圖取悅項(xiàng)目經(jīng)理,因?yàn)檫@是一個人工智能,另一方面,人工智能也不會浪費(fèi)時間以試圖取悅團(tuán)隊(duì)成員或提高士氣!

它有助于公司使用一種編程方法,使項(xiàng)目可以很容易地分割成小任務(wù),通常持續(xù)時間不超過30分鐘。

但Lobo說,有些任務(wù)還不能自動化,例如確定項(xiàng)目的范圍。 “必須有人來定義我們的軟件將要做什么,以及我們首先要做什么,”他說。此外,人們?nèi)匀恍枰u估代碼質(zhì)量,并在出現(xiàn)問題時承擔(dān)責(zé)任。

Zerocracy的軟件架構(gòu)師Kirill Chernyavsky表示,如果某個任務(wù)是由不急于完成的開發(fā)人員承擔(dān)的,那么可能還需要人工干預(yù)。

人工智能驅(qū)動的項(xiàng)目管理是一個新的想法,但可能很難推廣。“客戶更喜歡傳統(tǒng)的管理,因?yàn)闀r間證明了這一點(diǎn),”他說。

總部位于帕洛阿爾托的Zerologin成立于兩年前,自去年春天以來一直在使用其AI系統(tǒng),現(xiàn)在已經(jīng)有五個客戶在使用該系統(tǒng)。但首席執(zhí)行官Yegor Bugayenko表示,開發(fā)人員已經(jīng)為AI工作了大約一年。目前有60名開發(fā)人員在這個平臺上工作,其中一些是Zerocracy的員工,一些是自由職業(yè)者,其余的是客戶公司的員工。

“最初,當(dāng)人們開始在機(jī)器人管理下工作時,他們會感到驚訝,并產(chǎn)生懷疑,”他說。“他們認(rèn)為電腦不可能告訴他們該做什么。”

1  2  下一頁>  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號