訂閱
糾錯
加入自媒體

人工智能在工作場景下的新興技術及倫理問題

監(jiān)視你的行動

今年早些時候,亞馬遜(Amazon)被迫公開否認正在為一款追蹤倉庫工人行為的設備申請專利。該公司在一份聲明中說:“有關這項專利的猜測是錯誤的!毕喾,其腕帶跟蹤系統(tǒng)將被用作手持掃描儀的替代品。

隨著一年來有關亞馬遜倉庫虐待員工情況的報道不斷傳來,這種保證變得不那么令人信服,其中包括了對員工是否可以上廁所的限制。

當然,想要不惜一切代價實現效率最大化的公司不需要等待亞馬遜的腕帶上市。Insight的主管Jeff Dodge表示,視頻攝像頭與圖像識別技術的結合,可以同樣容易地追蹤到員工的動作。Insight是一家總部位于丹佛的技術咨詢和系統(tǒng)集成公司。

“如果你是一名員工,并且你在一個有攝像頭的空間里,你的雇主實際上是在觀察、分析你的每一個動作、每一個行動,”他說。

除了某些特定的法規(guī)遵從性相關的情況外,這在今天是完全合法和可能的。

這種監(jiān)視可以是完全無害的——例如,出于安全目的,或為了幫助優(yōu)化辦公室布局。Dodge說,這就是公司目前使用它的方式。

“我們經常與客戶交談,不是談論什么是可能的,而是談論什么是正確的,什么是道德上正確的,”他說。

他說,是的,我們有可能追蹤每個員工在洗手間花了多少時間。“但人們非常清楚,如果他們這樣做了,而有人發(fā)現了,那將帶來一個非常負面的新聞后果。”

Dodge說,關鍵是要與員工開誠布公地討論人工智能項目的目的!啊,我們正在考慮把洗手間建在更方便使用的地方,但要做到這一點,我們必須監(jiān)控人們會去哪兒。’如果你確實得到了支持,那么對于誰有權訪問這些數據的透明度對于建立信任來說同樣重要。如果被發(fā)現某些人工智能正在做出幫助管理的決策,而且你擁有一個將我們與他們相比的環(huán)境,那么信任就蕩然無存了,”他說。

監(jiān)控不一定局限于視頻監(jiān)控。公司還可以訪問員工的電子郵件、網頁瀏覽記錄以及大量其他的行為數據。

衡量你的忠誠度

情緒分析包括使用分析來確定人們是否對公司或產品有好感。同樣的技術也可以用在員工身上,只不過這里的公司不僅可以訪問他們的公共社交媒體檔案,還可以訪問他們所有的內部通信。

如果做得恰當,情感分析可能會對一家公司有用,而不會造成侵害。

這項技術的一個具體應用是預測哪些員工可能離開一家公司,例如,他們正在瀏覽求職網站,發(fā)送簡歷,或者比平時發(fā)送更多帶有附件的電子郵件到個人賬戶。

一位不愿透露姓名的財富500強公司的高級信息安全專家表示,這很容易做到。這位專業(yè)人士說他已經做了十年了,而且非?煽。

例如,這種技術可以被無害地使用,以確保專有信息不會離開公司,這就是安全專家的公司使用專有信息的方式;蛘咚部梢员痪C合使用,在每個人離開公司之前幫助公司解決普遍的士氣問題。但是,公司也有其他方法可以利用從這些方法中獲得的信息,例如將一名被認為不忠的員工排除在有聲望的任務、旅行機會或專業(yè)培訓之外。

Dodge表示,這樣做可能會給公司帶來很多麻煩,這也是大多數公司避開人工智能這類應用的原因。“一般來說,公司對透明度的指數很高。他們都有關于他們做什么和不做什么的公共政策 - 他們是真的在考慮對他們的品牌的長期影響以及公眾對濫用這種技術的看法。”

管理你的健康

越來越多的公司正在推出員工健康計劃。但是,Dodge說,這里有很大的隱私侵犯空間,公司必須小心。尤其是當公司還在為員工管理醫(yī)療保險項目時。

如果事情變得過于個人化,就會出現很多問題。當員工佩戴個人健身或健康監(jiān)測設備時,很快就會變得非常私人化。

“如果你愿意,從隱私的角度來說,它是有害的,”Dodge說!跋胂笠幌,‘我們建議你去看一下關于IBS的專家,因為你經常去洗手間’。”

Dodge建議公司完全不要涉足這一行業(yè),讓專業(yè)公司來收集和分析數據,并直接向員工提出建議。即使這些建議是通過公司贊助的員工門戶網站提出的,但它是一項外部服務這一事實,也有助于減少人們對它的反感,以及濫用這種令人毛骨悚然的服務的可能性。

AI與權力平衡

在工作場所濫用人工智能的一個常見因素是技術如何影響公司和員工之間的權力動態(tài)。

卡內基梅隆大學倫理與計算技術教授、CREATE實驗室主任Illah Nourbakhsh表示:“你可以利用(人工智能)來增強員工的代理能力。或者你可以用它來鞏固公司的權力結構。它是關于權力關系的。你可以用人工智能來創(chuàng)造平衡,或賦予權力——或強化工作場所現有的緊張關系。”

對于一家公司來說,試圖對其員工獲得更多權力是很有吸引力的,比如通過使用監(jiān)控技術來提高生產力。

“從戰(zhàn)術上講,這可能會產生一些效果,”他說!暗菑膽(zhàn)略上來說,從長遠來看,它會讓員工感覺不那么有能力,并會損害生產力和營業(yè)額。如果亞馬遜因為你走得太慢而罰款,那會讓員工感覺不那么受重視,也不像團隊中的一員。短期來說,它會讓人們走得更快,但從長期來看,它會傷害人際關系。”

與其他專家一樣,Nourbakhsh建議,在推出新的人工智能項目時,應高度關注透明度和可解釋性。

這包括潛在數據集和用于分析它的算法中的偶然和故意偏差問題,以及數據或算法中的錯誤。

當好的AI變壞的時候

此外,公司需要為AI以意想不到的方式失敗做好準備。

“AI是外星人,”Nourbakhsh說。“我們假設人工智能系統(tǒng)會像人類一樣犯錯誤!

這種假設可能是有害的。

例如,人工智能系統(tǒng)可以以一種相對微妙的方式觀察一幅經過修改的圖像,并以極高的自信將其完全歸為其他類別。

例如,去年,研究人員發(fā)現,一小片膠帶會讓人工智能認為,一個停車標志是一個限速為每小時45英里的標志,這對于人工智能驅動的汽車來說是一個嚴重的錯誤。

“這是一個驚人的錯誤,”Nourbakhsh說。 “太可怕了。但是,這有助于我們對于一個事情是如何失敗的理解,我們有一種先入為主的偏見。當它失敗時,它不僅僅是一點點的失敗,就像人類失敗一樣。但是它會以一種完全不同的方式失敗”。

有時,結果可能是致命的。

去年10月,一架波音737 MAX飛機在印度尼西亞附近墜毀,機上189人全部遇難,原因是自動駕駛系統(tǒng)出現問題。

他說,按照系統(tǒng)的設計方式,飛行員很難重新獲得控制權!叭祟愋枰M行最后的監(jiān)督。當公司實施人工智能系統(tǒng)并給予他們自主控制時,這是有問題的!

給人類控制權的一種方法是確保人工智能系統(tǒng)能夠自我解釋,而且解釋需要讓用戶能夠理解。他表示,這應該是任何公司構建或購買人工智能系統(tǒng)時的基本要求。

如果公司有可用的工具來監(jiān)控人工智能系統(tǒng),以確保它們正常工作,這也會有所幫助。但這些工具目前還無法使用,甚至無法解決種族或性別偏見等常見問題。德勤(Deloitte)網絡風險服務數據安全主管Vivek Katyal表示,企業(yè)必須建立自己的網絡!盎蛘吣憧梢允止ふ{節(jié),然后想辦法解決問題!

當然,任何技術都無法阻止企業(yè)故意濫用人工智能系統(tǒng)。最近一項針對人工智能早期使用者的調查顯示,在與人工智能相關的三大擔憂中,不到三分之一的人將倫理風險列為最重要的三大擔憂。相比之下,超過一半的受訪者表示,網絡安全是他們最關心的三大問題之一。

他說,除了聲譽受損和與隱私相關的合規(guī)標準之外,沒有什么能迫使企業(yè)做出正確的事情了。

Katyal說:“在缺乏監(jiān)管的情況下,人們會做自己想做的事。”各州正在制定法案,擴大對隱私的保護,另外有一個國家標準也是有意義的。但他說,即使有隱私規(guī)定,也無助于解決算法存在偏見或濫用的問題!拔覀儗⑷绾胃玫目刂扑?這是我看到的當下組織需要解決的一個重要問題!

<上一頁  1  2  
聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號