訂閱
糾錯
加入自媒體

AI算法招聘容易讓求職者啞巴吃黃連?

招聘決策還充滿了人為偏見,導致一些組織將至少部分員工搜索工作交給外部技術公司,后者使用機器學習算法篩選申請人。這種思維認為,如果人類很難找到最適合自己公司的員工,那么一臺機器可能會做得更好,更有效。

但是,康奈爾大學計算機與信息科學學者團隊的最新研究向有關這些算法以及開發(fā)和使用它們的技術公司提出了疑問:自動篩選過程的公正性如何?算法是如何構建的?誰設計的?按什么數據支撐的?他們發(fā)現,在這個新興領域中,公司傾向于青睞模糊不清而不是公開透明。在算法領域上缺乏共識,缺乏“偏見”和“公平”的正式定義,使得科技公司能夠根據自己的條件定義算法偏見。

“我認為算法決策工具的創(chuàng)建者越來越認識到,他們需要特別注意它們的算法工具是怎樣影響人們的”計算機科學的博士生,Manish Raghavan說。 “我們研究中遇到許多技術供應商都承認這種了(影響),他們正在采取措施解決偏見和歧視。但是,在如何正確執(zhí)行方面明顯缺乏共識或指導!

為了了解這些工具,研究人員搜尋了可用的公共信息,以及公司采取了哪些措施來評估和緩解算法偏差。受知識產權法保護,科技公司不必披露任何有關其算法模型的職前甄選信息,但也有些公司選擇了提供信息。研究人員研究了19個專門從事算法的職前篩選的供應商,對公司網站,網絡研討會和任何可用的文檔進行了梳理,以深入了解供應商的要求和做法。他們發(fā)現,很少有供應商提供有關如何驗證評估或披露有關如何減輕算法偏差的具體信息。

Raghavan說:“許多供應商都沒有提到消除偏見,這尤其令人擔憂,因為他們根本沒有考慮偏見!奔词顾麄兪褂谩捌姟焙汀肮健边@樣的術語,但這些術語也可能是模糊的。供應商可以聲稱其評估算法是“公平的”,而無需透露公司如何定義公平性。

那難道算法不適合篩選申請人嗎?并不是的,盡管算法存在許多缺陷,但確實有潛力為更公平的社會做出貢獻,我們需要做進一步的工作以確保我們能夠理解和減輕它們帶來的偏見。畢竟,從我們多年經驗來說,求職者面試本身就會遭受各種各樣的歧視。該團隊希望這份研究能讓算法公司對職前評估中道德行為有著更清晰的認知。

聲明: 本網站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號