AI算法招聘容易讓求職者啞巴吃黃連?
招聘決策還充滿了人為偏見,導致一些組織將至少部分員工搜索工作交給外部技術公司,后者使用機器學習算法篩選申請人。這種思維認為,如果人類很難找到最適合自己公司的員工,那么一臺機器可能會做得更好,更有效。
但是,康奈爾大學計算機與信息科學學者團隊的最新研究向有關這些算法以及開發(fā)和使用它們的技術公司提出了疑問:自動篩選過程的公正性如何?算法是如何構建的?誰設計的?按什么數據支撐的?他們發(fā)現,在這個新興領域中,公司傾向于青睞模糊不清而不是公開透明。在算法領域上缺乏共識,缺乏“偏見”和“公平”的正式定義,使得科技公司能夠根據自己的條件定義算法偏見。
“我認為算法決策工具的創(chuàng)建者越來越認識到,他們需要特別注意它們的算法工具是怎樣影響人們的”計算機科學的博士生,Manish Raghavan說。 “我們研究中遇到許多技術供應商都承認這種了(影響),他們正在采取措施解決偏見和歧視。但是,在如何正確執(zhí)行方面明顯缺乏共識或指導!
為了了解這些工具,研究人員搜尋了可用的公共信息,以及公司采取了哪些措施來評估和緩解算法偏差。受知識產權法保護,科技公司不必披露任何有關其算法模型的職前甄選信息,但也有些公司選擇了提供信息。研究人員研究了19個專門從事算法的職前篩選的供應商,對公司網站,網絡研討會和任何可用的文檔進行了梳理,以深入了解供應商的要求和做法。他們發(fā)現,很少有供應商提供有關如何驗證評估或披露有關如何減輕算法偏差的具體信息。
Raghavan說:“許多供應商都沒有提到消除偏見,這尤其令人擔憂,因為他們根本沒有考慮偏見!奔词顾麄兪褂谩捌姟焙汀肮健边@樣的術語,但這些術語也可能是模糊的。供應商可以聲稱其評估算法是“公平的”,而無需透露公司如何定義公平性。
那難道算法不適合篩選申請人嗎?并不是的,盡管算法存在許多缺陷,但確實有潛力為更公平的社會做出貢獻,我們需要做進一步的工作以確保我們能夠理解和減輕它們帶來的偏見。畢竟,從我們多年經驗來說,求職者面試本身就會遭受各種各樣的歧視。該團隊希望這份研究能讓算法公司對職前評估中道德行為有著更清晰的認知。

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?