訂閱
糾錯(cuò)
加入自媒體

AI面試是如何工作的?

2021-01-12 21:15
霞光社
關(guān)注

譯者丨艾瑞莉婭

繼可口可樂(lè)、聯(lián)合利華等巨頭采購(gòu)AI招聘系統(tǒng)后,國(guó)內(nèi)招聘平臺(tái)智聯(lián)招聘也推出了視頻面試產(chǎn)品“AI易面”。在面試中AI能進(jìn)行語(yǔ)義分析、視頻分析,還能給出一些固定套路的面試題,加上經(jīng)典的性格和智力測(cè)評(píng),“AI易面”就可以智能完成人崗匹配。聽(tīng)起來(lái)似乎HR已經(jīng)被AI踢出了招聘流程,但這種新技術(shù)也存在不少問(wèn)題。

原本AI招聘的賣點(diǎn)是可以消除企業(yè)在招聘過(guò)程中的人為偏見(jiàn),讓企業(yè)和求職者都能從招聘中受益。但實(shí)際應(yīng)用起來(lái)可沒(méi)那么容易,AI算法并非“生來(lái)”客觀,招聘軟件也會(huì)帶來(lái)新的偏差和歧視,誤刷掉有能力的應(yīng)聘者,甚至讓企業(yè)陷入被動(dòng)境地。


哪些公司在做AI招聘工具?

招聘流程中,每一步都有AI加入的可能性。

Textio公司用機(jī)器學(xué)習(xí)來(lái)幫主管們優(yōu)化崗位描述。Facebook、LinkedIn和ZipRecruiter都是利用算法的推薦,制作專門針對(duì)潛在的候選人招聘頁(yè)面。

另一方面,Ideal、CVViZ等AI提供商推出“簡(jiǎn)歷掃描”服務(wù),可以篩選簡(jiǎn)歷,留下那些符合條件的候選人。而當(dāng)和候選人的面試結(jié)束后,HireVue、Modern Hire等向企業(yè)承諾他們的算法可以分析面試中的對(duì)話,預(yù)測(cè)哪些候選人未來(lái)會(huì)在工作上表現(xiàn)最好。

Pymetric的核心(測(cè)試)小游戲

還有一些軟件公司會(huì)提供AI嵌入的心理測(cè)試,如Humantic通過(guò)候選人的申請(qǐng)材料和個(gè)人網(wǎng)上檔案來(lái)分析,Pymetrics表示可以用一些簡(jiǎn)單的小游戲達(dá)到一樣的效果。

AI招聘工具是如何工作的?

要做好AI招聘工具,數(shù)據(jù)基礎(chǔ)是最大的難題。只有數(shù)據(jù)質(zhì)量高,機(jī)器學(xué)習(xí)算法才能精確。

目前,大多數(shù)AI招聘工具都從現(xiàn)有員工的數(shù)據(jù)中進(jìn)行提取訓(xùn)練的,例如要訓(xùn)練一個(gè)“簡(jiǎn)歷掃描儀”,公司需要收集全部在職員工的簡(jiǎn)歷,與銷售數(shù)據(jù)或年度匯報(bào)等指標(biāo)進(jìn)行對(duì)比。這些數(shù)據(jù)搜集、梳理、分析將教會(huì)算法如何辨別與公司頂尖員工最相似的簡(jiǎn)歷。

當(dāng)然,這種方法只能抓取現(xiàn)有員工的數(shù)據(jù),難免陷入“窠臼”,甚至?xí)霈F(xiàn)用人的偏見(jiàn)。

北美地區(qū)波士頓咨詢集團(tuán)AI部門的聯(lián)合主管Shervin Khodabandeh說(shuō):“AI生來(lái)就是帶有偏見(jiàn)的,因?yàn)槭澜缟细静淮嬖诤翢o(wú)偏差的數(shù)據(jù)!彼忉屨f(shuō),這個(gè)難題在招聘中更加明顯,因?yàn)榭捎脭?shù)據(jù)非常有限——公司招聘的候選人,要過(guò)很多年才能看出他們未來(lái)會(huì)不會(huì)成為頂尖員工。

為了解決這些問(wèn)題,AI服務(wù)提供商們采用一種迂回的方式減少訓(xùn)練數(shù)據(jù)中的偏差。在康奈爾大學(xué)學(xué)習(xí)招聘算法的學(xué)生Manish Raghavan說(shuō),很多賣家都在遵守“4/5規(guī)則”的基礎(chǔ)上設(shè)計(jì)算法(美國(guó)法律規(guī)定,以人口特征劃分,任意人口組被選擇的概率不得低于另一人口組的80%)。所以為了防止企業(yè)承擔(dān)法律責(zé)任,經(jīng)過(guò)精心設(shè)計(jì)的招聘AI工具會(huì)向企業(yè)推薦人數(shù)相等的男性和女性。

但Raghavan說(shuō),這并不意味著在人口特征以外的方面算法也能有同樣的表現(xiàn)。如果訓(xùn)練數(shù)據(jù)大多來(lái)自男性員工,AI有可能學(xué)著把一些更多形容男性的特質(zhì)與“成功”聯(lián)系到一起。例如,簡(jiǎn)歷上有參加高中橄欖球隊(duì)的經(jīng)歷、在介紹信中被稱為“搖滾明星”等。

“如果你有很多這樣的特質(zhì),你可能會(huì)騙到很擅長(zhǎng)預(yù)測(cè)表現(xiàn)杰出的男性的AI招聘工具,但在擅長(zhǎng)女性預(yù)測(cè)AI招聘工具中你可能就會(huì)被淘汰”,Raghavan說(shuō)道。

如果之后公司面試了十位最符合要求的男性和由申請(qǐng)工具挑選出的十位女性的隨機(jī)樣本,表面上來(lái)看這次招聘或許是消除了偏見(jiàn)的,但這份工作還是更容易由男性取得。

“搬起石頭砸了自己的腳”

基于上文提到的“弊病”,AI招聘工具在很多情況下并不能優(yōu)質(zhì)、高效的完成任務(wù)。2018年,亞馬遜開發(fā)的“簡(jiǎn)歷掃描儀”被爆歧視女性,聲名狼藉。本想做招聘AI中的翹楚,卻因不公平對(duì)待含有“女子”一詞(如女子球隊(duì)、女子俱樂(lè)部)的簡(jiǎn)歷而馬失前蹄。

HireVue曾對(duì)自家面試分析AI進(jìn)行了周密的測(cè)試,這款產(chǎn)品可以分析候選人的面部細(xì)微變化、用詞和語(yǔ)氣。

但紐約大學(xué)AI Now學(xué)院的道德倫理“衛(wèi)士”們?cè)u(píng)價(jià)這款工具是“假科學(xué)”、“對(duì)歧視的縱容”,還毫不留情地點(diǎn)名使用這款A(yù)I的企業(yè),其中包括了赫赫有名的聯(lián)合利華、希爾頓集團(tuán)。面對(duì)集體抵制,美國(guó)聯(lián)邦貿(mào)易協(xié)會(huì)正式控告HireVue。伊利諾伊州甚至通過(guò)了一項(xiàng)法案,要求企業(yè)披露對(duì)類似AI工具的應(yīng)用。

前車之鑒,后事之師

波士頓咨詢集團(tuán)的Khodabandeh說(shuō),從之前事件中我們最應(yīng)該吸取的經(jīng)驗(yàn)就是不要盲從AI的推薦,招聘部門經(jīng)理應(yīng)該始終將決策權(quán)握在自己手中!爱(dāng)你的算法告訴你‘這就是你想要的人’時(shí),不應(yīng)盲目信任它!彼a(bǔ)充道。

相反,Khodabandeh認(rèn)為大眾應(yīng)該換個(gè)思路想問(wèn)題。企業(yè)不應(yīng)該讓AI篩選最佳候選人,之后讓招聘部門經(jīng)理給它的“決定”蓋個(gè)章,而是應(yīng)該運(yùn)用AI來(lái)審計(jì)企業(yè)本身的招聘流程。最理想的AI招聘應(yīng)該是能夠深入研究人事數(shù)據(jù),但最終目的并不是預(yù)測(cè)下個(gè)最優(yōu)人選是誰(shuí),而是綜合指出過(guò)去誰(shuí)表現(xiàn)得更好。

Khodabandeh補(bǔ)充說(shuō):“AI算法的一個(gè)優(yōu)勢(shì)就是能夠指出你的偏見(jiàn),你會(huì)發(fā)現(xiàn)自己對(duì)某些候選人特質(zhì)可能已經(jīng)有了不公平、不負(fù)責(zé)任的偏向,甚至自己都沒(méi)意識(shí)到可能已經(jīng)觸及了倫理道德的邊線。這時(shí)候才輪到我們?nèi)祟愡M(jìn)場(chǎng)、主動(dòng)去消除偏見(jiàn)和偏差,決定下一輪面試和招聘看重哪些候選人特質(zhì)!

企業(yè)必須非常了解對(duì)所應(yīng)用算法的審計(jì),康奈爾的研究員Raghavan說(shuō):“多數(shù)AI提供商只會(huì)和客戶分享AI算法的內(nèi)部邏輯。對(duì)很多客戶來(lái)說(shuō),即使拿到審計(jì)證據(jù),他們也沒(méi)有對(duì)現(xiàn)實(shí)情況的評(píng)估能力!

對(duì)于沒(méi)有內(nèi)部數(shù)據(jù)的企業(yè),Raghavan的研究中給出了一些普適性提示:首先,對(duì)于AI系統(tǒng)探測(cè)給出的員工工作表現(xiàn)和面容、聲音、行為等的關(guān)聯(lián)性,要保持懷疑態(tài)度;其次,提供心理方面檢測(cè)及結(jié)論的算法少之又少。因此這類算法提出的關(guān)聯(lián)性一般只比隨機(jī)取樣稍微靠譜一點(diǎn)點(diǎn),得出的結(jié)論本身可能就是一項(xiàng)新風(fēng)險(xiǎn)。

總結(jié)來(lái)看,大火的AI技術(shù)并不是無(wú)所不能。有時(shí),HR們最需要的“高科技工具”只是他們的本能。

文章翻譯自QUARTZ,原標(biāo)題為 How to use AI hiring tools to reduce bias in recruiting,作者是Nicolás Rivero,由霞光社簡(jiǎn)單整理編輯后發(fā)表。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)