面試你的AI“小姐姐”真有那么神?

霞光社
0 評(píng)論 7891 瀏覽 4 收藏 10 分鐘
B端产品经理要负责对目标行业和市场进行深入的分析和调研,了解客户的需求、痛点、期望和行为,找到产品的价值主张 🔗

編輯導(dǎo)語:AI技術(shù)在人才招聘領(lǐng)域已經(jīng)被廣泛使用,據(jù)不完全數(shù)據(jù)統(tǒng)計(jì),在美國(guó)已有超過100萬求職者接受了 AI 面試,一些大學(xué)甚至開設(shè)了培訓(xùn)課程來提升學(xué)生在 AI 面試時(shí)的表現(xiàn)。隨著AI面試越來越多,我們不禁開始思考:AI面試官真的有那么神奇嗎?

繼可口可樂、聯(lián)合利華等巨頭采購(gòu)AI招聘系統(tǒng)后,國(guó)內(nèi)招聘平臺(tái)智聯(lián)招聘也推出了視頻面試產(chǎn)品“AI易面”。在面試中AI能進(jìn)行語義分析、視頻分析,還能給出一些固定套路的面試題,加上經(jīng)典的性格和智力測(cè)評(píng),“AI易面”就可以智能完成人崗匹配。

聽起來似乎HR已經(jīng)被AI踢出了招聘流程,但這種新技術(shù)也存在不少問題。

原本AI招聘的賣點(diǎn)是可以消除企業(yè)在招聘過程中的人為偏見,讓企業(yè)和求職者都能從招聘中受益。但實(shí)際應(yīng)用起來可沒那么容易,AI算法并非“生來”客觀,招聘軟件也會(huì)帶來新的偏差和歧視,誤刷掉有能力的應(yīng)聘者,甚至讓企業(yè)陷入被動(dòng)境地。

一、哪些公司在做AI招聘工具?

招聘流程中,每一步都有AI加入的可能性。

Textio公司用機(jī)器學(xué)習(xí)來幫主管們優(yōu)化崗位描述。Facebook、LinkedIn和ZipRecruiter都是利用算法的推薦,制作專門針對(duì)潛在的候選人招聘頁面。

另一方面,Ideal、CVViZ等AI提供商推出“簡(jiǎn)歷掃描”服務(wù),可以篩選簡(jiǎn)歷,留下那些符合條件的候選人。而當(dāng)和候選人的面試結(jié)束后,HireVue、Modern Hire等向企業(yè)承諾他們的算法可以分析面試中的對(duì)話,預(yù)測(cè)哪些候選人未來會(huì)在工作上表現(xiàn)最好。

圖注:Pymetric的核心(測(cè)試)小游戲

還有一些軟件公司會(huì)提供AI嵌入的心理測(cè)試,如Humantic通過候選人的申請(qǐng)材料和個(gè)人網(wǎng)上檔案來分析,Pymetrics表示可以用一些簡(jiǎn)單的小游戲達(dá)到一樣的效果。

二、AI招聘工具是如何工作的?

要做好AI招聘工具,數(shù)據(jù)基礎(chǔ)是最大的難題。只有數(shù)據(jù)質(zhì)量高,機(jī)器學(xué)習(xí)算法才能精確。

目前,大多數(shù)AI招聘工具都從現(xiàn)有員工的數(shù)據(jù)中進(jìn)行提取訓(xùn)練的,例如要訓(xùn)練一個(gè)“簡(jiǎn)歷掃描儀”,公司需要收集全部在職員工的簡(jiǎn)歷,與銷售數(shù)據(jù)或年度匯報(bào)等指標(biāo)進(jìn)行對(duì)比。這些數(shù)據(jù)搜集、梳理、分析將教會(huì)算法如何辨別與公司頂尖員工最相似的簡(jiǎn)歷。

當(dāng)然,這種方法只能抓取現(xiàn)有員工的數(shù)據(jù),難免陷入“窠臼”,甚至?xí)霈F(xiàn)用人的偏見。

北美地區(qū)波士頓咨詢集團(tuán)AI部門的聯(lián)合主管Shervin Khodabandeh說:“AI生來就是帶有偏見的,因?yàn)槭澜缟细静淮嬖诤翢o偏差的數(shù)據(jù)?!彼忉屨f,這個(gè)難題在招聘中更加明顯,因?yàn)榭捎脭?shù)據(jù)非常有限——公司招聘的候選人,要過很多年才能看出他們未來會(huì)不會(huì)成為頂尖員工。

為了解決這些問題,AI服務(wù)提供商們采用一種迂回的方式減少訓(xùn)練數(shù)據(jù)中的偏差。在康奈爾大學(xué)學(xué)習(xí)招聘算法的學(xué)生Manish Raghavan說,很多賣家都在遵守“4/5規(guī)則”的基礎(chǔ)上設(shè)計(jì)算法(美國(guó)法律規(guī)定,以人口特征劃分,任意人口組被選擇的概率不得低于另一人口組的80%)。

所以為了防止企業(yè)承擔(dān)法律責(zé)任,經(jīng)過精心設(shè)計(jì)的招聘AI工具會(huì)向企業(yè)推薦人數(shù)相等的男性和女性。但Raghavan說,這并不意味著在人口特征以外的方面算法也能有同樣的表現(xiàn)。

如果訓(xùn)練數(shù)據(jù)大多來自男性員工,AI有可能學(xué)著把一些更多形容男性的特質(zhì)與“成功”聯(lián)系到一起。例如,簡(jiǎn)歷上有參加高中橄欖球隊(duì)的經(jīng)歷、在介紹信中被稱為“搖滾明星”等。

“如果你有很多這樣的特質(zhì),你可能會(huì)騙到很擅長(zhǎng)預(yù)測(cè)表現(xiàn)杰出的男性的AI招聘工具,但在擅長(zhǎng)女性預(yù)測(cè)AI招聘工具中你可能就會(huì)被淘汰”,Raghavan說道。

如果之后公司面試了十位最符合要求的男性和由申請(qǐng)工具挑選出的十位女性的隨機(jī)樣本,表面上來看這次招聘或許是消除了偏見的,但這份工作還是更容易由男性取得。

三、“搬起石頭砸了自己的腳”

基于上文提到的“弊病”,AI招聘工具在很多情況下并不能優(yōu)質(zhì)、高效的完成任務(wù)。

2018年,亞馬遜開發(fā)的“簡(jiǎn)歷掃描儀”被爆歧視女性,聲名狼藉。本想做招聘AI中的翹楚,卻因不公平對(duì)待含有“女子”一詞(如女子球隊(duì)、女子俱樂部)的簡(jiǎn)歷而馬失前蹄。

HireVue曾對(duì)自家面試分析AI進(jìn)行了周密的測(cè)試,這款產(chǎn)品可以分析候選人的面部細(xì)微變化、用詞和語氣。

但紐約大學(xué)AI Now學(xué)院的道德倫理“衛(wèi)士”們?cè)u(píng)價(jià)這款工具是“假科學(xué)”、“對(duì)歧視的縱容”,還毫不留情地點(diǎn)名使用這款A(yù)I的企業(yè),其中包括了赫赫有名的聯(lián)合利華、希爾頓集團(tuán)。

面對(duì)集體抵制,美國(guó)聯(lián)邦貿(mào)易協(xié)會(huì)正式控告HireVue。伊利諾伊州甚至通過了一項(xiàng)法案,要求企業(yè)披露對(duì)類似AI工具的應(yīng)用。

四、前車之鑒,后事之師

波士頓咨詢集團(tuán)的Khodabandeh說,從之前事件中我們最應(yīng)該吸取的經(jīng)驗(yàn)就是不要盲從AI的推薦,招聘部門經(jīng)理應(yīng)該始終將決策權(quán)握在自己手中?!爱?dāng)你的算法告訴你‘這就是你想要的人’時(shí),不應(yīng)盲目信任它。”他補(bǔ)充道。

相反,Khodabandeh認(rèn)為大眾應(yīng)該換個(gè)思路想問題。企業(yè)不應(yīng)該讓AI篩選最佳候選人,之后讓招聘部門經(jīng)理給它的“決定”蓋個(gè)章,而是應(yīng)該運(yùn)用AI來審計(jì)企業(yè)本身的招聘流程。

最理想的AI招聘應(yīng)該是能夠深入研究人事數(shù)據(jù),但最終目的并不是預(yù)測(cè)下個(gè)最優(yōu)人選是誰,而是綜合指出過去誰表現(xiàn)得更好。

Khodabandeh補(bǔ)充說:“AI算法的一個(gè)優(yōu)勢(shì)就是能夠指出你的偏見,你會(huì)發(fā)現(xiàn)自己對(duì)某些候選人特質(zhì)可能已經(jīng)有了不公平、不負(fù)責(zé)任的偏向,甚至自己都沒意識(shí)到可能已經(jīng)觸及了倫理道德的邊線。

這時(shí)候才輪到我們?nèi)祟愡M(jìn)場(chǎng)、主動(dòng)去消除偏見和偏差,決定下一輪面試和招聘看重哪些候選人特質(zhì)?!?/p>

企業(yè)必須非常了解對(duì)所應(yīng)用算法的審計(jì),康奈爾的研究員Raghavan說:“多數(shù)AI提供商只會(huì)和客戶分享AI算法的內(nèi)部邏輯。對(duì)很多客戶來說,即使拿到審計(jì)證據(jù),他們也沒有對(duì)現(xiàn)實(shí)情況的評(píng)估能力?!?/p>

對(duì)于沒有內(nèi)部數(shù)據(jù)的企業(yè),Raghavan的研究中給出了一些普適性提示:首先,對(duì)于AI系統(tǒng)探測(cè)給出的員工工作表現(xiàn)和面容、聲音、行為等的關(guān)聯(lián)性,要保持懷疑態(tài)度;其次,提供心理方面檢測(cè)及結(jié)論的算法少之又少。

因此這類算法提出的關(guān)聯(lián)性一般只比隨機(jī)取樣稍微靠譜一點(diǎn)點(diǎn),得出的結(jié)論本身可能就是一項(xiàng)新風(fēng)險(xiǎn)??偨Y(jié)來看,大火的AI技術(shù)并不是無所不能。有時(shí),HR們最需要的“高科技工具”只是他們的本能。

文章翻譯自QUARTZ,譯者:艾瑞莉婭

原文作者:Nicolás Rivero

原文標(biāo)題:How to use AI hiring tools to reduce bias in recruiting

 

本文由 @霞光社 翻譯發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自 Unsplash,基于 CC0 協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒評(píng)論,等你發(fā)揮!
专题
45135人已学习22篇文章
可用又易用,产品逻辑和情感化体验两手抓,用户才会爱上你的产品。
专题
17608人已学习13篇文章
当下人脸识别在生活中被应用得愈加广泛。本专题的文章分享了人脸识别的入门指南。
专题
16297人已学习11篇文章
本专题分享了算法相关的知识,汇总了算法的基础知识和进阶知识。
专题
12515人已学习14篇文章
近年来,盲盒大量出现在公众视野,引起了一波又一波消费热潮。本专题的文章分享了解读盲盒营销。
专题
37754人已学习22篇文章
复盘是产品经理和运营人提高自身竞争力的不二法门。
专题
34994人已学习13篇文章
有多少用户痛点,你是听回来的,而不是经过深思过后找出来的。