登录×
电子邮件/用户名
密码
记住我
全球商业的未来

向机器人求个职

奥康纳:机器人并不只抢走人类的工作,它们也开始招聘人类员工了,因为它们可以快速筛选应聘者,但这很危险。

机器人并不只抢走人类的工作,它们也开始向人类发放工作岗位了。参加招聘行业的任何一场活动,你都会发现空气中弥漫着像“机器学习”、“大数据”和“预测分析”这样的字眼。

在招聘中使用这些工具的理由很简单。机器人招聘者可以快速筛选数以千计的应聘者,效率远高于人类。它们还能做到更加公平。因为它们不会像人类那样带着有意或无意的偏见,它们会招聘到一批更多元化和择优录用的员工。

这是个很诱人的想法,但也是危险的。算法的中立并非是其固有,而是因为它们看到的世界只是“0”和“1”。

首先,任何机器学习的算法,并不会比它所学习的训练数据更好。以学术研究者科林•李(Colin Lee)今年向媒体发布的博士论文为例,他分析了44.1769万份成功和不成功的求职申请,建立了一个准确度达70%至80%的模型,可预测哪些应聘者会被邀请参加面试。该新闻稿称,这一算法潜在可用作工具,用于在筛选大量简历的过程中避免“人为错误和无意识偏见”。

但这样的模型会吸收最初招聘决定中的人为职场偏见。例如,上述研究发现,年龄因素可以在最大程度上预测该应聘者是否会被邀请面试,最年轻和最年长的应聘者最不可能成功。你可能觉得这挺公平,因为没有经验的年轻人干不好,但拒绝年长应聘者的常见做法似乎值得调查,而不是被编入程序和得以延续。

科林承认这些问题的存在,并建议最好从简历中剔除一些属性(例如:性别、年龄和种族)再加以使用。即使那样,算法仍有可能带有歧视。在今年发表的一篇论文中,索伦•巴洛卡斯(Solon Barocas)和安德鲁•谢尔博斯特(Andrew Selbst)这两位学者使用了一个案例,即雇主希望挑选最有可能长期留在工作岗位上的雇员。如果历史数据显示,女性雇员在工作岗位上停留的时间大大少于男性雇员(可能因为当她们有了孩子便会离职),算法就有可能利用那些性别指向明确的属性,得出对女性不利的结果。

应聘者住址与办公室之间的距离如何?这也可能是预测该雇员出勤率和在公司服务年限的不错的预测因素;但它可能也会在无意间歧视某些群体,因为不同的住宅社区有不同的种族和年龄特征。

这些现象提出了一个棘手问题:在理性和非有意的情况下,歧视是否错误?这是一个模糊的法律领域。在美国,根据“差别影响”(disparate impact)原则,貌似中立的雇佣实践若超出比例地伤害了“受保护阶层”,即为不合法,即便雇主并非有意歧视。但雇主若能证明该做法有很强的商业理由,就能为自己成功辩护。如果使用算法的意图仅仅是为相关职位招募最佳人选,那可能是个足够好的辩护理由。

话虽如此,那些希望拥有更多元化的员工队伍的雇主,显然不能想当然地认为只需把招聘交给电脑去做。假如这正是他们想要的,那他们也得把数据运用得更富想象力一些。

比如说,与其将他们自己的公司文化设为既定条件,进而寻找统计学上最有可能在该文化中成功的人选,不如找到相关数据显示,一支更为多元化的员工队伍在哪些情况下会成功。

如果机器学习唯一学到的只是你的过去,那么它将无法推动你的员工队伍走向未来。

译者/艾卜

读者评论

FT中文网欢迎读者发表评论,部分评论会被选进《读者有话说》栏目。我们保留编辑与出版的权利。
用户名
密码

相关文章

相关话题

FT中文网客户端
点击或扫描下载
FT中文网微信
扫描关注
FT中文网全球财经精粹,中英对照
设置字号×
最小
较小
默认
较大
最大
分享×