AI看人:如何用人工情感智能识别求职者的性格?
人脸识别技术能让我们支付午餐费、解锁手机——它甚至能把我们送进监狱。现在,这项技术还在不断发展:算法不仅可以学会认识我们是谁,还可以知道我们的所感所想。
所谓的情感识别技术还处于早期发展阶段。但是人工智能(AI)公司声称,这项技术完全有可能改变招聘的模式。
这些公司指出,他们的算法可以解读求职者有多热情、多厌烦或多诚实——并且帮助雇主排除性格不太合适的应聘者。包括联合利华在内的雇主已经开始使用这项技术。
互曼公司是伦敦的一家初创公司,于2016年成立。该公司主要对求职者提交的视频材料进行分析。该公司声称,它可以发现潜在候选人的情感表达,并将其与他们的性格特征——其算法通过对求职者回答问题时下意识的面部表情进行解读所收集的信息——进行比对。
互曼会向招聘公司发送报告,详细说明应聘者对面试中每个问题的情绪反应,通过对照其性格特征给出评分,用于反映申请人的“诚实度”或“热情度”。
互曼的创始人兼首席执行官Yi Xu指出:“如果(招聘公司)说,'我们在寻找好奇心特别强的人',他们可以通过比较各候选人的得分来找到合适的人。”
招聘公司仍然可以采用传统的面试方式来评估候选人,但他们可以面谈的人数或观看视频申请的数量是有限的。Yi Xu说,互曼公司的情感识别技术可以帮助雇主筛查更多的候选人,并筛选出他们通过其他面试方式可能不会考虑的候选人。
她说:“面试官会有偏见,但(采用技术后),他们就不会依据外表来评判申请人,而是会依据他们的性格。”她声称,这项技术的目标之一就是克服招聘过程的种族和性别歧视。
在上世纪70年代,美国心理学家保罗•艾克曼和沃勒斯•V•佛莱森开发出了一种称为“面部动作编码系统”的人类情感分类法。使用该系统,FACS专家只需分析一张照片就能判断一个人的微笑是否真诚。人工情感智能就是学习以类似方法解读面部表情。
Affectiva和互曼这两家公司的算法都至少部分基于FACS系统。一位专家首先要对成百上千张图像(视频分析需要一帧一帧地进行)中人脸所流露的情绪进行标记,然后让算法进行处理——这是训练阶段。
在训练过程中,要对算法进行观察,看看其对情绪的预测结果与FACS专家所做的手动标记有多接近。模型会根据发现的错误自行进行调整。用其他已标记的图像重复这一过程,直到差错降到尽可能低的水平。
训练完成后,可以用算法来观察其从未见过的图像,并根据之前的训练进行预测。
“隐私国际”数据创新方面的政策顾问弗雷德里克•卡尔特霍伊纳同意人类面试官可能会有偏见,但她说:“新系统会带来新问题”。
最大的问题是隐私,以及数据被分析后会如何处理?隐私国际的法律顾问艾利迪•卡兰德表示,目前还不清楚用于培训情感识别算法的数据——如在视频面试中收集的数据——是否属于“个人数据”,以及数据隐私法规是否适用。
在欧洲,人工智能(AI)公司所处理的数据可能不在《一般数据保护条例》覆盖的范围之内——GDPR是欧盟保护数据隐私的立法,将从今年5月起生效。
开发出FACS的保罗•艾克曼目前经营一家培训情感识别专家的公司,保罗艾克曼集团。他说,根据他的方法开发出可靠的人工情感智能是可能的。
但他补充说:“还没人发表过研究报告证明自动化系统准确无误。”
艾克曼说,即使人工情感智能是可能的,但解读数据的人——本文中是雇主——也应该接受培训,以便正确解读结果。他说:“FACS可以告诉你某人双唇紧闭。但在不同的文化或背景中,这可能会有不同的含义。”
人们控制自己的情绪来欺骗系统的能力各不相同。艾克曼说:“如果人们知道自己正在被观察,他们的行为会有变化。”被告知自己的情感将会被分析的人会很不自然。
据HireVue的数据,在将大部分招聘流程转变为在线模式、并开始使用基于视频的面试平台之后,联合利华在18个月的时间内就节省了5万个工时。大约两年前,HireVue将情感识别技术整合到其服务中,并将这项服务销售给联合利华。联合利华没有回复我们的提问。
总部在盐湖城的HireVue的首席技术官罗兰•拉森说:“(招聘人员)应该把时间用在最优秀的人身上,而不是那些通过了简历筛选的人身上。你不能因为毕业院校不对口而将合适人选排除在外。”
互曼首先利用从公开渠道获得的图像和视频来训练其算法,然后再用其创始人Yi Xu所说的“专有数据”——客户发送给他们的视频。HireVue没有开发人工智能(AI)算法,但他们使用Affectiva的情感数据库,后者是一家将情感识别用于市场研究和广告的行业领先公司。
Affectiva首席营销官盖比•齐德维尔德表示,雇主可以以多种方式使用人工情感智能。其中一例是对希望提升演示效果或推销艺术的员工进行辅导。另一个用处是可以跟踪员工的健康状况,以发现过度疲劳或情绪抑郁的员工,齐德维尔德认为这是有效使用其技术的一个例子。但她补充说:“跟踪情绪会令人害怕。”
这些人工智能(AI)公司都表示,雇主应该对如何使用他们的技术、以及他们收集的数据保持透明。但没有人检查他们是否做到了这一点。齐德维尔德说:“这个决定不取决于我们。我们只负责开发这项技术。”