尊龙人生就是博

产品分类
您现在的位置: 主页 > 企业招聘 > 像人一样有感情也有错?亚马逊AI招聘工作“无辜”被废尊龙备用网

像人一样有感情也有错?亚马逊AI招聘工作“无辜”被废尊龙备用网

时间:2018-10-20 13:49 来源:未知 作者: 点击:

  (通讯员 张雪)近日路透社发现的一则消息,再次将人工智能和伦理道德推上了舆论的分口浪尖,那么AI这次又触动了人们哪条敏感神经呢?

  原来,亚马逊机器学习专家发现他们研发多年的AI招聘工具有一个明显的倾向,即在筛选简历过程中,重男轻女。

  据了解,Amazon的AI程序通过检索简历中的关键词,评估应聘者的能力以及和申请职位的匹配度,再综合打分,给HR推荐理想的人选。

  自2014年以来,亚马逊的机器学习团队一直在秘密研发和使用一款这款AI应用,以便减轻HR的重复工作,进而高速审查求职者的简历,将寻找人才的工作智能化。

  但让人失望的是,亚马逊这款AI程序在给应聘者打分时,给男性应聘者简历打分却明显比给女性打分高。这种类似人类的情感倾向出现在AI上确实有点匪夷所思。

  毕竟人类训练AI的目的是希望人工智能是中立、结果导向的,甚至在理性的前提下,会带有一丝无情。

  那么究竟是谁为亚马逊的AI却戴上了有色眼镜呢?亚马逊的工程师们发现,AI工具之所以会变得“重男轻女”是因为它具体训练方法上,是基于Amazon公司过去10年内收到的所有简历的样本。亚马逊针对性开发了500个特定职位的模型,对过去10年的简历中的5万个关键词进行识别,朵拉纤康塑身套一款保证你减肥成功的产品,最后进行重要程度的优先级排序。人生就是博旧版

  数据显示,Amazon、Facebook、Apple、Google、Microsoft五家科技巨头的员工中男性占比分别为60%、64%、68%、69%、74%。而这进一步印证了在亚马逊大部分职位中男性申请者偏多,并且最终录取的员工中也是男性居多。

  所以,AI程序在分析简历时,会识别暗示应聘者性别的关键词,并通过这些关键词推断应聘者的性别,并降低女性应聘者简历的评分。

  发现这一现象后,技术派的亚马逊并没有任由其发展,而是让工程师们修改了AI程序的代码和算法,以期让AI程序不再通过检索关键词来推断应聘者性别。

  可这种方法没有实际解决问题。孟昭洋:福建创意市集是对高校学生和所设计产品的市场验证,因为在AI程序内部已经形成了“男性应聘者比女性更优秀的刻板印象,所以即便改变算法和程序,工程师也不能保证AI会消除“性别歧视”的偏见。

  也正因为如此,在AI程序被投入使用一年后,Amazon高层最终宣布关停项目。并且在去年年初,亚马逊解散了该研究团队。

  一直以来,企业都希望利用技术手段扩大招聘网络,从而减少对招聘人员主观意见的依赖,使得这项看似必须“主观”的工作变得“客观”起来。

  但是亚马逊的这一案例告诉我们,就算是人工智能也并非能够做到百分百的客观。虽然人们总是主观认为,人工智能的内在是无偏见的。需要指出的是,尊龙备用网址,人工智能在有偏见的数据上训练系统,意味着算法也会变得有偏见。这为寻求自动化招聘流程的大型公司提供了一个教训。

  其实,人工智能发展到现在,应用到实际的时间并不长。现在的人工智能还需要更多的养分和教育。而人工智能在机器训练的过程中,所输入的数据便是养分。尽管科学家会尽力将算法调整到中立、客观,但最终影响其输出的还是数据。

  即使数据中出现了一个小的偏差,人工智能的最终行为也会将这个偏差放大。因此业内专家表示,如何确保算法公平、真正可理解和可解释的道路还相当遥远。

相关文章推荐:

Copyright © 2013 尊龙人生就是博,尊龙备用网址,尊龙d88,d88.com All Rights Reserved 网站地图