AI研究"重男轻女"要不得 亚马逊被迫解散研究团队
<

AI研究"重男轻女"要不得 亚马逊被迫解散研究团队

来源:科技日报2018-10-16

自2014年以来,美国亚马逊公司的机器学习团队一直在秘密研发和使用一款计算机程序,用于审查求职者的简历,希望能将寻找顶尖人才的工作智能化。但在专家发现新招聘引擎不喜欢女性后,亚马逊最终在去年年初解散了该研究团队。

效率提升需求推动机器学习应用

无论是在仓库内部还是在推动定价决策方面,自动化是亚马逊电子商务主导地位的关键。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。亚马逊的智能化招聘实验就始于这家全球最大在线零售商的关键时刻。

监管机构的文件显示,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,达到57万多名。为缓解人力资源部门剧增的工作压力,提升其工作效率,亚马逊爱丁堡工程中心建立了一支研发团队,目标是开发人工智能技术,快速抓取网络信息并发现值得招募的候选人。

该公司的实验性招聘工具使用人工智能为求职者提供一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研究人员希望这个招聘软件能达到“给软件输入100份简历,它会吐出前5名,然后公司就可优先雇用他们”的目标。

人工智能招聘软件“重男轻女”

经过培训,亚马逊的计算机模型学习了过去10年内提交给公司的简历,找出了其固有模式,并据此来审查申请人。但从2015年开始,亚马逊意识到在评定软件开发和其他技术职位的申请人时,该招聘系统并非性别中立。因为大多数申请者都是男性,这反映了整个科技行业男性主导地位的现实。

研究团队创建了500个专注于特定工作职能和职位的计算机模型。他们教会每个模型识别过去候选人简历中出现的约5万个术语。这些算法对IT应用程序中常见的技能几乎没有重要意义,例如编写各种计算机代码的能力等。相反,这项技术有利于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

事实上,亚马逊的系统通过自学得出了男性候选人更可取的结论。系统对包含“女性”这个词的简历进行了处罚,如“女子国际象棋俱乐部队长”等。系统还降低了两所全女子大学毕业生的评级。

亚马逊曾尝试对程序进行更新,力图使其对特定术语保持中立。但这并不能保证机器不会根据其他方式来对可能具有歧视性的候选人进行分类。

性别偏见也不是唯一的问题。支持模型判断的数据也有问题,这意味着不合格的候选人经常被推荐到各种工作岗位。亚马逊最终在去年年初解散了该团队,因为高管们对这个项目已失去信心。

算法公平之路任重道远

根据人才软件公司“职业创造者”2017年的一项调查显示,约55%的美国人力资源经理表示,未来5年内,人工智能将成为他们工作的常规部分。

长期以来,雇主一直梦想利用技术扩大招聘网络,减少对招聘人员主观意见的依赖。但亚马逊的失败案例,为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训。

卡内基梅隆大学机器学习专家表示,如何确保算法公平、真正可理解和可解释的道路还相当遥远。

《麻省理工技术评论》在此次事件的报道中指出,我们不能将人工智能视为内在的无偏见。在有偏见的数据上训练系统,意味着算法也会变得有偏见。如果这样不公平的人工智能招聘计划在实施之前没有被发现,将使长期存在于商业中的多样性问题延续下去,而不是解决它们。

相关新闻
>
精品栏目

我们不轻易"吐槽"自己

背上的“全世界”

拼速度 双11快递公司亮“杀手锏”

去黄葛古道寻古探幽

热门推荐

张怡宁"执教"外国队

双11快递公司拼速度

瑜伽高手决高下

校园书店 渐次归来

吴亦凡变白马王子

新疆孩子佟丽娅回娘家

新闻 |  问政 |  资讯 |  百事通

华龙网 www.cqnews.net 触屏版 | 电脑版

Copyright ©2000-2015 CQNEWS Corporation,
All Rights Reserved.
首页 | 新闻 原创 视听 | 问政 评论 匠心 | 区县 娱乐 财经 | 旅游 亲子 直播 | 文艺 教育 科普 安监 | 房产 健康 汽车 | 取证 鸣家 会客厅 | 万花瞳 百姓故事 3c家居
  • 站内
站内
分享
新浪微博
腾讯微博
微信
QQ空间
QQ好友
手机阅读分享话题

AI研究"重男轻女"要不得 亚马逊被迫解散研究团队

2018-10-16 06:30:00 来源: 0 条评论

自2014年以来,美国亚马逊公司的机器学习团队一直在秘密研发和使用一款计算机程序,用于审查求职者的简历,希望能将寻找顶尖人才的工作智能化。但在专家发现新招聘引擎不喜欢女性后,亚马逊最终在去年年初解散了该研究团队。

效率提升需求推动机器学习应用

无论是在仓库内部还是在推动定价决策方面,自动化是亚马逊电子商务主导地位的关键。由于低成本计算能力的激增,机器学习在技术领域越来越受欢迎。亚马逊的智能化招聘实验就始于这家全球最大在线零售商的关键时刻。

监管机构的文件显示,自2015年6月以来,亚马逊的全球员工人数增加了两倍多,达到57万多名。为缓解人力资源部门剧增的工作压力,提升其工作效率,亚马逊爱丁堡工程中心建立了一支研发团队,目标是开发人工智能技术,快速抓取网络信息并发现值得招募的候选人。

该公司的实验性招聘工具使用人工智能为求职者提供一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研究人员希望这个招聘软件能达到“给软件输入100份简历,它会吐出前5名,然后公司就可优先雇用他们”的目标。

人工智能招聘软件“重男轻女”

经过培训,亚马逊的计算机模型学习了过去10年内提交给公司的简历,找出了其固有模式,并据此来审查申请人。但从2015年开始,亚马逊意识到在评定软件开发和其他技术职位的申请人时,该招聘系统并非性别中立。因为大多数申请者都是男性,这反映了整个科技行业男性主导地位的现实。

研究团队创建了500个专注于特定工作职能和职位的计算机模型。他们教会每个模型识别过去候选人简历中出现的约5万个术语。这些算法对IT应用程序中常见的技能几乎没有重要意义,例如编写各种计算机代码的能力等。相反,这项技术有利于那些用男性工程师简历中诸如“执行”“捕获”等常见动词来描述自己的候选人。

事实上,亚马逊的系统通过自学得出了男性候选人更可取的结论。系统对包含“女性”这个词的简历进行了处罚,如“女子国际象棋俱乐部队长”等。系统还降低了两所全女子大学毕业生的评级。

亚马逊曾尝试对程序进行更新,力图使其对特定术语保持中立。但这并不能保证机器不会根据其他方式来对可能具有歧视性的候选人进行分类。

性别偏见也不是唯一的问题。支持模型判断的数据也有问题,这意味着不合格的候选人经常被推荐到各种工作岗位。亚马逊最终在去年年初解散了该团队,因为高管们对这个项目已失去信心。

算法公平之路任重道远

根据人才软件公司“职业创造者”2017年的一项调查显示,约55%的美国人力资源经理表示,未来5年内,人工智能将成为他们工作的常规部分。

长期以来,雇主一直梦想利用技术扩大招聘网络,减少对招聘人员主观意见的依赖。但亚马逊的失败案例,为越来越多正在寻求自动化招聘流程的大型公司提供了一个教训。

卡内基梅隆大学机器学习专家表示,如何确保算法公平、真正可理解和可解释的道路还相当遥远。

《麻省理工技术评论》在此次事件的报道中指出,我们不能将人工智能视为内在的无偏见。在有偏见的数据上训练系统,意味着算法也会变得有偏见。如果这样不公平的人工智能招聘计划在实施之前没有被发现,将使长期存在于商业中的多样性问题延续下去,而不是解决它们。

看天下
[责任编辑: 杜三 ]
发言请遵守新闻跟帖服务协议
精彩视频
版权声明:
联系方式:重庆华龙网集团有限公司 咨询电话:60367951
①重庆日报报业集团授权华龙网,在互联网上使用、发布、交流集团14报1刊的新闻信息。未经本网授权,不得转载、摘编或利用其它方式使用重庆日报报业集团任何作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:华龙网”或“来源:华龙网-重庆XX”。违反上述声明者,本网将追究其相关法律责任。
② 凡本网注明“来源:华龙网”的作品,系由本网自行采编,版权属华龙网。未经本网授权,不得转载、摘编或利用其它方式使用。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:华龙网”。违反上述声明者,本网将追究其相关法律责任。
附:重庆日报报业集团14报1刊:重庆日报 重庆晚报 重庆晨报 重庆商报 时代信报 新女报 健康人报 重庆法制报 三峡都市报 巴渝都市报 武陵都市报 渝州服务导报 人居周报 都市热报 今日重庆
关闭
>