剑客
关注科技互联网

是机器学习性别歧视?

是机器学习性别歧视?

伊冯娜 Baur 紧缩网络参与者

伊冯娜鲍尔是团长在 SAP SuccessFactors 的预测分析。

How to join the network

我们听到很多关于多样性和包容性最近,和很多人都特别感兴趣和兴奋的领域之一应用机器学习来消除偏见。

做的好,这可能是巨大的提升,支持我们的努力去超越偏见跨组织的所有领域。但也有潜在的缺陷,以及;如果不做的好,机器学习其实可以您的业务更有偏见。

让我们举个例子看看谷歌的 word2vec。使用谷歌新闻数据数以百万计大集,谷歌的研究人员提取彼此相关的单词的模式。来表示一个向量空间中的术语,他们得以扣除简单向量代数与词之间的关系。

例如,系统可以回答问题,如”妹妹是女人因为哥哥是为了什么?”(姐姐︰ 女人︰ 哥哥:?)正确的”人”。

但这些规则的挑战︰ 因为与现有新闻,训练系统也会跟进这些条款中的非常偏见。在谷歌新闻组中,这些条款被证明令人震惊的偏见。

例如,如果您输入”父亲︰ 医生︰ 妈妈:?”它回答”护士”。

为”男人︰ 计算机程序员︰ 女人:?”它会给你”家庭主妇”。

如此,这意味着机器学习性别歧视?号但本例中的机器学习无情地暴露出,在我们的新闻和记者今天仍然存在的偏见。统计数据表明,语句正确使用只什么可以来自文章。但文章本身有明显的片面性。

同样,如果一种偏见存在于您的组织,是否方式人是被聘用,或开发,或晋升,只以现有数据为您的机器学习的基础实际上可能达到你试着去实现相反 — — 意思它可以加强和扩大而不是消除它的偏见。如果你一向倡导男性,系统可能看看做人作为预测的人得到提拔。

谷歌搜索遇到了此类问题时它显示更有声望的职位给男性多于女性,或当它只表明男性形象的第一页的搜索”CEO”。

相关的文章

Machine Learning And Human Bias: An Uneasy Pair
Google researchers aim to prevent AIs from discriminating
Microsoft AI bot Tay returns to Twitter, goes on spam tirade, then back to sleep

这些,和其它很多例子表明,偏见可以蠕变,即使注定要到非常算法消除偏见。算法不是故意坏,但他们反映的那些编好程序,偏见或被用来训练系统的基础数据的偏差。

因此,需要彻底重新思考和仔细的软件创作本身的方法。额外的照顾就只能放到培训的人创建的系统,和研究纳入机器学习算法,所以你不会意外地产生更多的偏见。该系统具有重新接受培训,以不同的想法,就像你的员工。

初始的机器学习实验可以有用来揭露偏见,但采取不加修改,真的能赚到你而不是消除它的问题更糟。所以在面值采取所有机器学习之前, 作为指标的现有的偏见,认为关于未加工的结果,请确保您的系统创建不带任何偏见,使用不带任何偏见的数据业务。

Featured Image: alengo/E+/Getty Images

[剑客-翻译]

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址