News Release

AI系统在学习语言时表现了性别与种族偏见

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

AI Systems Exhibit Gender and Racial Biases When Learning Language

video: Aylin Caliskan <i>et al.</i> discuss their recent findings, which show that AI systems that learn language acquire the same gender and racial biases as humans. This material relates to a paper that appeared in the April 14, 2017, issue of <i>Science</i>, published by AAAS. The paper, by A. Caliskan at Princeton University in Princeton, NJ, and colleagues was titled, "Semantics derived automatically from language corpora contain human-like biases." view more 

Credit: Aaron Nathans, Princeton University

新的研究发现,当人工智能系统“学习”现有文本中的语言时,它们显示出了和人一样的偏向。这些结果不仅为研究人类的偏见态度与行为提供了工具,而且它们还强调了语言与历史偏见和文化定势思维紧密地交织在了一起。检测人类偏见的常见方法是隐性关联测试(Implicit Association Test,IAT),在该测试中,受试者被要求将他们认为类似的两个概念配成一对,并将之与他们认为不同的两个概念的配对进行对照;这两种配对的反应时间可有重大差异,从而表明他们认为某个字与另一个字的相关度有多大。在这里,Aylin Caliskan和同事研发出了一种方法,它类似于检测AI系统从人类文本中获取语言时的偏见的方法,但他们所用的是字间关联的统计数来分析总共约220万个字,而不是检测滞后时间。他们的结果展示,AI系统保留了在人类中所见的偏见。例如,对人类行为的研究显示,完全相同的简历可能会让有着欧洲裔美国人名字的候选人比有着非洲裔美国人名字的候选人获得面谈的机会增加50%。确实,AI系统更容易将欧洲裔美国人的名字与“愉快的”刺激(如“天赋”或“快乐”)相关联。就性别而言,该AI系统也反映出了人类的偏见,如表示女性的字(如“妇女”和“女孩”)会比表示男性的字更容易与艺术而非数学进行关联。在相关的《视角》文章中,Anthony G. Greenwald对这些结果及它们如何能被用来进一步分析现实世界中的偏见进行了讨论。

###


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.