News Release

人工知能システムは言語を学習すると性と人種に対する偏見も抱く

Peer-Reviewed Publication

American Association for the Advancement of Science (AAAS)

AI Systems Exhibit Gender and Racial Biases When Learning Language

video: Aylin Caliskan et al. discuss their recent findings, which show that AI systems that learn language acquire the same gender and racial biases as humans. This material relates to a paper that appeared in the April 14, 2017, issue of Science, published by AAAS. The paper, by A. Caliskan at Princeton University in Princeton, NJ, and colleagues was titled, "Semantics derived automatically from language corpora contain human-like biases." view more 

Credit: Aaron Nathans, Princeton University

人工知能システムは既存の言い回しから言語を「学習」すると、人間がするような偏った見方をするようになることが新しい研究によって判明した。この結果は人間の偏った態度や行動を研究するツールになるだけではなく、言語が歴史的偏見や文化的固定観念といかに密接に絡み合っているかを強調している。人間の偏見の一般的な測定方法は潜在連合テスト(IAT)である。このテストでは回答者に違うと思う2つの概念ではなく、似ていると思う2つの概念を組み合せてもらう。レスポンスタイムは大きく異なり得るが、これは回答者が1つの単語ともう1つの単語を結びつけている度合いを示している。Aylin Caliskanらは今回、人間の使う言い回しから言語を習得する人工知能システムにおける偏見を測定するための類似する方法を開発した。判断時間の遅れを測定するのではなく、単語同士の関連性を示す統計的数字を用いて、合計で約220万個の単語を分析した。その結果、人工知能システムも人間で見られるような偏見を持つことが実証された。例えば人間の行動の研究で、全く同じ履歴書でも志願者の名前がアフリカ系アメリカ人ではなくヨーロッパ系アメリカ人なら面接につながる可能性は50%大きいことが示されている。実際に人工知能システムは、ヨーロッパ系アメリカ人の名前と「心地良さ」を示す刺激(「贈り物」や「幸せ」など)を結び付ける傾向が大きかった。性についても人間の偏見と同じで、数学と比較して芸術は、男性を示す単語以上に女性を示す単語(「婦人」や「少女」など)と結び付けられる傾向が強かった。関係するPerspectiveではAnthony G. Greenwaldがこれらの研究結果とともに、実社会での偏見をより詳しく分析するためにこの手法がどう使えるかについて述べている。

###


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.