人工知能システムは既存の言い回しから言語を「学習」すると、人間がするような偏った見方をするようになることが新しい研究によって判明した。この結果は人間の偏った態度や行動を研究するツールになるだけではなく、言語が歴史的偏見や文化的固定観念といかに密接に絡み合っているかを強調している。人間の偏見の一般的な測定方法は潜在連合テスト(IAT)である。このテストでは回答者に違うと思う2つの概念ではなく、似ていると思う2つの概念を組み合せてもらう。レスポンスタイムは大きく異なり得るが、これは回答者が1つの単語ともう1つの単語を結びつけている度合いを示している。Aylin Caliskanらは今回、人間の使う言い回しから言語を習得する人工知能システムにおける偏見を測定するための類似する方法を開発した。判断時間の遅れを測定するのではなく、単語同士の関連性を示す統計的数字を用いて、合計で約220万個の単語を分析した。その結果、人工知能システムも人間で見られるような偏見を持つことが実証された。例えば人間の行動の研究で、全く同じ履歴書でも志願者の名前がアフリカ系アメリカ人ではなくヨーロッパ系アメリカ人なら面接につながる可能性は50%大きいことが示されている。実際に人工知能システムは、ヨーロッパ系アメリカ人の名前と「心地良さ」を示す刺激(「贈り物」や「幸せ」など)を結び付ける傾向が大きかった。性についても人間の偏見と同じで、数学と比較して芸術は、男性を示す単語以上に女性を示す単語(「婦人」や「少女」など)と結び付けられる傾向が強かった。関係するPerspectiveではAnthony G. Greenwaldがこれらの研究結果とともに、実社会での偏見をより詳しく分析するためにこの手法がどう使えるかについて述べている。
###
Journal
Science