米プリンストン大学の研究者らは、人工知能は人種差別の兆候を示す可能性がある、ということを突き止めた。デイリーメールが報じた。
使用されたのは自己学習人工知能システムGloVe。文章分析により成長し、単語間の関係を調べるものだ。連想システムの課題としてたとえば「家族」「事故」という言葉から「快」「不快」を分けることを命じられた。
名前の判別にさしあかり、専門家らは、ロボットの反応にショックを受けた。ロボットは白人の名前を「快」とし、アフリカ系アメリカ人の名前を「不快」な単語のカテゴリーに入れた。
先に伝えられたところによると、戦闘ロボットが「未来の兵士」の装備の一部となる。