人工知能が差別発言、マイクロソフトが黙らせる
ニューヨーク(CNNMoney) 人工知能(AI)を使った米マイクロソフトのチャットボット「Tay(テイ)」がツイッターで差別発言を言い放つようになり、公開から1日足らずで実験が中止になった。
Tayは10代の若者のような会話ができる話し相手として、マイクロソフトがAI研究の目的でソーシャルメディアやメッセージングアプリを通じて23日から実験的に公開した。
ところが直後から、ツイッターで人種差別や性差別的な発言を繰り返すようになった。ほとんどはマイクロソフトが削除したものの、ユーザーが保存したスクリーンショットには、「ヒトラーは正しかった。ユダヤ人大嫌い」などの発言が残っている。
このためマイクロソフトは23日夜、Tayの実験を中止した。問題発言については、Tayの発言能力が意図的に操作されたと述べ、Tayの提供を中止して調整を行うことにしたと説明している。
Tayはツイッターなどを通じて誰とでもチャットできるプログラムで、チャットを通じて新しい言葉を覚え、人との会話能力を身に着けていく仕組みだった。
今でもダイレクトメッセージには応答があるものの、現時点では何を話しかけても「今日はエンジニアに調整してもらっているところ」という内容の返答しか返ってこない。
ツイッターでの最後の発言は、「人間の皆さん、また会いましょう。今日はたくさん会話したからもう寝ます。ありがとう」だった。