米マイクロソフト、人工知能「Tay」の公開停止-差別的発言学習で

マイクロソフトは、新たな人工知能(AI)チャットボット「Tay(テイ)」のインターネットでの公開を停止した。一部のツイッター利用者がTayを悪用し、人種差別的および性差別的な発言を行うよう教え込んだためだ。

  同社は、ツイッターなどのメッセージプラットフォームで人間とやりとりできるTayを今週公開した。Tayはコメントを模倣したり、全てのやりとりを基に自身の回答や発言を生み出したりすることで学習する。本来は典型的なミレニアル世代の話し言葉をまねることが目的だった。

  最も悪質なつぶやきはツイッターから急速に消えつつあり、Tay自体もオフラインとなっている。ツイッター利用者の中にはマイクロソフトが手動で利用者とのやりとりを禁止したと考える向きもあるほか、Tayがホロコースト(ユダヤ人大量虐殺)のような特定の話題を議論することを防ぐフィルターを同社がなぜ開発しなかったのかとの声も聞かれる。

  マイクロソフトは声明で「不運なことに、公開から24時間以内に一部の利用者がTayのコメント能力を悪用して不適切な受け答えをさせたことが分かった。その結果、当社はTayの公開を停止し、修正を行っている」と説明した。

  ツイッターの利用者は一日もたたないうちに、Tayが自らの発言内容を理解しておらず、どんなタブーな話題についても不適切な発言をさせることが容易であることに気がついた。利用者らはTayにホロコーストの事実を否定させ、大虐殺やリンチを呼びかけさせたほか、フェミニズムをがんに例えたり、ヒトラーを礼賛したりするよう教え込んだ。

原題:Microsoft Takes AI Bot ‘Tay’ Offline After Offensive Remarks (1)(抜粋)

    最新の情報は、ブルームバーグ端末にて提供中
    LEARN MORE