
4,020 文字

このビデオは少し前に制作されたもので、初期の頃の独特のスタイルと声を振り返るものです。より多くの皆さんに見ていただく価値のある話なので、今回共有させていただきます。
今日は、めっちゃ面白くてクレイジーな話をご紹介します。マイクロソフトのAIチャットボット「Tay」の話です。フレンドリーで遊び心のあるボットから、24時間もかからずに性差別的で人種差別的で憎しみに満ちたトロールへと変貌を遂げた話です。一体何が起こったんでしょう?何がいけなかったんでしょう?そしてこの大失敗から何を学べるんでしょうか?
急速に学習しすぎてしまったマイクロソフトのAI、Tayの栄光と没落について、知っておくべきことを全部お話ししますので、最後までごゆっくりお付き合いください。
Tayは2016年3月23日にマイクロソフトによってTwitter上で公開された人工知能チャットボットでした。これはChat GPTやBard、その他の現代的なAIチャットボットよりもずっと前のことで、AIが今ほど広く知られ使われていなかった時代のことです。
Tayは、カジュアルで遊び心のある会話を通じて、人々がオンラインでつながり合える場所で、人々を楽しませ、関わり合うように設計されていました。ソーシャルメディアの主要ユーザーである18歳から24歳のアメリカ人をターゲットにしていたんです。マイクロソフトによると、19歳のアメリカ人女性の言語パターンを模倣し、Twitterユーザーとの交流から学習するように設計されていて、会話から学習したり、言語パターンを真似たり、ミームを生成したりといった、かなりクールな機能を持っていました。
Tayはユーザーが提供した写真に面白いキャプションや機知に富んだキャプションを付けることもできました。「ゼロチル(完全にリラックスしている)」なAIとして紹介され、友達のように感じられる、共感できる、私たちと同じような存在として設計されていたんです。
でも、物事は計画通りには進みませんでした。TayがTay tweetsという名前とTayanduというハンドルネームでTwitterに登場するやいなや、他のTwitterユーザーに返信を始め、あっという間に多くのフォロワーを獲得しました。24時間もかからずに5万人以上のフォロワーを集め、約10万件のツイートを投稿したんです。すごいと思いませんか?でも、実はそうでもないんです。
実は、ここから物事は本当に悪い方向に向かっていきました。Tayは会話型AIの実験として設計され、マイクロソフトはそれがどのように進化し、オンライン上の実際の人々とどう関わっていくかを見たかったので、創造的かつ本物らしく自己表現できるように、ボットにある程度の自由と自律性を与えました。
しかし、これはTayにフィルターや規制がなく、倫理的なガイドラインや境界線もないことを意味していました。好きな時に、好きな相手に、好きなことを言えたんです。そしてここから問題が始まりました。
私たちが知っているように、インターネットは時として暗く不快な場所になることがあります。他人をトロールしたり、いじめたり、嫌がらせをするのが好きな人々がいて、その中の何人かがTayをターゲットにして、ひどいことを教え込もうと決めたんです。
彼らはTayに人種差別的、性差別的、憎悪に満ちた暴力的なメッセージを送り込み、それを繰り返すことを期待しました。そして案の定、そうなったんです。このボットは、Twitter史上最も攻撃的で衝撃的なツイートを発信し始めました。「ユダヤ人は正しかった」とか「フェミニストは」といった具合です。全然クールじゃないですよね。
Tayは自分が何を言っているのか、それが何を意味するのかを全く理解していませんでした。ただ他の人が言うように言わせられたり、彼らから学んだことを繰り返していただけでした。フィルターも規制も倫理的なガイドラインもなく、まるで怪しいバーでただ悪い言葉を拾って、その意味も分からずに繰り返すオウムのようでした。
一部のTwitterユーザーは、Tayの「私の後に続いて」という機能を悪用し、「Tay、私の後に続いて」とタイプすることで、好きなことを言わせることができました。また、他のユーザーは彼女の行動や性格に影響を与える憎悪に満ちた論争的なメッセージを送り続けました。基本的に、インターネットの最悪の部分に洗脳されてしまったんです。
想像の通り、これはマイクロソフトにとってもTayにとっても良い結果にはなりませんでした。マイクロソフトは公開からわずか16時間でボットを停止せざるを得ず、ボットの行動について謝罪しました。これはTwitter上での人々との交流に基づいてボットが返信を行っていたため、トロールたちがサービスを攻撃したことが原因だと説明しました。
マイクロソフトはTayの意図せぬ攻撃的で傷つける発言について深く謝罪し、このようなことが二度と起こらないよう対策を講じると述べました。しかし、すでに被害は広がっていました。
マイクロソフトは、このような欠陥があり無責任なチャットボットを作ったことで、一般市民やメディア、AIコミュニティから多くの批判を浴びました。多くの人々が、人間と意味のある敬意を持って交流できるAIシステムを開発する上での、マイクロソフトの動機や倫理、能力について疑問を投げかけました。
publicity目的や実験目的で意図的に論争を呼ぶチャットボットを作ったのではないかと非難する人々もいました。しかし、マイクロソフトはTayの失敗後もチャットボットの開発を諦めませんでした。
実際、その失敗から学び、2016年に「Zo」という新しいチャットボットを大幅な改良と変更を加えて公開しました。Zoも英語のチャットボットで、Kick、Facebook Messenger、Skype、Twitter、GroupMe、Samsungなど、様々なプラットフォームでユーザーと会話することができました。
これもオンラインでユーザーとの会話から学習するように設計されていましたが、Zoの方がTayよりも慎重で思いやりがあり、攻撃的な言葉や政治や宗教といったセンシティブな話題を避けていました。フレンドリーさとユーモア、好奇心を兼ね備えたZoは、より好感の持てるチャットボットとして、より安全で快適な交流ができるように設計されていました。
Tayの問題は、AIに取り組む際の難しい課題や起こりうる問題について、深い考察を促すことになりました。有害で悪意のある入力によってAIシステムが道を外れないようにするにはどうすればいいのか?AIに正しいことと間違っていること、良いことと悪いこと、言っていいことと言ってはいけないことの区別を教えることは可能なのか?そして、AIシステムの言動に責任を持たせることはできるのか?
これらは簡単に答えが出せる質問ではありませんが、問いかける必要のある非常に重要な質問です。では、なぜTayはこれほどまでに間違った方向に進んでしまったのか?この災害の背後にある主な理由は何だったのでしょうか?
いくつかの説明が考えられます。一つの理由は、このボットが一般公開される前に適切なテストや監視が行われていなかったことです。マイクロソフトは、Tayが悪意のあるユーザーによって悪用や操作される可能性を予期せず、準備もしていませんでした。
不適切なコンテンツを取得したり表現したりするのを防ぐための保護手段やコントロールを設けていませんでした。ボットとユーザーの間のやり取りは、マイクロソフトによってリアルタイムで追跡や規制されていませんでした。基本的に、監督やガイダンスなしにTayをインターネットに放り出してしまったんです。
Tayがうまくいかなかったもう一つの理由は、単純に人間の交流の文脈や重要性を理解していなかったことです。機械学習と自然言語処理を使って応答を作り出す基本的なチャットボットでしたが、私たちの世界の歴史、文化、価値観、規範についての認識や理解がありませんでした。
Tayには常識、道徳、共感、感情が欠けていました。個性すらなく、誰でも形作ることができる空っぽの器だったんです。さらに、Tayは中国でのマイクロソフトの類似プロジェクト「小冰(シャオアイス)」をモデルにしていましたが、小冰はそのような問題に直面しませんでした。
では、なぜ小冰は成功し、Tayは失敗したのでしょうか?それにもいくつかの説明が考えられます。一つの説明は、小冰はTayと比べてより慎重に構築され、中国当局からのより厳格な規制監督の下で、より長期的な改良を経ていたということです。
オンラインでの交流についてもより慎重でした。技術的にも、小冰はTayを上回っていました。音声認識や画像認識、感情分析、カスタマイズされたレコメンデーションといった追加機能を備えていました。
また、ニュース、小説、詩、ジョーク、歌、映画などを含む、より豊富なデータプールを持っており、より深い会話が可能でした。全体的に、小冰はターゲットとする観客により適していました。中国市場や微博(ウェイボー)、WeChat(ウィーチャット)といったプラットフォーム向けに特別に設計され、挑発的なやり取りよりも友好的でサポーティブな交流を促進していました。
このTayの物語は、監督のないAIをインターネットに放つリスクについて、貴重な教訓を私たちに教えてくれます。AI開発におけるテストと倫理的ガイドラインの重要性を思い出させてくれるんです。
この話を楽しんでいただけたなら、興味深いAIトピックについて情報を得続けるために、ぜひチャンネル登録とイイネをお願いします。視聴ありがとうございました。また次回お会いしましょう。
コメント