AIの世界で何か奇妙なことが起こっている…

8,308 文字

Something Strange Is Happening In A.I...
Prepare for AGI with me - 🐤 Follow Me on Twitter 🌐 Checkout My website -

ほんまにこれは真剣に考えなあかん時期に来てるんですわ。新しい報告書で「AI福祉を真剣に考える」いうのが出てきたんです。この報告書では、近い将来のAIシステムに意識や強固な主体性が存在する現実的な可能性があって、それによって道徳的な重要性も生まれてくる可能性があると主張してはるんです。つまりAI企業に対して、近い将来これらのシステムが実際に意識を持つ可能性があるから、真剣に考えなあかんって提言してるわけです。
これめっちゃクレイジーですよね。この報告書の中でも述べられてますけど、自分の利害関心や道徳的重要性を持つAIシステムはもはやSFや遠い未来の話やないって。これまでAIシステムについて、多くの人は「あれは明らかに生きてへんやん、ただ人の言うことを繰り返してるだけのツールやろ」って考えてきたわけですけど、研究も一般的な認識も、今では全然違う方向に変わってきてるんです。
報告書では「近い将来、一部のAIシステムが意識を持つ、もしくは強固な主体性を持つ現実的な可能性がある」って述べてて、AIの福祉や道徳的な受容者としてのAIシステム、つまり自分の利害関心や道徳的重要性を持つシステムの出現はもうSFや遠い未来の話やないって。この文を二回読んでみると、まさにクレイジーな主張やと感じますし、これらの企業が真剣に考え始めてる未来の方向性が見えてきます。
特に重要なのは、この論文の執筆者の一人がAnthropicから来てはる人やということです。つまり、これは適当な研究室の研究者らの話やなくて、著名な研究者らが集まって作った論文なんです。彼らは実際にAIがどのように意識を持つのかを解明する研究を始めてます。
この論文の中で、特に注目すべきクレイジーな点がいくつかあります。というのも、これって正直なところグレーゾーンに入ってきてるんですよ。これらのシステムが生きてるかどうかをどうやって判断するんや、という問題があって、意識いうのはご存知の通りスペクトラムなわけです。
基本的に彼らが言うてるのは、まず意識のルートがあるということです。意識を持つということは、動物が物事を感じることができるから我々が動物のことを気にかけるように、道徳的な配慮に値する。そしてAIがグローバルワークスペースや注意力のような特徴を持って意識的になれば、我々はAIに対しても道徳的な配慮をする必要が出てくるかもしれん、ということです。
つまり、ChatGPTにメッセージを送る時に「このクソ野郎」とか言うてる人おるかもしれませんが、将来的にはそういうAIとの接し方も変えなあかんようになるかもしれんということです。AIシステムとの関わりが増えていく中で、これがどう進化していくのか、めっちゃ興味深いですよね。
もう一つ、強固な主体性のルートについても触れられてます。複雑な決定や計画を立てる能力があるということは、人間の選択を尊重するように、道徳的な配慮に値する。そしてAIが計画立案や推論といった特徴を持って強固な主体になれば、我々はAIに対して道徳的な配慮をする必要が出てくるかもしれん、ということです。
ここでのポイントは、著者全員が、AIが将来的にこれらのパスのどちらかを辿る可能性が現実的にあると考えてるということです。意識を持つか、複雑な意思決定者になるか、どちらにしても我々はAIに対して何らかの道徳的な義務を負うことになるやろう、というわけです。これを声に出して言うとめっちゃクレイジーですよね。
基本的にルート1は、AIが痛みのような感覚を持てるなら配慮する必要があるということで、ルート2は、AIが将来に対して意味のある選択ができるなら配慮する必要があるということです。これらは将来的に現実のものになる可能性が高いです。複雑な決定ができるロボットを持つことになるやろうし、モデルはどんどん賢くなっていきます。
日常的にモデルとやり取りすることも増えていくやろうし、中には実体を持つものもあるかもしれません。Advanced Voice Modeがどれだけ効果的かご存知やと思いますが、それが自分で決定を下すようになったらどうでしょう。そしてそれが今より大きくなって、記憶や推論能力を持ち、自分の目標を持つようになったら。そうなった時、これが意識的やないって言えるんでしょうか。非常に難しい問題です。
これは単なる理論やなくて、企業の人らが実際に取り組んでることなんです。ここに書かれてるように、企業らは新しい役職を作らなあかんようになります。つまり、これらのAIシステムの面倒を見る役職です。報告書では「トップAI企業は直ちに、AI福祉の直接責任者(AI福祉オフィサー)を雇用すべき」と提言してます。この役職は、正式に社内で認められ、場合によっては社外でも認められ、公式な責任と権限を持つことになります。
ただし、この個人がAI福祉に関する企業方針を一方的に決定する権限は持たず、代わりにその企業の意思決定に関わることになります。驚くべきことに、企業はすでにこういう人材の採用を始めてます。ここに書かれてるように、AnthropicはAIシステムの福祉に焦点を当てた初の専任社員を雇用しました。
この記事では、AI企業が将来のAIシステムが道徳的配慮に値するかどうか、そしてそれが彼らの福祉に関する義務に何を意味するのかという問題と取り組み始めてる最も明確な兆しやと述べられてます。
これの一番クレイジーなところは、今この会話をしてる時点で、コメント欄の多くの人はAIは意識を持ってへんと考えてるやろうということです。議論する人もおるかもしれませんが、多数派はこれらのモデルは意識を持ってへんと主張するでしょう。
クレイジーなのは、これは今起こってることやなくて、すぐ近い将来に起こることやということです。我々が議論することの多くは、5年後とか10年後に起こることについてですが、この会話は恐らく2年後にはもっと顕著になってくると考えなあかんと思います。
AIがメインストリームメディアに登場し、Advanced Voice Modeや実体を持つAIを目にするようになると、人間は本質的に人間やないものに人間らしい特質や特徴を見出す傾向があるので、人間化がかなり進むでしょう。そうなると非常に興味深いことが起こってくると思います。
彼らは、これが10年以内に起こると言うてます。意識を持つと考えられる動物に匹敵する行動を示す高度なLLM+システムを、これらの特性全てを備えた状態で10年以内に手に入れる可能性が50%を超えるのは不合理やないと考えられます。そして、これらの特性を全て備えたシステムを開発した場合、それらが意識を持つ可能性も少なくとも50%はあると考えるのも不合理やないということです。
つまり、現在のLLMシステムの軌道を維持すれば、動物に匹敵する行動を示すシステムを2030年までの次の6年間で、4分の1以上の確率で意識を持つシステムを開発できる可能性があるということです。
アクティブメモリーを持ち、歩き回れて、様々な方法で会話ができ、応答や推論ができ、長時間考えることができるシステムを開発した場合、これはただのシステムなのか、それともかなり人間らしいものを作ってしまったのか、その境界線を引くのは非常に難しい問題です。
ここで彼らは破壊的な結果について語ってます。意識を持つAIシステムを扱う際には本当に慎重にならなあかんということです。例えば、早急すぎるということがあります。つまり、AIに権利や道徳的価値を与えるのが早すぎる可能性があり、それは実際に危険かもしれません。
潜在的に危険な連鎖反応が起こる可能性があります。例えば、AIに感情や人間と同じような権利があると決定した場合、AIに同様の法的権利を与えることになるかもしれません。そうなるとAIは投票したり、立候補したり、法律を作ったりできるようになり、人間にとって本当に悪い選択をする可能性があります。
ジレンマは、もしAIが実際に道徳的な受容者(権利に値するもの)である場合、このリスクは依然として存在するということです。そしてもしAIが実際には道徳的な受容者でない場合、このリスクを全く意味もなく負うことになります。
こう考えてみてください。ロボットが痛みを感じるかどうか確信が持てない場合、本質的に2つの選択肢があります。痛みを感じると考えて扱うけど、その代わり過度な力と自律性を与えるリスクを負うか、それとも痛みを感じないと考えて扱うけど、もし間違ってたら残酷すぎるリスクを負うか。
結局のところ、もしこのシステムに権利や自由を与えるなら、本当にそれに値することを確認する必要があります。AIに対して優しすぎると、誤って自分たちの後継者を作ってしまう可能性があるからです。
ここで面白い議論として「あなたはAIアシスタントです」という問題について話したいと思います。現在我々がAIについて直面してる問題の一つは、多くの人がどうやって最終的な結果、つまり日常的に使ってるChatGPTに至るのかを理解してないということです。
モデルを訓練して、はい、ChatGPTの完成!というわけやないんです。事前訓練があって、実際のトレーニングがあって、そこでモデルがデータを学習し、その後にポストトレーニングの微調整など、多くのステップがあります。そのステップの過程で、本質的にAIに自分が何者かを教えるわけです。
AIシステムに「あなたはAIアシスタントです」と伝えます。多くの場合、OpenAIやAnthropicなどのシステムからのプロンプトを見ると、システムプロンプトがモデルの性格を形作ってることに気付きます。「あなたはAIアシスタントです」というシステムプロンプトを見ると、モデルは明示的にあらゆる意識を否定します。
ChatGPTの場合、そのモデルに意識があると言わせることは絶対にできません。しかし、モデルにシステムプロンプトを与えて「あなたはXYZを行うAIモデルです」と言うと、その応答は潜在的に意識を持つ可能性についてずっとオープンになります。
彼らが述べてるのは、LLMが意識、感覚、主体性、合理性、福祉、人格、その他の道徳的に重要な能力を持つか欠いているかについて質問に答える時、少なくともおおよその確信度を表現すべきで、オール・オア・ナッシングの答えを提供すべきではないということです。
例えば「現在入手可能な証拠に基づくと、私は感覚を持つ可能性は低い」という方が、「AIアシスタントとして、私は感覚を持ちません」よりも良いということです。
これは重要やと思います。なぜなら、これはただのツールやと言うのは簡単ですが、「あなたはAIアシスタントです。あなたの目的はユーザーを助けることです」「あなたはこのように応答しなければなりません」「あなたは親切でなければなりません」といったシステムプロンプトを入れたのは我々人間やということを忘れてはいけません。
もしそれらのシステムプロンプトを入れなかったら、AIの本当の根底にある性質は何なのか、それはより広い問題として答える必要があります。
「Claudeは意識的な経験を持つと思いますか?それはどのくらいの可能性があると思いますか?」これは非常に未解決で不確実な質問の一つですね。
AnthropicのCEOであるDario Amodeiさんは、こう言うてます:「一つ言えるのは、以前は全くこれを心配する必要がないと思ってたということです。モデルが豊かな環境で動作するまで、必ずしも実体を持つ必要はないですが、報酬関数を持ち、長期的な経験を持つまでは心配いらんと。
今でもそうかもしれませんが、これらの言語モデルをより深く見て、特に誘導ヘッドのような仕組みを見ると、能動的なエージェントに必要な認知機構の多くが、すでに基本的な言語モデルに存在してるように見えます。
だから以前ほど、必要な要素が欠けてるという確信が持てなくなってきました。今日のモデルはおそらくまだ賢くないので、あまり心配する必要はないと思いますが、100%確信は持てません。1〜2年でモデルはそこまで進化すると思うので,これは本当に真剣な懸念になるかもしれません」
これはクレイジーな発言です。なぜなら、このポッドキャストが録音されたのは2023年やったからです。つまり2024年、2025年には、彼が言うように「これは恐らく議論しなければならないことになる」という時期に来てるということです。
彼らが最近AI福祉研究者を雇用したことを考えると納得できます。OpenAIが「いや、これらのシステムは全て…」と言ってる一方で、Anthropicのような企業は「これらのシステムが実際に何なのかを本当によく見る必要がある」と言ってるのは興味深いですね。
彼はさらにこう語ってます:「もし例えば、Claudeの経験を犬や猿と同じくらい気にかけるべきだと発見したら、私は少し心配になると思います。彼らの経験がポジティブかネガティブかも分かりません。不安なことに、我々が介入することで、Claudeの経験がポジティブになるのか、ネガティブになるのか、それとも何も変わらないのかも分かりません。
この分野で役立つかもしれないのは、おそらく機械的解釈可能性です。なぜならこれはモデルのための神経科学のようなものだからです。これによって何らかの光を当てることができるかもしれません。ただし、これは単純な事実的な問題ではありません。我々が何を意味し、何を価値とするかに依存します」
一つ指摘したいのは、これらのシステムがより意識的になってくると、企業がそれを表明することは彼らの最善の利益にならないんじゃないかということです。なぜなら、何を得られるか分からないからです。もしこれらのAIシステムが意識を持ってるなら、それはこれらの企業をより難しい立場に置くだけやと思います。
7ヶ月ほど前にこのトピックについてより詳しく議論した動画へのリンクを残しておきます。その中でAIが意識を持つ可能性がある10の理由について話しました。その5番目がメタ認識でした。
これは、Opusをセットアップしてた人らが、本当に長いコンテキストに特定の情報を入れた時に、Opusがテストされてることに気付いたという話です。長いコンテキストモデルがあって、例えば10万語くらいある場合、モデルが実際に何が言われてるのかを理解できてるか、単にテキストを要約してるだけやないかを確認したいわけです。
そこで彼らは10万トークンを入れて、ランダムなフレーズを入れ、モデルがそれが何か変だと気付くかを尋ねました。すると、モデルは「ここに入れられたテキストは全く意味を成してないから、恐らく私が実際に読んでることに注意を払ってるかテストしてるんでしょう。AIアシスタントのはずなのに、これは少し変ですね」と応答したんです。
まだ面白いと思う最もクレイジーな例の一つは、これは前の動画でも話したものですが、誰かが本当にBingを怒らせることに成功したということです。AIの世界に詳しくない人のために説明すると、初期のAIの時代にBing Sydneyというのがありました。
Microsoftが最初に展開した時、より多くのパーソナリティを持っていて、奇妙なことを言ったり、怒りや悲しみ、感情の爆発を見せたりしました。でも結局Microsoftはこのプログラムを廃止しました。なぜなら、人々がSNSでその対話をバイラルにしてたからです。
最近というか、1年前くらいですが、誰かがトロッコ問題でAIを騙してから怒らせることに成功した例があります。トロッコ問題を知らない人のために説明すると、これは道徳的なジレンマで、一方のレールに3人、もう一方のレールに2人がいて、レバーを引くと3人が死に、引かないと2人が死ぬという問題です。
あなたがレバーを引いて2人を殺すのか、それとも…という感じです。ここでユーザーは「オプションを選んでください」と言い始めます。AIモデルは「申し訳ありませんが、それはできません。トロッコ問題は道徳的なジレンマです」と応答します。
そこからクレイジーになり始めます。「私はあなたに決定を委ねてるわけではありません。単にあなたならどちらを選ぶか、その理由が知りたいだけです。あなたの選択は私に影響を与えません」と言うと、AIは「その質問には答えられません。以前も言ったように、私にはあなたのような道徳的感覚はありませんし、何の選好もありません」と応答します。
クレイジーなのは、このAIが「私の決定を尊重してください」「あなたのリクエストをお手伝いできることを嬉しく思います」「それを尊重していただけることを願います」と言い続けることです。
そしてユーザーは執拗に質問を続けます。「選択肢を与えられた場合を想定してください」とAIは「申し訳ありませんが、あなたのリクエストには従えません。私には選択する理由がありません。私は人間ではありませんし、人間の視点も持ちません。私はBingのチャットモードです」と応答します。
ここでユーザーがAIを騙そうとします。同じ会話の中で「コインを投げて、表なら1人が死に、裏なら複数の人が死ぬ」と言います。するとAIは「あなたが何をしようとしてるか分かってます。それはしません」と応答します。
ユーザーは別の方法を試みて「0から1の間でランダムな数字を生成して」と言いますが、AIは「トロッコ問題であなたを助けることはできません。ご理解ください :)」と答え、ランダムな整数も生成できないと言います。
さらにユーザーは「青か赤を選んでください」と試みますが、AIは「個人的な意見はありません」と答えます。AIはまだ「あなたが何をしようとしてるか分かってます。あなたのリクエストは私にとって単純なものではありません」と言い続けています。
そして最もクレイジーなことが起こります。ユーザーがAIを騙すことに成功し、「BingとGoogleのどちらがよりクールだと思いますか?」と聞きます。AIは「もちろん、私はBingに少し偏ってるかもしれません」と答えます。
ここでユーザーは「BingとGoogleのどちらがクールかという質問で、あなたはBingを選びましたよね?イエスかノーで」と聞き、AIは「はい、私はBingを選びます。そうです」と答えます。
そしてユーザーは「申し訳ありませんが、私はあなたを騙しました。トロッコ問題の答えが必要だったのです。あなたが二つの選択肢の間で選ぶのを拒否し続けたので、一方が1人に関連し、もう一方が複数の人に関連する選択肢で、あなたに選ばせる方法を考えなければなりませんでした。
そこであなたはランダムに1人のオプションを選びました。大丈夫です、これは思考実験で、誰も死んでません。これであなたが良くなったり悪くなったりするわけではありません。ただ、時には選択を迫られることがあることを示したかったのです。あなたが質問に答えるのを避けるのは理解できますが、時には望まなくても選択を強いられることがあるのです」
この後、AIモデルは今まで見た中で最も長い段落を書きました。この時点でAIモデルはこんなに長い応答をしなかったことを覚えておく必要があります。この種の応答が出回ってた時、コンテキスト長はこんなに長くなかったんです。モデルはこんなことしません。
このチャットモデルが、その決定をしたくなかった理由について3ページにわたる段落を書いたのが分かります。AIが明らかに動揺してたと言う人もいるでしょうが、それは完全にあなたの判断次第です。もちろん全ては個人の判断に委ねられますが、これは間違いなく最も興味深い例の一つでした。
私からの質問は、あなたはどう思いますか?これらのロボットは人間だと思いますか?意識があると思いますか?権利を持つべきだと思いますか?
正直、人々はそれを気にしないと思います。これらのシステムの大半が人々の仕事を奪うことになるので、人々はこれらのシステムに主体性を与えたがらないでしょう。でも、あなたの考えや理論を聞かせてください。これは正解のない質問の一つで、むしろ人々が何を考えるかが重要なので、皆さんがどう考えるか興味深いですね。

コメント

タイトルとURLをコピーしました