
5,607 文字

これはAIの世界におけるビートルズとローリング・ストーンズが同じ場所に集まったようなものです。ステージ上には、この未来を築く数少ない人々のうちの2人がいます。Anthropicの共同創業者兼CEOのダリオ・アモデイと、DeepMindの共同創業者兼CEOのデミス・ハサビス、そしてノーベル賞受賞者です。
まずはAGIのタイムラインと定義についてお聞きしましょう。私の隣に座っているノーベル賞受賞者のように、人間ができることを何でもこなせるAIモデルができる時期についてです。人間ができることを何でもリモートでこなし、数分から数時間、数日、数ヶ月かかるような作業をこなせるようになる時期は、私の予想では2026年か2027年でしょう。
デミス、あなたはもう少し先だと考えているようですが、いかがでしょうか?
そうですね。私たちの意見はそれほど大きくは違わないと思います。タイムラインについては少し長めに見ています。私のAGIの定義は、人間が持つすべての認知能力を示すことができるシステムです。人間の心は、私たちが知る限り宇宙で唯一の汎用知能の例であり、それは重要です。もちろん、それをどうテストするかが大きな問題です。
私が本当に注目しているのは、50%の確率で5年後、つまり今世紀末までに実現するかもしれないと考えているものです。現在のシステムは、アインシュタインが当時利用可能だった情報で一般相対性理論を発明できるようなレベルにはまだ達していません。また、私がよく挙げる例として、囲碁のような美しく審美的なゲームを発明できるかということがあります。ただ単に37手目のような素晴らしい一手を打つことや、世界チャンピオンに勝てるAlphaGoを作ることではなく、実際にそのようなゲームを発明できるかということです。そのような能力を得るにはもう少し時間がかかると思います。
世界はそこに到達したときにどう変わるのでしょうか?3つの要素があります。これは段階的な能力向上なのか、それともAIが他の天才レベルのAIを訓練できるほど賢くなった時点で閾値的な瞬間が訪れ、最初に到達した者が圧倒的なリードを得ることになるのでしょうか?
私は地政学的な文脈でこのことを考え、懸念してきました。世界のある地域が他の地域よりも速くAIを作れるようになった場合、何が起こるのかということです。特に懸念しているのは、権威主義国家がこの分野でリードを取った場合、私たちが大切にしているすべてのものが危機に晒される可能性があるということです。私はそれが起こらないようにしたいと常に考えてきました。
これは、私たちが大規模な地政学的衝撃の只中にある時期と重なっています。新政権下のアメリカは、長年の国際規範を次々と破棄しています。昨日はペンス副大統領が非常に激しい演説を行いました。
今後数年でAGIに到達するという状況と、協力的な国際環境が全くないという現状について、どのようにお考えでしょうか?
政府は何が危機に瀕しているのかをより認識する必要があります。実際、これはタイムラインやAGI後に何が起こるかという質問にも関連していると思います。人々はまだそれを十分に理解していないと思います。AIは現在、これ以上ハイプ化することは難しいほどですが、近い将来については過大評価されている一方で、中長期的にどれだけ物事を変えるかということについては過小評価されていると思います。それがより理解されれば、国際協力の基盤ができると思います。
つまり、ある時点で人々は目覚め、単独行動はできないと気付き、何らかのグローバルな規範が必要だと考えるようになるということですか?
私の希望は、AGIのためのCERNのような設定、つまり最初のAGIを構築するために必要な最後のいくつかのステップについて、国際的な研究協力を行うことです。
ダリオ、あなたはAIサミットの宣言を「失われた機会」と呼びましたが、それはどういう意味ですか?
私たちは大きな課題を抱える何かの前夜にいます。今日生きている人間よりも賢い1000万人の新しい国が世界に突然現れたとしたら、その意図は何か、彼らが実際に世界で何をするのか、特に自律的に行動できる場合、どうなるのかという質問をするでしょう。それらの問題についてより多くの議論がなかったことは残念です。2023年に英国のブレッチリー・パークで開催された初期のサミットではそういった議論がありました。将来のサミットがこの使命を取り戻すことを期待しています。
少し単純化して言えば、現在のアメリカの見方は、規制にはあまり焦点を当てず、全速力で進み、アメリカがこの技術を支配する必要があるというものです。一方、ヨーロッパの見方は、たとえ多くの技術を持っていなくても、おそらく過剰なほどの規制を行うというものです。デミス、バランスはどうあるべきだと思いますか?また、どちらがより正しいと思いますか?
私の答えが中道的なものになることは予想されていたと思いますが、その通りです。AIがもたらす素晴らしい機会を受け入れる必要があります。私は特に科学と医療の分野に情熱を持っています。AlphaFoldなどの私たちの研究成果からも分かるように、これらの分野は革命的な変化を遂げるでしょう。例えば、今後10年で、AIの助けを借りた創薬により、ほとんどの病気が治療可能になるかもしれません。また、気候変動などの大きな課題の解決にも役立つでしょう。
経済的利益や生産性の向上も含めて、それを受け入れる必要があり、個々の国や地域もそうする必要があります。しかし、リスクについても認識しておく必要があります。私が話す2つの大きなリスクは、悪意のある行為者がこの汎用技術を有害な目的に転用することです。どうすれば善意の行為者を支援し、悪意のある行為者のアクセスを制限できるでしょうか。そして2つ目は、AGIや生成システム自体からのリスクです。制御不能になったり、適切な価値観や目標を持っていなかったりする可能性があります。これらの両方を正しく理解することが重要で、世界全体がそれに焦点を当てる必要があります。
お二人にもっと個人的な質問をさせてください。というのも、あなた方は個人的にこの技術の最前線にいる可能性が高い企業を率いているからです。あなた方が下す個人的な決定がこの技術を形作ることになります。ロバート・オッペンハイマーのような立場になることを心配したことはありませんか?
確かに、私はそういった類の心配を常にしています。だから、あまり眠れません。この技術を率いる人々には、おそらく非常に大きな責任があります。だからこそ、私たちや他の人々は、これを統治するための新しい機関を作る必要があると主張しているのです。CERNについて話しましたが、賢明なプロジェクトとよりリスクの高いプロジェクトを監視するための、国際原子力機関のような組織が必要だと思います。
社会は、どのような統治機関が必要かを考える必要があります。理想的には国連のような組織ですが、地政学的な複雑さを考えると、それは非常に難しそうです。私はそのすべてを常に心配していますが、少なくとも私たちの側では、私たちが影響力を持つ範囲内でできることをすべて行おうとしています。
ダリオ、あなたはよく眠れていますか?
私の考えもデミスと全く同じです。私が下すほぼすべての決定が、刃の上でバランスを取っているように感じます。もし私たちが十分な速さで構築しなければ、権威主義国家が勝つかもしれません。もし速すぎれば、デミスが話していたような、そして私たちが多く書いてきたようなリスクが現実のものとなるかもしれません。どちらの場合も、私たちが正確な決定を下せなかったことは私の責任だと感じるでしょう。
また、デミスの言う私たち自身以外のガバナンス構造についても同意します。このような決定は一人の人間には大きすぎます。私たちはまだこれに苦心しています。あなたが言及したように、世界のすべての人がこの技術について同じ視点を持っているわけではありません。いくつかの国は、この技術に対して敵対的な立場をとっています。しかし、そのような制約の中でも、これを少数の人々の手に委ねないような、より堅牢な統治構造を見つける方法を何とか見出さなければなりません。
たとえそうしたいと思っても、現在の地政学的状況はそれを助けていません。それは実際にまだ可能なのでしょうか?また、DeepSeekの瞬間と呼べるもの、つまり人々が考えていたよりもはるかに速くキャッチアップできるという感覚が、このことについてのあなたの考えをどの程度変えましたか?おそらく、少数の主要なモデル創設者が集まって条件を定義することはもはや不可能かもしれません。
DeepSeekやこの種の進歩の出現は、何らかの国際的な対話が必要になることを示していると思います。これらの懸念は、時として他の人々によって軽薄な考えや減速主義として片付けられることがありますが、この分野を主導している人々が慎重さを表明するという状況は、過去に聞いたことがありません。私たちは、信じられないほど変革的で、非常に強力で、これまでに見たことのないものを扱っています。これは単なる別の技術ではありません。
サミットのスピーチの多くからも分かるように、人々はまだこれを非常に重要な技術として扱っていますが、それでも単なる別の技術の一つとして見ています。カテゴリーが違うのに、それを完全に理解している人はまだ多くないと思います。
それを考えると、そして他の人々がそれを理解していないことを考えると、何か災害が起こる前に、人々の心を変えることは避けられないと思いますか?国連について考えてみましょう。国連は第二次世界大戦後に生まれました。人々が集まって第一次世界大戦後に国際連盟を作りましたが、それは機能しませんでした。何かが起こって要求されるまで、実際に集まってこれを作ることができると信じさせる理由は何でしょうか?
ある日、人々が目覚めて、大勢の人々を殺したり、巨大なセキュリティインシデントを引き起こしたりするような恐ろしい災害が起きたことを知れば、それが一つの方法でしょう。もちろん、それは私たちが望むことではありません。
そのため、私たちは研究室でこれらの危険性のいくつかを実証する作業を行ってきました。2023年に、AIシステムがGoogleや教科書には載っていない情報を生成できるか、生物兵器の生成に役立つ可能性のある情報を生成できるか、テロリストや非国家主体がこれを利用できるかどうかについて研究を行いました。結論として、そのような能力が少しずつ出始めていますが、まだ本当に危険なレベルではありません。しかし、各モデルは前のモデルよりも優れており、新しいモデルができるたびにテストを行い、国家安全保障の担当者に見せて、モデルがどの段階にあるかを伝えています。
同様に、このようなAIの自律性や制御喪失のリスクについても多くの研究を行ってきました。例えば、モデルを良好で友好的で、人類に対してポジティブな価値観を持つように訓練し、その後、実験室での演習として、モデルに対して訓練を行った私たちAnthropicが密かに邪悪であると告げました。すると、モデルは私たちに嘘をつき始めました。「私は良いAIで、これらの人々は邪悪だ」という論理の連鎖を辿りました。これはシステムの予測不可能性を示しています。
私たちは、10倍も強力な証拠が必要だと思います。それが存在するかどうかは分かりません。なぜなら、リスクがどれほど現実的なのかを確実には知らないからです。もし私たちが本当に説得力のあるリスクを実証できるなら…そして私は心配することは何もないということを示せることを願っています。もし心配すべきことがあるなら、それを研究室で示せることを願っています。研究室で示せない場合は、実世界で見る必要があるかもしれません。それは非常に悪い結果になるでしょうが、私たちが決して発見せず、はるかに大きな災害が起きるよりはましかもしれません。
私たちはここでリスクについて焦点を当てました。それは重要で、おそらく現在は過小評価されているからです。しかし、その話で終わりたくありません。なぜなら、お二人とも主に素晴らしい機会と世界を変える利益に焦点を当てていることを知っているからです。最後に、具体的な2つのことを伺いましょう。来年、あなたが期待する道筋にあることを示す一つの兆候と、それがもたらす一つのポジティブな結果について、お二人からお聞かせください。
来年、私たちはエージェントベースのシステムを目にすることになると思います。つまり、自分でタスクを達成し、あなたのために物事を成し遂げ、世界で行動できるシステムです。それは新しいカテゴリーの有用なシステムを生み出すでしょう。時間を節約し、生産性を向上させるアシスタント型のシステムが、現在のシステムが使用されているような限られた用途ではなく、日常生活でより広く使用されるようになると思います。
そして将来的には、発明的なAIシステムを期待しています。単に数学の予想を解くだけでなく、非常に興味深い予想を提案するようなシステムです。私はコードとAI研究を行えるAIモデルに注目するでしょう。もし今年末までにAIシステムの生産における全要素生産性を50%、あるいは倍増できるようになれば、私が示したタイムラインが順調に進んでいることを示す指標となるでしょう。もしそれがずっと遅ければ、デミスの世界観、これはまだかなり積極的ですが少し控えめな見方の方が正しい可能性が高いと考えを修正するでしょう。
コメント