超知能AIとグローバルな権力闘争 – ポール・レッツァーとマイク・カプットによるAIショー

3,036 文字

Superintelligent AI & Global Power Struggles - The AI Show with Paul Roetzer & Mike Kaput
In just the past few days, multiple AI heavyweights have come out with bold new statements on artificial general intelli...

数社の主要なAIプレイヤーが、偶然かどうかは別として、AGI(汎用人工知能)へのアプローチ方法に関する最新の考えを発表しました。OpenAIは最近「安全性とアラインメントについての考え方」というタイトルの記事を公開しました。その中で彼らは率直に述べています。「AIがより強力になるにつれて、リスクはより高まります。ポストAGIの世界がどのようになるかを正確に予測することは困難です。世界は今日の世界と1500年代の世界の差よりも、今日の世界との差が大きくなる可能性が高いですが、AGIの変革的な影響は数年以内に始まると予想しています」
そして彼らは、安全で有益なAGIを開発するための現在の考え方を概説しています。これは「反復的なデプロイメント」の原則を強調するプロセスです。つまり、徐々に能力の高いAIを実世界の環境に導入することであり、研究室に閉じ込めておくのではありません。彼らは、システムを段階的にリリースすることで、潜在的なリスクをより良く特定し管理できると主張しています。そして、人間による悪用、ミスアラインメント(目標の不一致)、より広範な社会的混乱など、彼らが軽減に取り組んでいるいくつかのリスクを強調しています。
Anthropicもまた、彼らが「強力なAI」と呼ぶもの(AGIのような存在)に関する独自の推奨事項を発表しました。これは2026年後半か2027年初頭に出現すると予想しています。彼らは強力なAIを安全に保つ方法に関するガイダンスを発表し、その推奨事項は、強力なAIがもたらす経済的および国家安全保障上の課題に戦略的に備えるための米国政府の緊急性を強調しています。彼らは、AIシステムの国家安全保障テストの強化や輸出管理の厳格化などを含む6部構成のアプローチを提案しています。
これらすべてに加えて、「超知能戦略」と呼ばれる新しいレポートが出されました。これは主にその背後にいる人々によって波紋を呼んでいます。これはAI安全センターのディレクターであり、xAIとScale AIのアドバイザーであるダン・ヘンドリックとScale AIの創設者兼CEOのアレクサンダー・ワン、そして元GoogleのCEOであるエリック・シュミットによって共著されています。このレポートでは、冷戦時代の核戦略を模倣するフレームワークを提案しています。
彼らは文字通り「相互確証機能不全」という概念を定義しており、これは冷戦中に使用された核抑止戦略に類似しています。(相互確証破壊ですね。そう、私たちがお互いに相手全てを攻撃した場合、両方が全滅するという考え方です。)この考え方は、超知能の独占を積極的に試みるどの国も、不安定な不均衡を防ごうとするライバル国からの隠密工作に必然的に直面するだろうという考えに基づいています。
彼らは安定性を確保するために、彼らがどれだけ先に進んでいるかについての機密情報を明かさずに、ライバル国の遵守を確認するための、AI重視のスパイ活動、妨害工作、および戦略的透明性を主張しています。これは非常に高度なAIを設計する際の話です。
ポール、これは解釈するのに多くのことがありますし、その多くは少し恐ろしいですが、私が理解していることをまとめると、OpenAIは「安全性とはこれらを公開することだ」と言っているようです。Anthropicはガイダンスを提供していますが、列車はすでに駅を出発し、また国家間の競争という観点で、文字通り核兵器技術のようにこれを扱っています。これで合っていますか?
そうですね。この問題について砂糖をまぶす必要はありません。率直に言って、これは問題です。先に非常に危険な領域が多くあり、彼らが「超知能戦略」やAnthropicの「強力なAI」について既に話していることは、すでに起きています。これは3年後に考えるべきことではなく、すでに指導者たちがこのように考えているということです。
全てのAIラボは、外国の関係者が彼らのシステムに侵入しようとしていることを知っており、もし既に侵入されていることを認識していなくても、そうだろうと考えています。米国では、中国とロシアがおそらく私たちの電力網内にいて、国を支えるインフラ内にいる可能性が高いことを知っています。同様に、私たちも彼らのインフラ内にいる可能性が高いです。そこでの考え方は「あなたがたのインフラを破壊しなければ、私たちのインフラも破壊しない」というものです。
ラボは外国の関係者が彼らのシステムへのアクセスを試みることを知っており、政府もこれが起きていることを知っています。彼らは彼らがしていることの国家安全保障リスクを十分に認識しています。雇用と経済のことに戻ると、ダリオとサムは彼らがしていること、彼らが推進していることが、おそらく産業や職業に大きな混乱をもたらす技術を構築していることを十分に認識しています。そしてこれはただ彼らだけでなく、GoogleやMetaなど他の企業も同様です。
しかし彼らはそれがどのようになるのか分かっていません。この場合、OpenAIは文字通り「ポストAI世界がどのように見えるかを正確に予測することは難しい。世界は今日の世界と1500年代の世界の差よりも、今日との差が大きくなる可能性が高い」と述べています。これはとんでもない類推です。1500年代といえば中世末期ですよね。
実際、面白い事実として、これをGrokやいくつかの他のAIに入力してみました。「2025年の38歳の男性である私が1500年代に戻ったらどうなるか」と尋ねたところ、答えは全く想像を絶するものでした。植民地時代のイングランドなどと言われました。
それは私にTimアーバンが書いた素晴らしい投稿を思い出させます。彼はAIについて書いており、そこで彼が言っていたのは、もしあなたがその時代に戻ったら、物事があまりにも違いすぎて文字通り死んでしまうだろうということです。あるいは過去から未来に来た場合、「なんてこった、私は死んでしまった」と思うほど違いがあるだろうということです。この類推がいかに常識外れかを指摘したいのです。サムあるいはOpenAIはこの表現で何をしているのか分かっているのです。
それは彼らが、次の5年間が非常に異なり、基本的に500年分の飛躍をするようなものだと考えていることを意味します。そして今や非常に明確なことは、先ほど言ったように、彼らはこれを解決しようとはしていないということです。彼らは座ってポストAGIの世界が教育、ビジネス、あなたの職業、あなたの業界でどのようになるかを考えることはしないでしょう。彼らはそれをしないでしょう。
つまり、それは政府、シンクタンク、協会、個々の企業、コンサルティング会社の役割ということです。コンサルティング会社からの研究報告書をみると、AIについて何も知らない人々に「AIによるあなたのビジネスの未来はどうなるか」と尋ねています。彼らは一連のCEOに話をしますが、そのCEOたち自身もそれについて本当に確信が持てておらず、確かにAGIやASIとは何か、そしてその影響について説明することはできないでしょう。にもかかわらず、コンサルティング会社が私たちに提供しているのは、誰に基づいた2030年についての予測です?ポストAGIの世界について実際に座って考えたことのない人々に基づいた予測なのです。

コメント

タイトルとURLをコピーしました