

Bloomberg がこんなニュースを出しました。OpenAIが人間レベルのAIに向けた進捗を追跡するシステムを開発したというのです。同社は、自社の技術がAGI(人工汎用知能)への道のりの5段階のうち、第2段階に近づいていると考えています。
OpenAIは火曜日の全体会議で従業員にこの新しい分類システムを共有したと、OpenAIの広報担当者が述べています。しかし、これが大きなニュースというわけではありません。この情報は既に公開されており、実際にこの分類システムはもう存在していました。例えば、Google DeepMindには独自のシステムがあり、こちらはAIのレベルを0から5(超人間レベル)までの6段階に分類しています。Anthropicも独自のシステムを持っており、AIシステムの潜在的リスクを測定し、人工知能の段階を彼らが考える形で分類しています。
OpenAIの新しい段階システムを理解することが重要です。なぜなら、OpenAIが現在のAIの位置、あるいはまさに到達しようとしているレベルについて語る際の文脈を理解するためです。
レベル1は、ほとんどの人が現在のレベルだと言うでしょう。会話言語を扱うAIチャットボットです。
レベル2は、人間レベルの問題解決能力です。推論が可能なシステムです。
レベル3は、多くの人が非常に期待しているものです。もちろん、エージェントのことです。ユーザーに代わって行動を取り、タスクや目標を長期的に実行し、観察・方向付け・決定・行動などを行うシステムです。
レベル4では、イノベーターがいます。発明を支援し、潜在的に科学を前進させ、新しいイノベーションを生み出すことができるAIです。
そして、もちろんレベル5は、AIの組織全体です。組織全体の仕事をこなすことができるAIシステムです。
Sam Altmanは、例えば、AIで自動化された1人組織が10億ドルの評価額に達する日を想像していると話しました。ただし、正確な時期は示しませんでしたが、おそらく私たちが予想するよりも早いでしょう。つまり、1人で10億ドルの会社を作る日です。
これらのレベルはOpenAIの幹部やリーダーたちによってまとめられましたが、彼らはフィードバックを得て時間とともに改善していく予定です。
では、これの要点は何でしょうか?OpenAIの幹部たちは従業員に、同社は現在レベル1のチャットボットレベルにいるが、レベル2の「推論者」に到達する寸前だと考えていると伝えました。レベル2とは、博士レベルの教育を受けた人間が、ツールを使わずに基本的な問題解決タスクを行えるレベルのシステムを指します。
同じ会議で、会社のリーダーシップは、OpenAIのGPT-4 AIモデルを含む研究プロジェクトのデモンストレーションを行いました。このモデルは、人間のような推論に匹敵する新しいスキルを示していると、OpenAIは考えています。
この情報をリークしたと思われる人物は、プレスに話す権限がないため、匿名を条件に取材に応じました。コメントを求められたOpenAIは、「常に新しいものをテストしていますが、具体的なことは言えません」と述べました。
参考までに、これがGoogle DeepMindのAGIレベル、つまりAIレベルです。
レベル0は基本的にAIなしです。つまり、おそらく電卓のようなもので、数字を足すことはできますが、それ以上のことはほとんどできません。
また重要なのは、AIの能力を狭いAIと汎用AIに分けていることです。狭いAIについては、すでに超人間レベルの狭いAIを持っています。超人間レベルとは、全ての人間の100%を上回るパフォーマンスを示すものと定義されています。
例えば、Alpha Foldのようなタンパク質の3D構造予測や、チェス、囲碁などの場合、これらのタスクに対する現在の狭いAIは、どんな人間よりも優れているか、あるいは熟練した大人の上位1%に位置しています。
しかし、汎用AI、つまり一般的なタスクを行い、スキルや能力をタスク間で転用できるAIについては、Google DeepMindは現在、私たちをここに位置付けています。つまり、AGIの兆しが見え始めているということです。
私たちは、ChatGPT、Google Bard、Google Gemini、Llama 2、そして現在はLlama 3などで、AGIの最初の兆候を目にし始めています。この論文は少し古いので、彼らはおそらくClaude 3と3.5もここに含めるでしょう。また、この分野で非常に競争力のある他のオープンソースモデルもいくつかあります。
これらは、未熟練の人間と同等かそれ以上のレベルです。この尺度でのレベル2は、OpenAIが提案しているものとは異なり、熟練した大人の少なくとも50パーセンタイルと定義されています。
興味深いのは、これが24時間以内に発表された別の大きな発表に続いて出てきたことです。
これはロスアラモス国立研究所の発表です。ここは原子爆弾を作った場所です。ロスアラモス国立研究所は1943年、第二次世界大戦が始まって数年後に、原子爆弾の設計と製造という単一の目的のために設立されました。そして彼らはそれを実現しました。「我は死神となりて、世界の破壊者となりぬ」といったところです。
しかし現在、この研究所の主な使命は、国家安全保障プログラムに科学的および工学的支援を提供することです。昨日、彼らはOpenAIとチームを組んで、フロンティアモデルの安全性を向上させると発表しました。安全性評価では、AIに関連する生物学的能力とリスクを評価します。
このリリースでは、AIの潜在的な利点、大きな可能性、そしてもちろん潜在的な危険性や誤用、特に生物学的リスクについて言及しています。ChatGPTは生物学的脅威の創造につながる情報提供において軽微な向上を示したと述べており、現在はChatGPT-4をテストしています。
これは、ビジョン機能を持ち、音声入出力でも訓練されたモデルで、同じモデルの一部です。Oは「Omni」の略で、すべてを意味します。現在、多くの音声アシスタントは複数のパーツを組み合わせたフランケンシュタイン的なものです。テキストを書き出し、そのテキストをAI音声に変換するためのコードなどがあります。しかし、ChatGPT-4Oは、すべてを一つにまとめたバージョンとされており、すべてのデータで訓練されています。
まだ音声モードにはアクセスできません。まだレッドチーム(脆弱性評価チーム)がテストしてリスクを評価している段階です。しかし、まだ7月に公開されることを期待しています。私はまだ希望を持っていますが、これまでも失望させられてきました。
では、なぜ彼らはパートナーシップを組んでいるのでしょうか?ホワイトハウスから新しい大統領令が出されました。人工知能の安全で、セキュアで、信頼できる開発と使用に関するものです。この中で、エネルギー省の国立研究所(ロスアラモスはその一部です)がAIフロンティアモデルの能力を評価する任務を与えられています。
エネルギー省は、これらの課題に取り組むためのユニークなデータリーダーシップ、コンピューティング、そして人材を持っており、これらの取り組みで業界と協力するのに適しています。
人々はこれにどう反応しているでしょうか?よく聞かれる反応の一つに、「OpenAIは国有化されたことが明らかになった」というものがあります。
右側の人物、レオポルド・アッシェンブレナーという人物がいました。彼はOpenAIのスーパーアライメントチーム、つまりAI安全チームの一員でしたが、情報をリークしたとされて解雇されました。何が起こったのかは分かりませんが、それが噂でした。
彼は「Situational Awareness: The Decade Ahead(状況認識:今後10年)」という論文を書き、業界内部の知識に基づいて、これから起こることを予測しました。彼はAGIレースが始まったと言い、人工超知能の開発をマンハッタン計画に例えています。
彼が最後に指摘している興味深い点は、超知能、つまり人間より賢いAIシステムの開発は国家安全保障の問題だという考えです。
シリコンバレーのスタートアップが超知能を開発していると信じるなら、2週間ごとに新しいリークがある中で、それを開発し続けられると信じますか?それとも、レオポルドが言うように、途中で半世紀も見られなかった国家安全保障の力が解き放たれると信じますか?
でも、あなたはどう思いますか?OpenAIが人間のような推論能力、人間レベルの問題解決能力を持つAIの次のレベルへの突破口に立っていると信じますか?それともそれは誇大宣伝だと思いますか?
ロスアラモス国立研究所とチームを組んだことは、彼らが国有化されつつある兆候だと思いますか?それとも、これは通常の出来事、いつも通りのビジネスだと思いますか?
コメント欄で教えてください。皆さんの考えを聞かせてください。
以上、Wes Rothです。ご視聴ありがとうございました。
コメント