OpenAIがリークした"スーパーエージェント"と人間労働の終焉

6,497 文字

OpenAI LEAKED "Super Agent" and THE END Of Human Work.
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

ここ数週間、奇妙な噂をたくさん耳にしてきましたが、これがその背後にある全ての要因かもしれません。OpenAIのスーパーエージェントについてです。私たちはJoe RoganでのMark Zuckerbergのインタビューを取り上げましたが、その中で彼は中級ソフトウェアエンジニアがもう必要なくなると述べています。彼らはAIに置き換えられるでしょう。ちなみに、それ以降、Bloombergが入手した全社的なメモによると、彼らは従業員の5%を削減するようです。
Facebookの所有者は従業員の約5%を削減しており、興味深いことに、この方針は先週ZuckerbergがポッドキャスターのJoe Roganに語った、中級エンジニアをAIに置き換える計画と既に緊張関係にあります。これは低パフォーマンスの従業員を対象としているようですが、これらの人々が置き換えられるのか、それともAIが仕事を引き継ぐのか見守る必要があります。
また、私たちはOpenAIの経済的な青写真も取り上げました。これはAIにおける支配的地位を維持するための道筋を示すもので、輸出や国家安全保障、さらには教育にまで及ぶ大規模な変更が含まれています。Sam Altmanは1月30日にワシントンDCを訪れ、AIの進歩の現状と経済成長の推進力となる可能性についてプレビューを行うことが言及されました。この会議の一部は、恐らくこの青写真の一部について合意を得ようとするものでしょう。
そしてここで、この記事が関係してきます。axiosのウェブサイトによると、「カーテンの裏側:近日公開 PhDレベルのスーパーエージェント」というものです。議論され、発表される予定の内容の一部が公になったようです。主要な生成AIモデルの開発者たちは、トップ企業(恐らくOpenAI)が数週間以内に次世代のブレークスルーを発表し、複雑な人間の仕事をこなすPhDレベルのスーパーエージェントを解き放つことに胸を躍らせているとのことです。
Sam Altmanは1月30日に米国政府と非公開のブリーフィングを行う予定です。Zuckerbergは2025年には中級ソフトウェアエンジニアが不要になると述べており、それ以降、人員削減や少なくとも今後の人員削減に関する内部メモがありました。情報筋によると、米国政府と主要AI企業は、ここ数ヶ月間でAIの進歩が予測を上回っているとのことです。
これはそれほど秘密というわけではありません。誰もが情報源を持っていますが、全てはTwitter上にあります。特にGoogleのLogan KilpatrickやOpenAIのJason Weiなど、主要な研究所の人々を見てきました。彼らは少し曖昧な表現をしているか、少なくともブレークスルーが具体的に何だったのかは明かしていません。これは非開示契約などがあるため理解できます。しかし、彼らが興奮で胸を躍らせているのは明らかです。
会話のトーンが変わったのです。このチャンネルをご覧になっている方はなぜそれが起きているのか、そしてどのように推論モデルが一種の再帰的な自己改善を引き起こしたのかについて、私の考えをご存知でしょう。少なくともそれが私たちが目にしているものについての最も良い理論です。多くの支持もあります。
重要なのは、何かが近づいているということです。それがGPT-5であれ、次の推論モデルと呼ばれるものであれ(o1からo3に進んだように、o5かo7かは誰にもわかりません)、私たちは多くの大企業が特定のポジションでの採用を停止したり、人員削減を始めたりしているのを目にしています。
Salesforceのマーク・ベニオフは、2025年にはソフトウェアエンジニアを一切採用しないと述べています。AIによって30%の生産性向上が見込まれるとのことです。「来年はソフトウェアエンジニアを追加しません。なぜなら、今年Agent Forceやその他のAI技術によってエンジニアリングチームの生産性が30%以上向上したからです。エンジニアリングの速度は信じられないほどです。私たちが達成していることに驚きを隠せません。
また、エージェンティックレイヤーがあるため、来年はサポートエンジニアも減らします。一方で、AIで達成できる価値を人々に正確に説明する必要があるため、営業担当者は増やす予定です。」
オンライン上では依然として、AIは決してソフトウェアエンジニアを置き換えることはできない、これは全てハイプサイクルに過ぎないと主張する人々が多くいます。一方で、多くのCEOやテクノロジーリーダーたちは、AIが実際にこれらの仕事の一定の割合を置き換えることができる、あるいは少なくともトップ50%の人々がはるかに多くの仕事をこなせるようになると賭けているように見えます。
この時点で、何らかの影響があることは間違いないと言えるでしょう。具体的にどの程度かはわかりませんが、2025年には展開が始まり、真実がどこにあるのか見えてくると思います。そして、これまで述べてきたように、OpenAI、Google、Anthropicの内部の多くの人々が、何か大きなものが来ると話しているのを目にしています。
もちろん、それらの一部はハイプとして説明されています。彼らはハイプを作り出そうとしているのだと。しかし、一般的に研究者たちはハイプを作る人々なのでしょうか?私にはそうは思えません。
しかし、別の人物が不気味な破滅的な警告を発しています。世界の機密情報に広くアクセスできる立場にある、ホワイトハウス国家安全保障顧問としての任期を残り3日に控えたジェイク・サリバンが、アメリカと次期政権に向けて不気味な破滅的な警告を発したのです。
これも同じくaxios.comの記事です。以下の2つの記事へのリンクを貼っておきます。彼らは本当に的確な指摘をしているようです。彼らは、今後数年で人工知能が破滅につながるのか、そして中国とアメリカのどちらがAI軍拡競争で勝利するのかが決定されると述べています。
覚えておいていただきたいのは、OpenAIの経済的青写真の多くがアメリカのこのレースでの勝利を中心に据えているということです。彼らは続けて、AI軍拡競争で先んじることは、第二次世界大戦中のマンハッタン計画を小さく、従来の国家安全保障の議論を些細なものに見せると述べています。
もちろん、私たちはこれについて以前から話してきました。状況認識のような論文は、なぜこれが国家安全保障の枠組みに組み込まれることになるのか、これが米国政府との協力のもとでマンハッタン計画スタイルの開発となり、世界中の他の政府も独自のバージョンを構築することになるのかを正確に説明しています。
マンハッタン計画は、もちろん核爆弾の開発でした。国家安全保障機関は、ベイエリアのスタートアップが超知能を作り出すのをただ座って見ているわけにはいきません。中国などの政府も同様です。
この国家安全保障顧問は続けます。これは未知の領域を超えています。これは未探索の銀河であり、新しいフロンティアです。彼の言葉によれば、予測を定期的に超え、進歩が数年ではなく数ヶ月単位で脈動している領域だということです。
この人物、ジェイク・サリバンは2021年以来の米国家安全保障顧問で、イラン核協議での米連邦政府上級顧問を務め、イェール大学ロースクールの客員教授でもあります。これを取り上げる理由は、このチャンネルを始めて以来、AIは役に立たない、どこにも向かっていない、これはただのハイプサイクルの一部だと信じている人々が少なからずいたからです。
確かに、ここ数年でそのような人々の割合は急速に減少していますが、私と同じことを言っているような人々の発言で、あなたの考えは変わりますか?彼もクリックベイトのためにこれを言っているのでしょうか?AIは何の意味もないと今でも考えている人々に尋ねたいと思います。コメント欄で教えてください。これによってあなたの考えは少し変わりましたか?これがあなたの信念に疑問を投げかけ、これが大きな出来事になるかもしれないと受け入れる余地が出てきましたか?
サリバンは、公職生活10年以上の中で滅多に聞かれなかった緊急性と直接性をもって語りました。何らかの形で政府は、国家レベルの富と資本、リソースを持つこれらのテック企業と力を合わせなければならないのです。アメリカの初期のAIにおける優位性を育み、保護し、潜在的な神のような力の使用に関する世界的なルールを形作るために、これらの企業と力を合わせなければならないと言います。
この動画のタイトルがまだ決まっていませんが、「神のような力」という言葉が入ることは間違いありません。サリバン氏についてもう一つ注目すべき点は、彼個人はAIドゥーマー(破滅論者)ではないということです。これは非常に重要です。なぜなら、AIからは良いものは何も生まれず、前方には危険と破滅しかないと信じている人々がいるからです。
このチャンネルをフォローしている方々は、この技術が人間の生活のあらゆる側面を改善する巨大な可能性を持っていることをご存知でしょう。もちろん、大きなリスクも伴います。彼が言うように、私たちはそれらのリスクについて冷静で現実的でなければなりません。
このチャンネルでは時々、AI安全性の専門家たちを少し茶化すことがあります。それはAIのリスクを軽視しているからではなく、この重要な期間に責任を持つ人々が、サリバン氏のような人物であることが重要だからです。
絶滅の確率が99.99%だと考えるAIドゥーマーでもなく、リスクを気にせず全速力で前進する人々でもない。金銭的なインセンティブで急いでリリースしようとする人々であってはならないのです。この人物についてはあまり詳しくありませんが、これを読む限り、かなり中立的な、正確な見方をしているように思えます。
前方には素晴らしいことがあるかもしれないし、リスクもあるかもしれない。私たちは冷静でなければならず、また、私たちだけがこの技術を追求しているわけではないことを理解しなければなりません。レースの先頭を走り続けなければならないのです。
彼は続けて、今後の局面についてのサリバンの広範な信念を共有していない統治者はいないと述べています。公に何が言われようとも、バイデン大統領の高官との全ての非公式な会話は中国に戻ってきました。彼らはAIの倫理、誤情報、雇用喪失について懸念を持っていました。彼らはそれについて話し合い、議論しました。
それがニュースで取り上げられ、人々が話題にすることですが、それは最も重要なことではありません。全ての動き、全てのリスクは、中国にAIの先を越されないようにするために計算されていました。他のことは重要ではないと彼らは基本的に述べています。
インターネット革命で大きな成功を収め、多くのテク投資を行い、a16zの主要メンバーの一人であるマーク・アンドリーセンも話をしています。彼は非常に早口で話すので、もし彼のインタビューを通常以上の再生速度で聞くと、何を言っているのか全く理解できないでしょう。
彼は、バイデン政権が絶対に恐ろしいものになっただろうと述べ、当局者たちが権力を握っていれば、AIスタートアップを窒息させていたかもしれないと懸念していました。言い換えれば、バイデンは彼らがコントロールできる少数の大手プレーヤーの手にAIの力を集中させることで、政府のコントロールを主張しただろうということです。トランプ政権はAI開発に関して全速力で前進しているように見え、テクノロジー企業のCEOたちと非常に個人的なレベルで協力していくように見えます。
もちろん、就任式にはイーロン・マスク、ジェフ・ベゾス、ティム・クック、サム・アルトマン、スンダー・ピチャイ、マーク・ザッカーバーグが出席することになります。しかし、メインの話題に戻りましょう。このスーパーエージェントというアイデアについてです。
これは明らかに、サム・アルトマンが30日にDCで発表し、話し合うために行くことです。私たちは人間の思考が整理して克服するのに苦労する、複雑で多層的な現実世界の問題に取り組むように設計されたAIツール、スーパーエージェントについて話しています。
彼らは単一のコマンドに応答するだけではなく、目標を追求します。スーパーエージェントは膨大な量の情報を統合し、選択肢を分析し、製品を提供します。あなたのエージェントに「新しい決済ソフトウェアを構築して」と指示することを想像してください。エージェントは設計し、テストし、機能する製品を提供するでしょう。
サプライチェーンであれ、単なるオフサイトのチームビルディング演習であれ、ロジスティクスを習得しながら、膨大な量のデータを編集し、様々な洞察をより速く得ることができます。
しかし、これらすべてを踏まえて、あなたはどう思いますか?超知能の開発を巡る国家間の対立の可能性について懸念はありますか?これらのスーパーエージェントが労働力に参入し、多くの人々を置き換えることを心配していますか?私たちはそれに備えていますか?セーフティネットは整っていますか?物事が悪い方向に向かった場合のプランBはありますか?
個人的にこのチャンネルで政治的な話題は避けるようにしていますが、コメント欄で自由に教えてください。AGIが出現するこの時期に、トランプのような人物とバイデンのような人物、どちらのアプローチの方が信頼できると感じますか?米国政府とこれらの巨大テクノロジー企業(そしてそれほど巨大ではない企業も。OpenAIは確かにMetaやGoogleほど巨大ではありません)が非常に近い関係にあるという事実について、どう感じますか?
それはあなたの懸念となりますか?ご存知かもしれませんが、TikTokはアメリカから追放されました。中国へのAIチップの輸出、AI関連の米国技術の輸出に対する制限や管理がますます強化されています。
2024年6月、レオポルド・アッシェンブレナーは「状況認識:この10年」を発表し、この全体がどのように展開するか、AGIから超知能への移行、知能爆発、超知能のためのマンハッタン計画、米国や中国などの国家安全保障がどのように展開するかを詳しく説明しました。
当時、私は彼が正しいと信じていました。これらすべてのことについて、彼が正しいだろうと考えていました。これまでのところ、私たちが目にしているものの多くについて、彼が不気味なほど正確だったことに同意できると思います。
彼をアッシェンブレナーと呼んでもノストラダムスと呼んでも、どちらも発音が難しいですが、論文の大きなポイントの一つは、急速に近づく知能爆発という考えでした。AIリサーチがAIによってはるかに効果的に行われるようになるポイントです。
これが、タイムラインが急速に縮小している理由です。これが私たちに襲いかかるスピードだけでなく、世界中の多くの支配者や権力者たちが、これに何らかの役割を果たすと考えているなら、これは様子を見ることができるような類のものではありません。物事は非常に速く、複合的に起こるでしょう。
研究で1年遅れを取ることは、マンハッタン計画の時代では10年遅れを取るようなものです。これらのことの多くがサンフランシスコとベイエリアから出てくるのは奇妙に思えます。私も短期間そこで暮らしていましたが、あれは奇妙な街です。その地域全体が一種の超現実的なエネルギーを持っています。
しかし、ここでの私の要点は、今後数年間で何が起こるにせよ、物事は激しく変化するだろうということです。私は間違っているかもしれませんが、そうは思いません。
ここまでご覧いただき、ありがとうございました。私の名前はWes rthです。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました