このGPT-5のニュースが全てを変える可能性がある…

13,070 文字

This GPT-5 NEWS Could Change EVERYTHING...
Join my AI Academy - 🐤 Follow Me on Twitter 🌐 Checkout My website -

Alberto Romeroが長文の記事で詳しく説明したGPT-5に関する噂について解説します。これは単なるGPT-5の話ではなく、AI業界全体がどこに向かっているのかについての話です。なぜなら、AIラボが秘密裏に行っている可能性のあることについて、皆さんが知っておくべきことがあるからです。
この記事は、GPT-5に関する噂から始まります。そしてこの噂は本当に全てを変えるものであり、誇張ではありません。なぜなら、これらのモデルのリリース方法が完全に異なるものになるからです。
記事の内容を見てみましょう。GPT-5について、内部的な話をしています。「もしGPT-5が実在するだけでなく、すでに目に見えないところで世界を形作っているとしたら?」これが仮説です。これがこのビデオ全体の仮説であり、この投稿者に感謝します。
記事では、OpenAIはすでにGPT-5を構築しているが、数百万のChatGPTユーザーにリリースするよりも、内部で保持しておく方が投資収益率(ROI)が遥かに高いと述べています。また、そのROIはお金ではなく別のものだと言います。このアイデアはシンプルですが、そこに至るまでの証拠を繋ぎ合わせることが課題であり、この記事はなぜそれが全て合理的だと考えるのかについての詳細な分析です。
基本的にこの記事は、OpenAIがGPT-5を作成し、それは素晴らしいモデルであるが、これから説明する理由により、このモデルをリリースしないことを決定したと述べています。その理由は特に興味深いものです。
では見ていきましょう。ここで実際に取り上げられているのは、Opus 3.5の謎の消失についてです。
GPT-5について触れる前に、その遠い親戚であり、同じく行方不明のAnthropicのClaude Opus 3.5について触れる必要があります。ご存知の通り、上位3つのAIラボであるOpenAI、Google DeepMind、Anthropicは、価格、レイテンシー、パフォーマンスのスペクトルをカバーするように設計された一連のモデルを提供しています。OpenAIはGPT-4o、GPT-4o mini、o1、o1 miniなどのオプションを提供し、Google DeepMindはGemini Ultra、Pro、Flashを提供し、AnthropicはClaude Opus、Sonnet、Haikuを提供しています。
これらの異なるモデルで、できるだけ多くの顧客をカバーしようとしています。コストに関係なく最高のパフォーマンスを優先する人もいれば、十分に良い手頃な価格のソリューションを求める人もいます。
ここで、このシリーズで登場するはずだったOpus 3.5モデルの謎の消失について話を進めます。2024年10月に奇妙なことが起こりました。誰もがAnthropicがGPT-4oへの対抗としてClaude 3.5 Opusを発表すると期待していました。しかし代わりに、人々がClaude 3.6と呼び始めたClaude 3.5 Sonnetの更新版をリリースしました。
Opus 3.5は見当たらず、AnthropicはGPT-4oの直接の競合がない状態になったように見えました。これはGPT-5タイプのモデルになるはずでしたが、Opus 3.5の実際の状況を見てみると、かなり興味深いものでした。
以前の10月に彼のニュースポストで、優れたモデルであるSonnet 3.6は、待望のOpus 3.5の失敗した学習実行のチェックポイントに過ぎないという噂があると書いています。当時、多くのウェブページでClaude 3.5 Opusが登場すると述べていたにもかかわらず、突然そのモデルに関する言及が削除されたため、多くの人々はOpus 3.5が廃止されたと考えていました。
最近、AnthropicのCEOへのインタビューがありました。このOpus 3.5に関する話は、すぐにGPT-5に関連してきます。Opus 3.5について話している理由は、それがGPT-5タイプのモデルになるはずだったからです。つまり、GPT-5タイプの競合モデルとなるはずだったOpus 3.5について、Anthropicが何をしたのかを見ることで、OpenAIが何をしたのかが明らかになるということです。
Dario Amodeiは基本的にこう言っています:「Opus 3.5については正確な日付は言えませんが、我々の知る限り、依然としてClaude 3.5 Opusを持つ計画はあります」。慎重かつ曖昧ながらも妥当な…「Claude Opus 3.5はいつ登場するのですか?」という馬鹿げたタイムラインに関する質問に対して、「正確な日付は言えませんが、我々の知る限り、依然としてClaude 3.5 Opusを持つ計画はあります」と答えています。
ここで興味深いのは、当時BloombergなどでGPT-4からGPT-5タイプのモデルへのジャンプについて、OpenAI、Google、Anthropicがより高度なAIの構築に苦心しているという記事が多数あったことです。この記事は本当に興味深いもので、私も当時読んでいましたが、Gemini 2は期待はずれで、GPT-5も期待はずれで、Opus 3.5もより良いパフォーマンスを示したものの、十分ではないと述べていました。
記事では、Bloombergが「Anthropicは学習の結果、3.5 Opusが評価において古いバージョンより優れていることを発見したが、モデルのサイズと構築・実行にかかるコストを考えると、期待ほどの向上ではなかった」と報じたと述べています。Darioが日付を明言しなかったのは、Opus 3.5の学習が失敗したわけではないものの、その結果が期待はずれだったからだと思われます。
基本的に彼らが述べていたのは、多くの人が見落としていた点として、GPT-5、Gemini 2といった次世代モデルは良いものの、唯一の問題点は非常にコストがかかることだということです。これは重要な事実なので覚えておいてください。これらのモデルをリリースしなかった理由の一部となっているからです。
ここで内部情報とリークについて触れています。12月11日、半導体の専門家Dylan Patelと彼のSemi Analysisチームが、全てのデータポイントを首尾一貫した物語に織り込む説明を提示しました。AnthropicはClaude 3.5 Opusの学習を完了し、適切にスケールしてよい性能を示したにもかかわらず、何らかの理由でリリースしなかったというのです。
AnthropicはGPT-5モデルを作り上げ、良好な性能を得ましたが、リリースしなかったということです。そして、これが面白い理論につながるのですが、Anthropicは公開する代わりに、Claude 3.5 Opusを使って合成データを生成し、ユーザーデータと共にClaude 3.5 Sonnetを大幅に改善するための報酬モデリングに活用したというのです。
これは非常に大胆な主張ですが、業界内の信頼できる情報源からのものであり、以前にもリリース前の情報を語り、後にその情報が真実であることが判明した経験があります。これは、多くの人々がGPT-5が内部で存在し、機能しているものの、現時点では一般公開されていないと考える主な理論の一つとなっています。
Claude 3.6 SonnetまたはClaude 3.5 Sonnet(どちらと呼ぶにせよ)が非常に優れているにもかかわらず、なぜまだClaude Opusをリリースしていないのかという疑問に対して、これは理にかなっています。
つまり、AnthropicはClaude 3.5 Opusを訓練し、十分な性能が出なかったため名前を取り下げ、Darioは異なる学習実行で結果を改善できると確信していたため日付を避け、Bloombergは結果が既存のモデルより良かったものの、推論コスト(人々がモデルを使用する際のコスト)を正当化するほどではなかったことを確認したということです。
DylanとそのチームはSonnet 3.6と行方不明のOpus 3.5の関連性を明らかにしました。後者は前者のパフォーマンスを向上させるための合成データを生成するために内部で使用されていたのです。
これがGPT-5に関連してくるのですが、Anthropicの最大のライバルの一つであるこのGPT-5スターモデルについて、私たちは内部で非常にスマートなAIシステムを構築したが、まだ一般公開はしていないということが分かります。これがSonnet 3.6に蒸留されているのが見て取れます。Sonnet 3.6は、ご存知の通り、非常に優れています。
ここで事態はさらに興味深くなります。モデル蒸留について説明を始めます。「より良く、より小さく、より安価に」というのが彼らの説明です。強力で高価なモデルを使用して、やや能力の劣るモデルのパフォーマンスを向上させるデータを生成するプロセスは蒸留として知られており、一般的な実践です。
この技術により、ラボは追加の事前学習だけでは達成できない水準を超えて、より小さなモデルを使用することができます。これらの企業の多くが、より小さなモデルをより良くする方法の一つは、モデル蒸留を通じてです。教師モデルがあり、その知識を蒸留して生徒モデルに転移させます。
これは標準的な事前学習やこれまでのパラダイムよりもはるかに優れた性能を発揮します。これはAI企業にとって順調に進んでおり、今後も継続されることでしょう。
蒸留にはさまざまなアプローチがありますが、詳細には立ち入りません。重要なのは、教師として機能する強力なモデルが、小さく安価で高速だが弱い生徒モデルを、小さく安価で高速かつ強力なものに変えるということです。蒸留は強力なモデルを金鉱に変えるのです。
DylanはなぜAnthropicがOpus 3.5とSonnet 3.6でこれを行うことが理にかなっていたのかを説明しています。新旧のSonnetの推論コストは大きく変わらなかったものの、モデルの性能は向上しました。コスト面で経済的な意味をなさないOpus 3.5をリリースする代わりに、Opus 3.5からさらなる事前学習を受けた3.5 Sonnetをリリースする方が理にかなっているということです。
これは非常に興味深く、前述の通り、Anthropicは性能が悪かったからではなく、内部で使用する方が価値が高いためにリリースしないことを選択しました。基本的に、このAIを使って次世代のAIを訓練しているのです。
これが全てを変える理由は、多くの人々が長い間、これがAIシステムが単にどんどん良くなっていく瞬間になるだろうと推測してきたからです。一つを使って次のバージョンを訓練し、そのバージョンを使って次のバージョンを訓練するというように、知能の面で拡大し続けることになります。
興味深いのは、この参照しているDylanという人物が、オープンソースコミュニティがGPT-4に素早く追いついた理由はこれだと述べていることです。彼らは基本的にOpenAIの考えから直接金を採掘していたのです。人々は本質的にGPT-4の能力をより小さなモデルに蒸留していました。
GPT-4oは小さなモデルで、はるかに高速で優れていますが、非常に有用でもあります。これは本質的に他の企業も同じことをしているのです。これらの能力を使用して、オープンソースプロジェクトをGPT-4のレベルまで引き上げています。
Sonnet 3.6は単に良いだけでなく、最先端の性能を示し、GPT-4oよりも優れていることが分かります。もちろん、AnthropicのミッドティアモデルがOpus 3.5からの蒸留のおかげで、OpenAIの旗艦モデルを上回る性能を示したのです。
これは非常に驚くべきことでした。ここで、より大きく優れたものはもはやパラダイムではないという話に移ります。これらのトップラボは、より多くのパラメーター数が優れているという話をしなくなりました。最後にパラメーター数について知ったのは、GPT-3.5が1,750億パラメーター、GPT-4には専門家の混合により1.8兆パラメーターあるという噂でした。
最も驚くべきことは、GPT-5やSonnet 3.6、あるいはGPT-4oやSonnet 3.6のような蒸留モデルが、ベンチマーク全体でGPT-4より優れているにもかかわらず、GPT-4よりも大幅に小さいと推測されていることです。
つまり、GPT-4は1.8兆パラメーターで、リリース時(約1年半か2年前)には素晴らしい最先端モデルと考えられていました。しかし今では、GPT-4oやSonnet 3.6のような小さなモデルが、蒸留のおかげでこの大きなモデルよりも小さいにもかかわらず優れています。これは、これらのモデル内の知識がより効率的で、モデル自体がよりスマートであることを意味します。
現在のモデル、例えば元のGPT-4oはGPT-4より1桁小さく、4oは約2,000億、3.5 Sonnetは約4,000億パラメーターを持っていると推測されます。ただし、この推定値は到達方法が粗いため、2倍程度の誤差がある可能性があります。
ここで注目すべき点は、両社が同様の軌道をたどっているということです。最新のモデルは前世代よりも優れているだけでなく、より小さく安価です。AnthropicがOpus 3.5をSonnet 3.6に蒸留することでどのように実現したかは分かっていますが、ここで興味深い疑問が生じます。
OpenAIは何をしたのでしょうか? AnthropicについてはOpus 3.5を訓練し、そのモデルの知識をSonnet 3.6に蒸留したことが分かっていますが、OpenAIは一体何をしたのでしょうか? ここでGPT-5の噂が関係してきます。
この図を見ると、教師モデルと蒸留モデルがあり、基本的にOpenAIには非常に秘密の内部モデルがある可能性を示唆しています。それはGPT-5かもしれませんし、最近聞いた全てのことを考えると、さらにスマートなモデルかもしれません。
これらのモデルは非常にスマートですが、より良く、より小さく、実行コストの安い公開モデルへの蒸留にのみ使用されます。考えてみると、これはかなり驚くべきことです。
AnthropicではOpus 3.5を内部に持っている可能性が高く、それは素晴らしいものですが、Sonnet 3.6に蒸留することに成功しました。すでにご存知の通り、Sonnet 3.6は非常に優れています。
ここで彼らが言っているのは、OpenAIもGPT-5タイプのモデルを持っていて、現在使用している小さなモデルにこの情報を蒸留している可能性があるということです。Strawberryモデルでも何らかの蒸留が行われていたことを私は知っています。OpenAIは間違いなくその蒸留プロセスに精通しています。o1モデルとo1プレビューモデルがあり、それらがいかに効果的だったかを考えると明らかです。
第3章では、AnthropicのOpus 3.5の期待外れな学習実行という特殊な状況が蒸留アプローチを導いたと考えるかもしれませんが、これは全ての企業が経験していることだと述べています。
重要なのは、ニュースが誰もの頭の中で180度転換したことです。なぜなら、みんなニュースから間違った結論を引き出したからです。彼らは学習実行が期待以下だったと言いましたが、それは以前より悪かったという意味ではありません。
考えてみてください。期待以下というのは、期待を下回ったということであって、以前より悪かったということではありません。例えば、コンテストで1万ドル獲得を期待していたのに、普段より1万1千ドル多く獲得しただけだったとすれば、それは期待以下かもしれませんが、改善ではないということではありません。
知能に関しては、わずかな進歩であっても全く新しい能力の可能性を開くということを覚えておく必要があります。彼らは、その原因が何であれ – 収益逓減、データ不足など – 我々にとっては重要ではないと言います。なぜなら、全ての企業が同時に同じことを経験しているからです。
これらの企業にとって最も重要なことの一つで、多くの人が理解していないのは、週に3億人が製品を使用している場合、運用コストが突然会社を破綻させる可能性があるということです。コストは本当に重要なのです。
これらの企業にとってコストは非常に重要です。なぜなら、非常に多くのユーザーがいて、非常に多くのサーバーが必要で、週ごとに需要が継続的に拡大しているためです。その需要に追いつくのは非常に困難です。
これが、蒸留が非常に優れている理由です。なぜなら、AnthropicがSonnet 3.6をOpus 3.5に蒸留させた理由となった要因は、OpenAIにも数倍の影響を与えているからです。
蒸留は、これら二つの普遍的な課題を利点に変えます。より小さなモデルを提供することで推論コストの問題を解決し、より大きなモデルをリリースしないことで期待外れな性能に対する公の反発を避けることができます。
もちろん、ご存知の通り、もはや過剰な学習はできません。これらのAIラボは、事前学習のための高品質なデータソースを使い果たしています。これは最近、Elon MuskとIlya Sutskeverも認めていることです。
私たちは蒸留に戻っています。GPT-4oとClaude 3.5 Sonnetの両方が、より大きなモデルから蒸留されたと考えられます。これは彼ら両方が現実的なこととして語っていることであり、次のレベルのモデルに到達するためには、単により多くのデータを投入するだけではなく、新しいイノベーションが必要だと言っています。
基本的に、蒸留は恐らくこれらのモデルが改善される唯一の方法でしょう。これまでのパズルのピースは全て、OpenAIがAnthropicがOpus 3.5で行ったことと同じことをしていることを示唆しています。
モデルを訓練し、同じ理由で蒸留を通じて同じ方法でモデルを隠しているということです。コストの面で結果が良くなかったためです。これは大きな発見です。なぜなら、Opus 3.5はまだ隠されているからです。
しかし、OpenAIの巨大なモデルはどこにあるのでしょうか? 会社の地下に隠されているのでしょうか? 名前を推測してみませんか? これがOpenAIが現在そのモデルを蒸留している理由です。
また興味深いのは、「道を開く者は道を切り開かねばならない」と彼らが語っていることです。彼は、より多くの情報がある部分だからという理由で、AnthropicのOpus 3.5の話から分析を始めたと言います。
その後、蒸留の概念でOpenAIへの橋を架け、Anthropicを押し進めている根本的な力がOpenAIも押し進めていることを説明しました。しかし、理論上新たな障害があります。OpenAIは先駆者であるため、Anthropicがまだ直面していない障害に直面している可能性があるからです。
イノベーションを行う場合、他の誰も見たことのない問題に直面することになります。その道を切り開く必要があります。ここで、一つの障害はGPT-5を訓練するためのハードウェア要件だと述べています。
Sonnet 3.6はGPT-4oと同等ですが、5ヶ月遅れでリリースされました。GPT-5は別のレベルにあり、より強力で大きく、推論だけでなく訓練にもより高額な費用がかかると考えるべきです。5億ドルの訓練実行について話している可能性があります。
現在のハードウェアでそのようなことは可能でしょうか? はい、可能ですが、面白いのは、そのモデルに対して推論を行うことはできないということです。基本的に、これらの企業は内部でモデルを拡大し続け、途方もない訓練実行を行っている可能性がありますが、これらのモデルを一般に公開するための推論を提供する唯一の方法は、それらの能力をより小さなモデルに蒸留することだと述べています。
原則として、現在のハードウェアはGPT-4よりもはるかに大きなモデルを提供するのに十分です。例えば、GPPTー4を50倍スケールアップした約100兆パラメーターを持つバージョンは、100万トークンあたり3,000ドル、出力速度は1秒あたり10〜20トークンで提供できる可能性があります。
しかし、これが実現可能であるためには、これらの大きなモデルが顧客に多大な経済的価値をもたらす必要があります。これが彼らがリリースしない理由の一つです。
これは非常に興味深いです。なぜなら、これらの企業が常に推論用のGPUを求めて苦心し、多くの研究を行っていることを我々は知っているからです。しかし、もし彼らがそれほど大きなモデルを訓練しているとすれば、それを使って多くのことができるでしょう。ただし、それを推論に使用することはできません。
この記事が現時点で触れていない唯一のことは、GPT-4oについてです。私は以前いくつかの投稿を読んだ記憶があり、GPT-4が最初からマルチモーダル入出力可能なオムニモデルとして構築されたモデルであることを読んだ記憶があります。
単なるLLMだったのかどうかは分かりませんが、GPT-4oについて、それが音声入力音声出力が可能なオムニモデルだったという研究論文全体を読んだ記憶があります。30〜40分かけて詳細に検討し、モデルが多くの異なることが可能だということが分かりました。
もし彼らがGPT-5タイプのモデルを持っているとしても、私はそれを単にGPT-4oに蒸留しただけだとは思いません。そのモデルは間違いなく将来登場するでしょう。
Microsoft、Google、またはAmazonでさえ、そのような推論費用を使うことは不可能ではないと彼らは述べています。なぜなら、数兆のパラメーターを持つモデルを一般に提供する計画があるなら、莫大な経済的価値を解き放つ必要があるからです。
そうはしません。彼らはそれを訓練し、現在の提供物よりも性能が良いことを認識しますが、稼働させ続けるための莫大なコストを正当化するほどには進歩していないことを受け入れなければなりません。
これは本質的に、Wall Street Journalが1ヶ月前にGPT-5について、そしてBloombergがOpus 3.5について述べたことです。
もう一つの興味深い点は、仮説的にOpenAIがGPT-5を「まだ準備ができていない」という口実で保留していた場合、コスト管理と公の反発を防ぐ以外にもう一つのことを達成できたということです。
それはAGIとして分類される閾値を満たすかどうかを宣言する必要性を回避できたということです。ご存知の通り、彼らはMicrosoftとの契約で、AGIは少なくとも1,000億ドルの利益を生み出すシステムと定義されています。
もし人々がそれを使ってラッパーを構築でき、1,000億ドルを達成できるなら、MicrosoftはAGI条項を発動してOpenAIと別れることを気にしないかもしれません。潜在的に、GPT-5から年間1,000億ドルの経常収益を見込めるなら、彼らは気にしないかもしれません。
ここで理論は本当に面白い展開を見せ、最終段階に入ります。理論は基本的に、彼らは私たちを必要としないかもしれないと言い始めます。
たとえそれが真実だとしても、懐疑的な人々は、OpenAIが外部から得られるものよりも優れた内部使用事例を持っている可能性について考えていません。
優れたモデルを作ることと、3億人に安価に提供できる優れたモデルを作ることの間には大きな違いがあります。できないならしないし、する必要がないならしないのです。
ここで驚くべき指摘があります。彼らは以前、データが必要だったので最高のモデルへのアクセスを提供していましたが、もはやそれほど必要ではありません。彼らはお金を追っているわけでもありません。それはMicrosoftの仕事です。彼らはAGI、そしてASI(人工超知能)、そしてレガシーを求めているのです。
基本的に、以前は彼らはユーザーデータで訓練する必要があり、モデルをどこまでスケールさせるかを把握する必要がありましたが、今やGPT-5と、私たちが日常的に適度な価値を得られる単純な製品に知識を蒸留するために使用している内部モデルを持っているので、最先端の技術を提供する必要はもはやないと述べています。
彼らはもはやそれらを提供する必要がなく、より良い製品とより良い技術を開発するために自分たちで使用するだけでよいのです。これは、OpenAIが独自の内部AGIシステムを開発した時、お金を稼ぐためにそれを自分たちで使用するだけだという意味です。
ここで彼らが話しているのは、内部的にはOpus 3.5があり、非公開でGPT-5があり、それらの能力をこれらのモデルに蒸留しているということです。
GPT-4oへの蒸留については確信が持てませんが、おそらく将来のモデルの強化学習や合成データ生成の一部を支援するために使用されているのでしょう。o1/o3でもそうだと聞いています。
「結論に近づいています。OpenAIはAnthropicがOpus 3.5で行っているように、GPT-5を内部で機能させているという十分な論拠を示したと思います。しかし、OpenAIがGPT-5を全く公開しない可能性が十分にあります。
パブリックは今やo1やo3だけでなく、GPT-4やClaude Sonnet 3.5に対しても性能を測っています。新しいスケーリング法則により、GPT-5が超えなければならないハードルは上がり続けています。o1とo3、そして今後のOシリーズモデルを、彼らが生産している速度で本当に上回るGPT-5をどうやってリリースできるでしょうか?
それに、彼らはもはや私たちのお金やデータを必要としていません」基本的に、これらのo1シリーズモデルの推論能力が非常に優れていることを考えると、なぜGPT-5レベルのモデルをリリースする必要があるのでしょうか? 現在のGPT-4タイプのシステムで得られる小さなモデルは、わずかな性能向上のために非常に高コストになるからです。
OpenAIにとって、GPT-5、GPT-6、そしてそれ以降の新しいベースモデルを訓練することは内部的には常に理にかなっていますが、製品としては必ずしもそうではありません。その部分は終わったのかもしれません。
これから彼らにとって唯一重要な目標は、次世代モデルのためのより良いデータを生成し続けることです。これから先、ベースモデルは背景で動作し、他のモデルが単独では達成できない機能を実現するために力を与えるかもしれません。
秘密の山洞から知恵を伝える老隠者のように。ただし、その洞窟は巨大なデータセンターであり、私たちが彼に会えるかどうかは見てみないとわかりません。
内部モデルのGPT-6、GPT-7、GPT-5が将来のモデルの訓練のための合成データを生成している可能性は十分にあります。これらのモデルを手に入れられない可能性を考えると、確かにそうかもしれません。
もしGPT-5が突然リリースされたらどうなるのでしょうか? 彼らは基本的に、たとえGPT-5が最終的にリリースされたとしても、OpenAIとAnthropicはすでに人間を介した自己改善のサイクルを開始しており、彼らが公に何を提供するかは重要ではないと言います。
遠い銀河がもはや私たちに届かないほど速く宇宙が膨張しているように、彼らはどんどん先に進んでいくでしょう。おそらく、これが彼らが3ヶ月足らずでo1からo3にジャンプした方法であり、o4からo5へとジャンプする方法でもあるでしょう。
おそらく、彼らがソーシャルメディアでとても興奮していた理由は、信じられないほどのスケールアップの新しい方法を実装したからでしょう。
ここで彼らは、私が最初にAIコミュニティを立ち上げた頃に話したことについて触れています。たとえAGIが到来しても、平均的な人にとっての経済的価値が単純に意味をなさないため、おそらく私たちはそれにアクセスできないだろうということです。
ここで彼らは述べています:「本当に、AGIに近づくということが、あなたの指先で使える、ますます強力なAIにアクセスできることを意味すると思いましたか? 彼らが全ての進歩を私たちに使わせるためにリリースすると信じていますか?
確かに、彼らのモデルが他の誰もが追いつけないほど先に進むと言ったとき、それを本気で言っているとは思わないでしょう。新しい世代のモデルごとに、成層圏からの脱出速度のエンジンとなります。彼らはすでにさようならを言っているのです」。
基本的に、新しいモデルを作るたびに、OpenAIに追いつくのはますます難しくなるだろうと言っています。なぜなら、彼らは合成データを生成できる何かを持っており、それはまたモデル内の知能を高める全体的なサイクルを助けることができるからです。
最近、Twitterでこの非常に暗号めいたツイートがバイラルになっています。「OpenAIで内部的に何が起こっているかについて、いくつかの情報を読んだばかりです。なんてことだ。誇大広告に聞こえないように感情を表現する方法が分かりません。何を言えばいいのか分かりませんが、これだけは共有します:イノベーターたちがやってきます。問題は、彼らがどうやってそこに辿り着いたのか分からないということです」。
これはJimmy Applesのような投稿ではないと言わせてください。この声明を引用している人々をあまり見たことがありません。しかし、この人物だけでなく、OpenAIの人々から超知能について驚くべきことを述べているのを何度も見てきました。
OpenAIは彼らのブログで、今やAGIではなく人工超知能を追求していると述べており、AGIに到達する方法を正確に知っていると言っています。この新しいパラダイムと同時期に出てきたこれらの声明は、正直なところ驚くべきことではありません。
このビデオを作っている最中に、GPT-5に関するツイートがありました。誰かが「GPT-5について何かコメントできますか? 何も言えないことは分かっています。とにかく何でもいいので」と言いました。
彼は「何を知りたいですか?」と答えました。Chubbicornは「到着時期の見積もりと、もちろん性能について。これはGPT-4oよりどれくらい優れているのか、そしてこのGPTシリーズはOシリーズと統合されるのか」とコメントしました。
彼は、到着時期の見積もりと性能についてはまだ検討中だと述べ、2025年には実際にo1シリーズとGPTシリーズを統合する話をしています。全体的にまだ非常に曖昧な返答で、深く掘り下げるものはありませんが、これらのモデルを作ることは間違いなく理にかなっています。
彼らはどのみちそれらを作るつもりでしたし、リリースしていないことは分かっています。データを生成し、他の多くのことを行うために内部で使用している可能性が高いのです。
現在のClaude 3.6よりもさらに優れたバージョンを想像してみてください。それを何に使えるか想像してみてください。Claude 3.6 Sonnetが、Cursorやコーディング、人々が可能にすることといった点で、産業全体をどれほど変えたかを文字通り目にしてきました。
これからどうなっていくのか、本当に興味深いですね。以上で、この動画は終わりです。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました