
さて、OpenAIがついにAIの次のレベルと呼ぶものを我々に提供してくれました。GPT-5の詳細がようやく明らかになりました。SLGと呼ばれ、次世代AIシステムは「推論者」と名付けられています。彼らは、これが博士レベルになると言っています。そして実際にいくつかの秘密の情報がリークされたので、具体的に何が起こっているのか見ていきましょう。
ここで、Bloombergが約1時間前にこの驚くべき記事を報じたことがわかります。OpenAIが人間レベルのAIへの進歩を追跡するシステムを開発したというのです。同社は、その技術が人工知能全般への道筋の5段階のうち、第2段階に近づいていると考えています。
これが画期的な変化に思えないかもしれませんが、なぜこれが皆さんが思っている以上に重要なのか、お見せしましょう。この記事を詳しく見て、なぜこれがかなり驚くべきことなのか、皆さんにお伝えしましょう。
記事によると、OpenAIは人間を上回る性能を持つ人工知能ソフトウェアの構築に向けた進捗を追跡するために、5段階のレベルを考案したそうです。これは、AIの安全性と未来についての人々の理解を深めるための同社の最新の取り組みです。
ChatGPTの開発元であり、より強力なAIシステムの構築競争のリーダーと多くの人に見なされているOpenAIは、火曜日の全体会議で従業員にこの新しい分類システムを共有したとOpenAIの広報担当者は述べています。
OpenAIが投資家や社外の人々と共有する予定のこの段階は、今日利用可能な会話言語で人々と対話できるAIから、組織の仕事を行えるAIまでの第5段階まで及びます。
ここから事態は驚くべきものになります。なぜなら、彼らは現在我々が持っているGPT-4、GPT-3.5、Claude-3.5などのレベル1から、組織の仕事を行うレベル5まで話しているからです。AIが組織の仕事を行うという意味を考え始めると、なぜこれがそれほど大きな問題なのか疑問に思い始めるでしょう。
記事はこう続きます。OpenAIは従業員に、現在会社はレベル1にいるが、第2段階である「推論者」に達する寸前だと伝えたそうです。これがOpenAIが次世代AIシステムを議論する際に使用する新しい用語になります。
彼らは、これは人間と同じくらい基本的な問題解決タスクを行えるシステムを指すと述べています。そして、これがこのビデオから覚えておくべきポイントであり、私が強調し続けることです。つまり、ツールにアクセスできない博士号レベルの教育を受けた人間と同じくらいタスクを実行できるということです。
これはかなり驚くべきことですが、なぜそれほど驚くべきなのでしょうか?この理由がとても驚くべきなのは、OpenAIが基本的に博士号レベルのものに取り組んでいるからです。これは大学やその他の教育機関が授与する最高レベルの学位です。これは特定の研究分野や専門職における高度な専門知識を示します。
博士号には主に2つのタイプがあります。研究に焦点を当てた学術博士号と、実践に焦点を当てた専門職博士号です。学術博士号には哲学博士号(PhD)があり、これが最も一般的な学術博士号です。特定の分野での独創的な研究、新しい知識の創造に焦点を当てています。数年間のコースワーク、包括的な試験、そして独創的な研究に基づく論文の完成が含まれます。
もちろん、他の学術博士号もあります。教育学博士号、神学博士号、芸術学博士号などがあり、これらも研究を重視しますが、それぞれの分野内で特定の焦点を持つ場合があります。
博士号の真の定義を見ると、AIシステムがこれを行えるというのは本当に驚くべきことです。なぜなら、このような飛躍があるとは知らなかったからです。実際、人々が言っていたことで、このことを示唆していたにもかかわらず、見逃していたかもしれない初期の兆候がいくつかありました。
これがどれほど驚くべきことかを示す2つの主なクリップがあります。そして今、OpenAIの人々とMicrosoftの一部の人々が、GPT-5が博士号レベルになる可能性が高いと言っていたのは嘘ではなかったことが100%確実になりました。
このクリップでは、実際にMicrosoftのCTOであるKevin Scottが、GPT-5または彼らが呼ぶ予定のモデルを博士号レベルと見なしているのが分かります。基本的に、OpenAIが言ったことが実際にかなり真実であることを述べています。
これは実際、つい1週間ほど前に起こったことですが、初期の段階では懐疑的に受け止められました。なぜなら、人々は彼らを信用すべきかどうか本当に分からなかったからです。もちろん、OpenAIは過去に特定の製品について話していたものの、本質的にはリリースしなかったことで批判されてきました。
技術的には、システムに本当に耐久性のあるメモリを持たせるための全ての要素が整いつつあります。推論はかなり良くなると思います。現在のモデルの脆弱性、つまり非常に複雑な数学の問題を解けなかったり、非常に複雑なことを行うために他のシステムに頼らなければならなかったりする点は改善されるでしょう。
私なりの言い方をすれば、GPT-4やその世代のモデルを、APテストのような高校生レベルのタスクをこなせるものと考えるなら、新しいモデルで早期に見ているものは、博士課程の学生が資格試験に合格できるようなレベルかもしれません。
これは、OpenAIのCTOであるMira Muratiのもう一つのクリップです。彼女は基本的に、GPT-3は幼児レベル、GPT-4は賢い高校生レベル、そして1年半後にリリースされる次世代は博士号レベルになると述べています。
これもまた、初期の批判に遭いました。多くの人々がこれは単なる誇大宣伝だと推測していたからです。もちろん、OpenAIがまだ本当に画期的な製品をリリースしていないため、多くの人々はOpenAIが主張しているものを本当に実現できるのかどうか推測し始めています。
GPT-4よりもやや優れた他のモデルのリリースが最近あったことを考えると、これが真実になるかどうか推測しています。しかし今、私たちはOpenAIのCTOや他のメンバーが何かを言う時、もはや半信半疑に受け取る必要がないことを知っています。なぜなら、彼らがかなり的確だということが分かったからです。
これらのシステムは既に特定のタスクで人間レベルです。もちろん、多くのタスクではそうではありません。改善の軌跡を見ると、GPT-3のようなシステムは、言ってみれば幼児レベルの知能で、GPT-4のようなシステムはより賢い高校生レベルの知能です。そして、今後数年で特定のタスクに対して博士号レベルの知能を目指しています。物事は急速に変化し、改善しています。
つまり、1年後には?
そうですね、1年半くらいでしょうか。
このクリップは、博士号レベルについて言及しただけでなく、もちろんそれは経済的影響を考えると非常に注目に値します。そして、明らかにタイムラインも示されました。1年半後ということは、基本的に2025年後半にこのモデルを手に入れる可能性があるということです。
しかし、そのようなシステムがどのようにデプロイされるかを見るのは興味深いでしょう。博士号レベルの知能について話す時、私はこれがまず研究機関に制限されると思います。理由を説明しますが、少し話が逸れるかもしれません。しかし、聞いてください。おそらく私が言おうとしていることが起こるでしょう。
この記事を見てください。OpenAIがハリウッドの映画スタジオや監督との会合を持ったことが分かります。この
ニュースが重要な理由を簡単に説明しましょう。
Soraというテクノロジーがリリースされたことを覚えていますか?人々は「なんてクレイジーだ、なんてすごいんだ」と言っていました。しかし、私たちはSoraを手に入れていません。アクセスもありません。アクセスできるかどうかも分かりません。
なぜこれが重要なのでしょうか?もしGPT-5が博士号レベルだとすれば、それは非常に強力なシステムであることを意味し、OpenAIはこれを単に公開することはできないと考えるかもしれません。なぜなら、人々がそれを悪用してしまい、彼らが問題に巻き込まれる可能性があるからです。
Soraで行っていることと同様に、彼らはこれらのモデルを実際に使用し、大きな利益を得ることができる大企業クライアントに向かっているかもしれません。
基本的に、Soraで行っていることは、OpenAIがハリウッドのスタジオと会合を持ち、映画監督や映画スタジオと会話していることです。彼らは基本的に、「公開することはできません。なぜなら、第一に人々は私たちに怒るでしょうし、第二にシステムを悪用する可能性があるからです。しかし、私たちができることは、あなたたちにそれを提供することです。あなたたちはそれを使って映画を作ることができます」と言っています。彼らにとってはwin-winの状況だと思います。
私はGPT-5でも同じことが起こるかもしれないと思います。なぜなら、彼らは非常に極端な内部モデルを持っているかもしれず、それは非常に賢いので、研究機関や人道的な仕事をしている慈善団体にのみリリースできるかもしれないからです。
はい、これはリリースの種類としてはかなりクレイジーかもしれません。しかし、私はそれが問題外だとは思いません。
また、ここでも見られるように、OpenAIは段階的な展開のプロセスを通じて、業界と協力して働くという意図的な戦略を持っています。AIの進歩を段階的にロールアウトし、安全な実装を確保し、人々に何が見込まれるかのアイデアを与えるためです。私たちはアーティストやクリエイターとの継続的な対話を楽しみにしています。
Soraでそうしたように、これらの高度なモデルでも非常に似たことをすると予想します。段階的な展開は、まさにOpenAIが現在行っていることだからです。
これがとてもクレイジーな理由は、ここで「ツールにアクセスできない人のようだ」と言っているからです。博士号レベルの仕事を、ツールにアクセスせずに行えることを想像してください。これは見逃してしまうかもしれませんが、本当に重要なことです。
なぜなら、これは単にモデルが推論においてはるかに優れているだけでなく、潜在的には、以前にAndrew NGのようなデモやビデオで見たような一部のエージェントフレームワークや、現在のシステムで可能な境界を押し広げることに焦点を当てたものが、おそらくモデルに内部的に組み込まれているか、それらのエージェントワークフローがGPT-5にネイティブに組み込まれて、それらの機能をさらに押し進めている可能性があるからです。
これは本当に印象的で驚くべきことになるでしょう。なぜなら、物事がどれほどクレイジーになるかを見ようとしているからです。
記事はこう続きます。同じ会議で、会社のリーダーシップは、OpenAIがGPT-4 AIモデルを含む研究プロジェクトのデモを行いました。OpenAIはこれが人間のような推論に近づく新しいスキルを示していると考えています。これは議論に精通した人物の話で、報道機関に話す権限がないため匿名を求めました。
つまり、ここでもまた、GPT-4を含む何かが人間レベルの推論に近づいているということが示されています。もう一度言いますが、これに馴染みがない方のために説明すると、基本的にGPT-4をエージェントフレームワークで使用する方法があり、それは特定の方法で考え、特定の方法でタスクを実行するようにGPT-4に指示することを意味します。
例えば、GPT-4に応答を読み上げる前にステップバイステップで考えるように頼むと、通常は応答がかなり改善されます。ここで見られるのは、単にGPT-4を含む研究プロジェクトの内部デモがあり、それが人間のような推論に近づいているということです。一部の人々によると。
これが何なのか、何になり得るのかはわかりませんが、何であれ、OpenAIが再び従来のこれらのシステムで可能なことの型を破るようなことを成し遂げたことを示しています。だから、そこにあるものが実際に何なのか本当に気になります。QARなのかどうかはわかりません。QARだったら、おそらくただQARだと聞いていたでしょう。しかし、これは重要な何かだと思います。
もちろん、記事はこう続きます。OpenAIは長年、しばしば人工知能全般(AGI)と呼ばれるものの構築に取り組んでいると述べています。本質的に、ほとんどのタスクでほとんどの人々よりもより良い仕事ができるコンピューターです。そのようなシステムは現在存在せず、もちろん、AGIは今後10年以内に達成される可能性があると予想しています。これは基本的にSam Altmanの予測です。
さて、ここで動画の本題に入ります。この記事にはかなりの内容があり、それはかなり驚くべきことです。ここで彼らは、AGIに到達するための基準を決定する方法について、AI研究者たちが長年議論してきたと述べています。2023年11月の論文で、Google DeepMindの数人の研究者が、「エキスパート」や「超人的」などの段階を含む、AIの5つの上昇段階のフレームワークを提案しました。
このランキングは、自動車業界で自動運転車の自動化度合いを評価するためによく参照されるシステムに似ています。基本的に、これはGoogle DeepMindからの論文で、今からお見せしますが、「AGIのためのレベル:AGIへの道筋の進捗を運用化する」と呼ばれています。
基本的に、彼らが述べているのは、AGIはかなり混乱を招くものであり、AGIをどのように測定し始めることができるかをある程度マッピングする必要があるということです。なぜなら、一部の人々はGPT-4にAGIの兆しがあると考えていますが、もちろんそうではありません。一部の人々はそれが完全なAGIだと言うでしょうが、もちろんそうではありません。一部の人々はそれを「ベビーAGI」と呼びます。
全てのこれらの定義があり、人々は我々がどこにいるのかについての完全な定義を望んでいます。ここに表があります。これは基本的に、AIシステムがどれほど能力があるかを定量化し、ランク付けする方法です。ここに5つのレベルがあることがわかりますが、これらの5つのレベルは私が話しているレベルではありません。OpenAIが話しているのは、これらは基本的に最近OpenAIが行ったことと似ています。
レベル2は「有能」で、少なくとも50%の熟練した大人のレベル、「エキスパート」は少なくとも90%、「名人」は99%、そして「超人的」は100%の人間を上回るパフォーマンスを示すことがわかります。現在、私たちにはまだ「有能」なAGIがないことがわかります。これは残念ですが、最終的にはそこに到達するでしょう。
もちろん、「エキスパート」AGIが世界を変える可能性が高いことがわかります。「名人」AGIはかなりクレイジーで、人工超知能については、まだ議論する必要もありません。
ここで見ているのは、人工知能の5つの異なる段階です。これが重要な理由は、これがOpenAIの内部的な方法で、システムがどれほど能力があるかを評価しているからです。
ここでレベル1は会話言語を持つチャットボットで、誰もが注目しているレベルはもちろんレベル2で、人間レベルの問題解決能力を持つ「推論者」です。私はこれが人々が考えている以上に大きなことだと思います。なぜなら、AIシステムから人間レベルの問題解決能力を得ることは、現在のLLMの アーキテクチャのため、かなり難しいからです。これらのモデルは非常にナラティブで、次のトークンを予測するものです。そうすることで、特定のことについての実世界の理解を発展させません。
一部の人々は、これらのシステムは基本的に次の単語を予測しているだけで、確率的オウムにすぎないと主張します。これを支持する証拠も、反対する証拠もたくさんあります。しかし、もし我々がこれらのシステムを使って、木探索や他のエージェント機能を通じて人間レベルの問題解決能力を持つ「推論者」に到達できれば、これは大きな出来事になると思います。
なぜなら、これはモデルの信頼性を高め、より多くの異なる産業に適用できるようになるからです。つまり、このAIシステムの経済的影響と使用事例は、はるかに影響力のあるものになるでしょう。
ここで見られる他の段階には、行動を取ることができるエージェントシステムがあります。これは基本的に、ユーザーの代わりに何日も行動できる自律システムです。ここに見られるように。レベル4は新しいイノベーションを生み出せるAIを表し、最も高度なレベルは組織になるでしょう。
ここで実際に何が起こっているのかを見ると、これは段階的に開発されるシステムかもしれませんが、各レベルは前のレベルよりもさらにクレイジーになると思います。なぜなら、何もないところからチャットボットになるのはそれ自体かなりクレイジーです。一日中AIシステムと会話することは、驚くべき精度で簡単にできます。
そして、人間レベルの問題解決能力を持つ「推論者」に進むことは、非常に大きな影響を与えるでしょう。なぜなら、問題を解決することは、現在のAIシステムが苦戦していることだからです。つまり、これが博士号レベルの人間レベルの問題解決能力であれば、現在のシステムが苦戦しているすべての既存のベンチマークを事実上打ち砕く可能性が高いということです。
ここで何が起こるかを見るのはかなりクレイジーになるでしょう。なぜなら、他の企業が将来のシステムについてOpenAIのように話しているのを聞いたことがないからです。エージェントを見てみると、これは行動を取ることができる自律システムになるでしょう。最近の報告によると、これは約2年後に実現し、本質的に次のレベルにあるでしょう。
もし私を信じないなら、そのクリップを動画に追加しますので、ご覧ください。エージェントが世界で行動するためには、通常、一連の行動が必要です。チャットボットと話すと、それは単に答えるだけで、多少のフォローアップがあるかもしれません。しかし、エージェントの場合、多くの行動を取り、世界や人間との相互作用の結果を見て、さらに行動を取る必要があるかもしれません。
つまり、長い一連の行動を行う必要があり、その長い一連の行動が実際に機能するためには、個々の行動のエラー率がかなり低くなければなりません。例えば、私がロボットで、「よし、これを拾って向こうに歩いて行って、あれを拾う」とか、家を建てているとしたら、おそらく何千もの行動が必要です。
つまり、モデルはより信頼性が高くなる必要があります。なぜなら、個々のステップのエラー率が非常に低くなければならないからです。その一部はスケールから来ると思います。エージェントが本当に機能するには、さらに1世代か2世代のスケールが必要だと思います。
しかし、レベル4の「イノベーター」、つまり発明を支援できるAIは、絶対に信じられないほど素晴らしいものになるでしょう。なぜなら、発明を支援できるAIは、基本的にAI研究を支援できる可能性があるからです。そしてもしAIがAI研究を支援できれば、AI研究はかなり加速するでしょう。
そしてもしそれが起これば、AI研究を支援するAIがより良いAIを作り、そのAIがさらに多くのAI研究を行うというフィードバックループが、物事が非常にクレイジーになり始める場所になることを私たちは知っています。
最後のレベルである「組織」は、さらにクレイジーだと思います。なぜなら、組織は私が今のところ本当に理解できないものだからです。OpenAIが組織の仕事を行えるAIがレベル5の目標の一つだと言っているなら、確かに彼らは本質的にレベル2の寸前にいますが、レベル5はまだしばらく先だと思います。しかし、それが可能性であるという事実は、私たちが向かっている先が本当に新しい未来であり、物事が絶対に信じられないほどになることを示しています。
ここで、これらのレベルはOpenAIの幹部や他の上級リーダーによって作成されたと述べられています。これは進行中の作業と考えられており、従業員、投資家、取締役会を含む人々からフィードバックを集め、時間とともにレベルを調整していく予定です。
これについてどう思いますか?私たちがどのレベルにいると思いますか?この一部のものはしばらく来ないでしょうが、「しばらく」と言う時、AI業界での話だということを覚えておいてください。つまり、非常に能力の高いシステムが外部または内部にデプロイされるまでに1、2年しかかからないということです。
これらの企業での開発レベル、そしてもちろんここで起こっていることは、何であれクレイジーになると思います。
最後にもう一つ言いたいことがあります。なぜなら、ここで真実かもしれないと思うからです。ここで興味深いことの一つは、彼らが実際にこれがGPT-4の上に構築されたとは述べていないことです。確かに、おそらくGPT-5レベルのモデルとして構築されるでしょう。
ここで私が気づいた興味深いことの一つは、彼らがこれを「推論者」と呼んでいることです。これは、ツールにアクセスできない博士号レベルの教育を受けた人間と同じくらい基本的な問題解決タスクを行えるシステムを指します。
私の推測では、このモデルはGPT-4のようなものではないかもしれません。おそらくモデルの内部動作は非常に異なるものになるでしょう。そして、このモデルがどのようにスケールされ、デプロイされるのか気になります。なぜなら、彼らはそれを単にGPT-5レベルとして、つまり単にスケールアップした別のモデルとして話していなかったからです。
しかし、彼らは確かに問題について推論する方法に関して、このモデルを使用する異なる方法を探求していると思います。Sam Altmanが以前Bill Gatesとのインタビューで話していたことの一つは、GPT-4が答えを与えた時、時々その答えが良いかどうか分からないが、もしその答えを千個取って、上位3つを選べば、信頼性の面でずっと良くなるだろうということでした。
おそらく、将来のモデルで内部的に行われているのは、そのようなことかもしれません。唯一の問題は、OpenAIが研究を公開しないことです。たとえ「推論者」を手に入れたとしても、彼らがGPT-5をもはやチャットボットと呼んでいないことを考えると、私たちが手に入れるものの内部動作を本当に理解することはないでしょう。ただデモと結果を見ることになるでしょう。
コメント