
最近、あるペーストビンが出回っていますが、私は通常このようなペーストビンを取り上げません。なぜなら、通常は真実ではなく、多くのリークが飛び交っているとAI分野の開発にはあまり役立たないからです。しかし、今回は取り上げたいと思います。なぜなら、これらの変化が実際にどれほど重要なのかということについて、主流のAI意識ではあまり取り上げられていない主張がいくつかあるからです。
そこで、これらの主張のいくつかを見ていきたいと思います。なぜなら、AIが現在行っていることやこれから行う可能性のあることを実際に振り返ってみると、このペーストビン、つまり匿名でテキストを貼り付けることができるウェブサイトは、以前にも検証可能なリークがいくつかありましたが、今回のものは現実というよりも興味深いものだと思うからです。しかし、見ていく価値はあります。なぜなら、基本的にAIがビデオゲームを通じて超人的知能を獲得する方法について説明しているからです。
このドキュメントは、超人的知能がビデオゲームを通じて実現されると主張しています。これは実際に真実かもしれません。なぜなら、現在我々が本当に超人的知能を目にしているのは、ビデオゲームの設定を通じてだけだからです。
このドキュメントが主張していることの1つは、OpenAIが開発している超人的知能AIが、基本的に強化学習を使用するということです。強化学習とは、基本的にゲーム環境からフィードバックを受け取り、継続的にパフォーマンスを向上させるというものです。この反復プロセスにより、AIは戦略を超人的なレベルまで洗練させることができます。
基本的に起こっていることは、AIシステムが仮想的であり、仮想環境で訓練できるため、継続的なフィードバックを得ることができるということです。つまり、人間の場合、間違いを犯してからその間違いが正しいかどうかを理解するのに1、2日、あるいは1ヶ月かかることもありますが、AIは100万回の異なる間違いを100万回繰り返し、自分自身と100万回、何百万回もプレイすることができます。プレイを続けるにつれて、良い結果には報酬が与えられ、悪い結果には罰が与えられます。そうすることで、AIは正確に何をすべきかを知ることができ、シミュレーションの中で驚くべきことを見出すことができるのです。
強化学習については、以前にも使用されたことがあります。OpenAIでも以前に強化学習が使用されました。ご存じの方もいるかもしれませんが、OpenAIは実際に数年前にビデオゲームに関していくつかのことを行いました。数年前というのは、5〜6年前のことです。つまり、チャットGPT以前の時代で、純粋に研究に焦点を当てていた時期です。
基本的に、ここで見ることができるのはOpenAIとDota 2です。これは、彼らが強化学習を使用してビデオゲームでより良くなるようにモデルを訓練したゲームです。驚くべきことに、このビデオゲームエージェントSLは、世界チャンピオンレベルのプレイヤーを打ち負かし、破壊しました。これはかなり驚くべきことでした。
彼らがこれを行った時の最初の発見を見てみましょう。なぜなら、強化学習がいかに重要かを示しているからです。
「よくやった、人間たち。もう勝てないと思っているだろう。その通りだ。」彼らの開発チームは完全に粉砕されました。私の人生で最も速いキャスティングの仕事だったと思います。
そして、ゲーム2に入りました。人間たちは、ゲームについて考える時間があったにもかかわらず、さらに酷く粉砕されました。ボットは私が期待したとおりのことを行いました。彼らはマップのこの領域を支配し、マップの2/3を奪いました。彼らはこの2つの下部タワーには全く触れませんでした。これは100%正しい判断です。これはゲームで行える最高レベルのプレイの1つです。マップのこの側面はボットにとって非常に制御が難しいので、彼らは単にこの上部と中央部分をプレイしています。なぜなら、これらがゲームで制御すべき最も重要な2つの部分であることを理解しているからです。
この直感的な能力は驚異的です。1ゲームでこれを行うのは単なる運かもしれませんが、2ゲーム連続で行い、しかも陣営を入れ替えて行うということは、単なる偶然以上のものです。私は、ゲームにかなり精通していますが、ボットが直感的に行っていた戦略のいくつかを学ぶのに8年かかりました。
私にとって、これを定量化するのは非常に簡単でした。ボットが直感的に行っていた戦略を学ぶのに、私には約8年かかりました。」
ここで少し介入したいと思います。なぜなら、彼が今言ったことは、これがいかに重要かを示しているからです。彼は、ボットが行ったことを学ぶのに8年かかったと言いました。そしてそれが重要なポイントなのです。強化学習を使えば、何年もの知識を時には数時間に圧縮することができます。もちろん、大規模なクラスターや大規模な訓練システムを使用すれば、数日や数週間かかることもあります。しかし、重要なのは、シミュレーション環境で知識を学ぶのにかかる時間を圧縮できるということです。そして、AIシステムであるため、それを非常にうまく行うことができるのです。彼は、何が起こっているのかを理解するのに8年かかったと言っていましたが、これらのボットはすでに正確に何が起こっているのかを直感的に理解しているのです。
「ボットを訓練するために、我々は自己対戦による強化学習を使用しました。ゲームを10万以上のCPU上で実行し、ボットは彼らがプレイする全てのゲームから学習します。Dotaは1人のプレイヤーにとっても非常に複雑なので、我々はチームスピリットと呼ぶハイパーパラメータを作成しました。5つのボットは完全に利己的な状態から始まりますが、このノブを調整することで、チームメイトを気遣うようになり、1つのユニットとして一緒にプレイすることを学ぶことができます。」
Dota 2は、OpenAIが強化学習を使用した唯一のゲームではありません。当時、インターネットを驚かせたものがあります。現在では1000万回以上再生されていますが、これはマルチエージェントの隠れんぼです。これは、強化学習を使用した別の方法でした。基本的に、彼らが行いたかったのは、2チームのAIボットを取り、赤い小さな人形の探す側のAIと、青い小さな人形の隠れる側のAIを用意することでした。彼らは基本的に、ここに示されているシミュレーション環境で何百万回ものゲームを行い、いくつかの非常に興味深い発見をしました。見てみましょう。
「地球上では、自然選択と競争の単純なルールが、ますます知的な生命体の進化につながりました。今日、我々は、同様に単純なルールとマルチエージェントの競争が、新しい仮想世界でも知的な行動につながるかどうかを問いかけています。
これらのエージェントは隠れんぼをしています。これらのエージェントは学習を始めたばかりですが、すでに追いかけることと逃げることを学んでいます。これは、逃げることしか学んでいない隠れる側にとっては厳しい世界です。
しかし、何百万回もの隠れんぼの訓練を経て、隠れる側は解決策を見つけます。隠れる側は、基本的な道具を自分たちに有利に使うことを学びます。これらのブロックを掴んでロックすることで、彼らは自分たちの隠れ家を作ることができます。
探す側は、ゲームの開始時に短い時間、その場所にロックされます。これにより、隠れる側に準備の時間が与えられます。それでも、隠れる側は協力することを学ばなければなりません。個々では不可能なタスクを達成するのです。
道具を使うことを学べるのは、隠れる側だけではありません。何世代にもわたって隠れ家に侵入できなかった後、探す側はランプを使って障害物を飛び越えることを学びます。
しかし、何百万回も隠れ家を破られた後、隠れる側は探す側が持つ主要な道具を奪うことを学びます。
注目すべきは、我々はこれらの行動のどれも明示的に奨励していないということです。各チームが新しいスキルを学ぶにつれて、それは暗黙のうちに他のチームが直面する挑戦を変え、適応するための新しい圧力を生み出します。
我々はまた、これらのエージェントをより自由度の高い環境に置きました。オブジェクト、チームサイズ、壁をランダム化しています。この世界では、彼らはゼロから自分たちの隠れ家を構築することを学びます。これには、探す側がランプを使用できないように、複数のオブジェクトを正確な構造に配置することが必要です。隠れる側は、ランプをプレイエリアの端に移動し、その場所にロックします。」
そして、ここからが本当に興味深くなります。何百万回も訓練した後、これらのAIエージェントは、複雑な問題を解決するために非常にユニークで革新的な方法を見つけ出すことができました。これについて驚くべきことは、Xを行うようにとか、Yを行うようにとか明示的に訓練しているわけではなく、好きなことをしろと言っているだけだということです。そして、あなたの報酬関数やポイントが何であれ、重要なのは、特定の結果のために訓練しているのではなく、基本的に探す側に見つからないように訓練しているだけで、それを様々な方法で行うことができるということです。
「我々は当初、これがエージェントが学ぶ最終的な戦略だと信じていました。しかし、さらに訓練を重ねた後、探す側は箱の上にジャンプしてそれらにサーフィンし、隠れる側の隠れ家まで到達できることを発見しました。
我々が観察した最後の段階の出現戦略では、隠れる側は要塞を構築する前に、できるだけ多くの箱をロックすることを学びました。これは、箱サーフィンから身を守るためです。
では、エージェントはどのようにしてこれらのスキルを獲得するのでしょうか?彼らは、地球上の動物の学習方法にヒントを得た強化学習アルゴリズムを使って訓練されています。エージェントは何千ラウンドもの隠れんぼを並行して何日も行います。彼らは互いに、そして過去の自分自身のバージョンに対して訓練を行います。これには自己対戦と呼ばれるアルゴリズムを使用しています。
地球上では、共進化と競争が、現在知られている唯一の一般的に知的な種である人間を生み出しました。この世界は地球よりもはるかに単純ですが、我々は単純なルールがマルチエージェントの相互作用から、ますます知的な行動につながる証拠を見出しました。我々は、はるかに大規模で多様な環境で、真に複雑で知的なエージェントが…」
基本的に、ここでは、地球上で何百万年、何十億年にわたって起こっていることを正確にシミュレートし、システムを進化させることができたということについて話しています。これが人々が注目している理由だと思います。なぜなら、これらの突発的な能力が突然現れ、革新的な能力が生まれるという事実、そしてアルファ碁のような例で、システムが何百万回もプレイしたことで、我々がこれまで見たことのない新しい知識を発見できるという事実があるからです。例えば、アルファ碁の37手目の動きは、単に人間の対局データから学んだものではなく、非常に可能性の低い手として識別され、その後の探索プロセスを経て実際には非常に良い手だと理解されたものでした。
これは、現実世界の問題に応用できる可能性があるため、非常に興味深いのです。Dr. Jim Fanは、DeepMindのSEMAについて言及しています。SEMAは7つのゲームと4つの3Dシミュレーションをピクセルを読み取り、キーボード/マウス制御を生成してプレイするエージェントです。これは2016年のOpenAI Universeの当初の約束であり、当時は時代を先取りしすぎていましたが、8年後の今、現代的なHorizonスタックで実現されています。
基本的に、これはDeepMindのSEMAです。これは、10秒間しかプレイできないAIエージェントゲームです。何時間も続けてプレイすることはできません。データパイプラインはあまりスケーラブルではありません。エージェントが自律的に探索し、新しい活動に従事する方法が必要です。多くのことはできませんが、キーボードとマウスでプレイできるという点では、ある意味で breakthrough です。
この文書にこれを追加した理由は、ビデオゲームで学んだスキルと戦略を他の領域に一般化することについて言及しているからです。例えば、ゲームで必要な戦略的思考と計画は、数学、科学、複雑な現実世界の問題解決などの分野に応用できるとしています。ビデオゲームから直接数学の方程式を解くことへの飛躍は大きいかもしれませんが、これらのスキルを一般化する概念はあり、ある程度真実です。
Google DeepMindのSEMAに関する記述を見ると、「SEMAをより多くのトレーニング世界に晒すほど、より一般化可能で多用途になると期待しています」とあります。つまり、多くの異なるビデオゲーム環境で動作するエージェントを開発できれば、それをロボティクスや地球環境で使用できないという理由はありません。
さらに、「より高度なモデルで、SEMAの理解力と高レベルの言語指示に基づいてより複雑な目標を達成する能力を向上させたいと考えています」とも述べています。ここから、より高度なモデルを使用して、より深い理解と高レベルの言語指示に基づいて行動し、多くの異なるサブアクションを実行できるようにすることは、全く突飛な考えではないことがわかります。
「様々なゲーム設定で指示に従うことを学ぶことで、あらゆる環境でより役立つAIエージェントを実現できる可能性があります」と述べています。これは現在取り組まれている課題です。現在のAIシステムの生成的な性質により、AIエージェントは多くの異なる環境で十分に機能しません。しかし、ここで重要なのは、ビデオゲームでこれらのAIエージェントを機能させることができれば、おそらくあらゆる環境で機能させることができるということです。
「我々の研究は、高度なAIモデルの能力を言語インターフェースを通じて有用な実世界のアクションに変換する方法を示しています。SEMAや他のエージェント研究が、AIシステムがより有用になる可能性を理解するためのサンドボックスとしてビデオゲームを使用できることを望んでいます」とあります。これは明らかにGoogleが取り組んでいることです。
さらに、スキルの一般化についても言及されています。驚くべきことに、DeepMindのSEMAは、特定のタスクのために明示的に訓練されたモデルよりも優れた一般化を示しています。例えば、「我々の評価では、ポートフォリオの9つの3Dゲームセットで訓練されたSEMAエージェントが、各個別ゲームで訓練された全ての専門エージェントを大幅に上回りました」と述べています。これは非常に驚くべきことです。なぜなら、それらのエージェントはそのゲーム専用に訓練されているにもかかわらず、SEMAがそれらを上回ったからです。
さらに、「1つのゲームを除く全てのゲームで訓練されたエージェントが、その未見のゲームでもほぼ同等の性能を発揮した」とも述べています。つまり、そのゲームで訓練されていないにもかかわらず、訓練されたものよりも優れた性能を発揮したのです。これは非常に驚くべきことです。基本的に、ここで言っているのは、SEMAが全く新しい環境で機能し、訓練を超えて一般化する能力を持っているということです。これは、ロボティクスが成功するための重要な要素です。
自動運転やロボティクスが本当に苦労している理由の1つは、訓練データを超えて一般化できないからです。環境がマッピングされていれば問題ありませんが、より多くの訓練データが必要な理由は、ロボットが100万もの異なる場面を見たときに、何が起こっているのかを理解できず、タスクに苦戦するからです。訓練環境を超えて一般化でき、全く新しい環境で機能できるロボットを開発できれば、それは現代のロボットが苦戦している課題を解決することになります。
例えば、私があなたにこのカップを机の上に置くように頼んだとしたら、あなたはどんな環境でも簡単にそれを行うことができます。砂漠にいても、無人島にいても、「このカップを机の上に置いてください」と言えば、あなたは絶対にそれを行うことができます。しかし、ロボットの場合、環境を変えたり、側面を変えたりすると、特定のものを識別するのに苦労し始めます。そのような課題を解決できるAIエージェントを開発できれば、それは重要な研究の一部となるでしょう。
もう1つ触れておきたい興味深いことは、ここに戻ると、基本的にビデオゲームを通じた超人的知能について言及されており、より多くの研究を始めるほど、それが完全に不可能ではないと思うようになります。もしそれらの方法を転用すれば…
最近、超知能がそれほど遠くないという情報が得られました。これは投資を引き付けるためのハイプかもしれませんが、そうは思いません。これはear sat(イリヤ・サツキーヴィチ)の会社からの情報です。彼は最近、Superalignment Inc.という会社を立ち上げました。人々が見逃している最大のことは、彼らの声明が「超知能は手の届くところにある」というものだということです。これは、外部的にはまだAGI(汎用人工知能)を達成していないと言われている状況を考えると、非常に大胆な声明です。
OpenAIが内部的にAGIを達成したかどうかはわかりませんが、主要な研究者の1人が超知能は手の届くところにあると述べていることは、私たちが思っているよりもはるかに進んでいる可能性があることを示しています。これが重要なのは、彼がOpenAIでスーパーアラインメントに取り組んでいたからです。明らかに、超知能がそれほど遠くないと彼に信じさせるような何かに取り組んでいたのでしょう。
ここにあるのは、Leopold Aschenbrennerのドキュメント「Situational Awareness」からのグラフです。ここで彼は、自動化されたAI研究が約3〜4年で可能になると述べています。3〜4年というのはそれほど長い時間ではありません。あなたの過去3年間の人生を振り返ってみてください。いくつかのことは変わったかもしれませんが、経済や世界が3〜5年でこのような大きな変革期を迎えるというのは、記念碑的なことだと思います。
もちろん、技術を普及させるには時間がかかるかもしれません。たとえブレークスルーが起きたとしても、テスト、製造、その他のことを行う必要があります。計算能力の構築、エネルギー貯蔵など、超知能に到達するために必要なあらゆることを確実に行う必要があります。重要なのは、もはやこれがSFの比喩ではなく、過去の進歩を考えると、おそらく現実になる可能性があるということです。
繰り返しになりますが、Leopold Aschenbrennerは、OpenAIでスーパーアラインメントに取り組んでいた人物です。つまり、彼は超知能のアラインメントに取り組んでいた人物であり、おそらく超知能に関する最も知識のある人物の一人です。したがって、このグラフはランダムなブロガーのランダムなブログ投稿からのものではありません。
このグラフは、おそらく将来、最も注目すべきグラフの一つになるでしょう。なぜなら、2030年にどこにいるかを見れば、構築可能なシステムの種類は非常に驚異的なものになるからです。これはOpenAIだけでなく、自国のフロンティアモデルを開発しようとしている任意の発展途上国にも当てはまります。
このドキュメントが深く掘り下げているもう一つのことで、私が取り上げたいのは、モンテカルロ木探索評価です。モンテカルロ木探索は非常に人気のある木探索方法で、戦略を評価し、シミュレーションに基づいて最適なものを選択します。そして、可能なゲームの状態とアクションを表す探索木を使用し、最適な戦略を決定するためのシミュレーションを実行します。
基本的に、人間がこれを行う場合、シナリオについて考え、可能な全てのシナリオについて考え、それらのシナリオを実行できるシミュレーションを実行しようとします。そのシナリオの結果を見た後、「OK、これは行わないことにしよう。最適なものを選ぼう」と考えます。これが簡単な言葉で説明すると、どのように機能するかということです。
そして、これが非常によく機能する理由は、アルファ碁でこれを使用したからです。ここでは、「訓練されたネットワークは、モンテカルロ木探索(MCTS)として知られる探索アルゴリズムを導くために使用され、ゲームで最も有望な手を選択します。各手において、AlphaZeroは従来のチェスエンジンが考慮する位置の小さな部分しか探索しません。チェスの場合、1秒あたり約60,000の位置しか探索しません。これに対し、Stockfishは約6000万の位置を探索します」と述べられています。そしてそれでもStockfishを打ち負かしました。
ここで驚くべきことは、わずか1万回の手しか探索していないシステムがあり、それでもはるかに優れた性能を発揮しているということです。これは、探索アーキテクチャが高度なAIシステムにとって非常に重要であることを意味します。これは人間が自動的に行うことです。チェスのような決断を下す前に、通常は異なる結果について考えます。100や50の異なる結果について考え、そしてそれらの結果とその結果の結果を考慮した上で、自分がどのような立場になるかを考えます。そうすることで、非常に良い把握ができます。
人間の脳が素晴らしいと言われる理由は、人間が数百回の手だけで機能する探索プログラムを持っているからです。しかし、現在のAIシステムでは、正しい決定を下すために非常に多くの手を探索しなければなりません。これは非常に驚くべきことです。
これは単なる理論ではありません。先ほど述べたように、これはアルファ碁で実際に起こったことです。これについては明確に言及されており、以前にも引用したことがありますが、次のようなクリップがあります:
「これらの基礎モデルは一種の世界モデルであり、本当に創造的な問題解決を行うためには、探索を始める必要があります。アルファ碁の有名な37手目の動きについて考えてみましょう。それはどこから来たのでしょうか?人間の対局データから学んだものでしょうか?違います。それは、ある手が非常に可能性が低いが可能であると識別し、探索のプロセスを通じてそれが実際に非常に良い手であることを理解したことから生まれました。
真の創造性を得るには、可能性の空間を探索し、これらの隠れた宝石を見つける必要があります。それが創造性なのです。現在の言語モデルは、そのような種類のことを本当には行っていません。彼らは本当にデータを模倣しているだけです。インターネットから来た、元々は人間から派生したすべてのこのデータからの人間の独創性をすべて模倣しているのです。
本当にそれを超えて、単に新しい方法で一般化するだけでなく、システムが欲しいのであれば – これらのモデルは物事をブレンドすることができます。ハリー・ポッターをカニエ・ウェストのラップのスタイルで書くことができます。それは今まで起こったことがなくても、物事をブレンドすることができます。しかし、既存のものの単なるブレンドではない、真に創造的なことを行うには、可能性の空間を探索し、そこにどこかに隠されている宝石を見つける必要があります。そしてそれには探索が必要です。
したがって、プロセスに強力な探索がない限り、訓練データを本当に超えるシステムは見られないと思います。」
これは、Shane Legg(シェーン・レッグ)の発言です。彼は2027年までにAGIが実現すると述べており、Google DeepMindの共同創設者兼チーフAGIサイエンティストです。これらのトピックについて議論する際、彼の意見は非常に重要です。
ここで重要なのは、これが本当に効果的な方法になることを示す状況があるということです。Sammanも実際にこれについて言及しています。GPT-4でモデルに多くの異なることを探索させると、より多くの、より良い応答が得られるということです。
もう一つ興味深いことで、この探索に関連することがあります。それはNeuro-symbolic AI(ニューロシンボリックAI)です。基本的に、Neuro-symbolic AIは、ニューラルネットワークとシンボリック推論を組み合わせるプロセスで、AIが抽象的な概念と論理を効果的に扱えるようにします。ゲーム体験は、これらの高度な認知能力の開発に役立ちます。
基本的に、Neuro-symbolic AIは、AIにこれまでなかったシステムの一部を与え、人間が完全であるのと同じように、システムを完成させるということです。
ニューラルネットワークの部分、つまりニューロの部分は、基本的にロボットの脳で、例から学習します。これは、多くの猫の写真を見ることで猫がどのように見えるかを学ぶ子供のようなものです。この部分は、パターンを認識し、何度も見たものを理解するのが得意です。
シンボリックな部分は、ロボットのルールライブラリが機能する場所です。これは、ロボットにゲームの遊び方を段階的にルールに従って教えるようなものです。この部分は、論理的に考え、明確な指示に従うのが得意です。
これらを組み合わせると、本当に効果的なAIシステムが得られます。多くの人々が、ニューロシンボリックAIなしではAGIに到達することはないと言っています。基本的に、ニューラルネットワークの力とシンボリックAIの論理的思考を組み合わせることで、真に高度なシステムが得られるのです。
これはアルファ碁で見られたものです。アルファ碁は主にニューラルネットワーク技術に基づいていましたが、シンボリックAIの一部と考えられる要素も取り入れていました。
アルファ碁やニューロシンボリックAIに関するこの全体的なことで興味深いのは、これが唯一のものではないということです。モンテカルロ木探索のシンボリック要素、つまり何百万もの異なる可能性を探索することは、最近実際に行われました。
基本的に、Francois Cholet(フランソワ・ショレ)は最近、ARC AGIテストについて言及しました。これは基本的に、LLM(大規模言語モデル)がそれを行えない場合、まだAGIではなく、まだ賢くないというテストです。このテストは、AIが実際にどれだけ推論できるかをテストしようとしています。なぜなら、テストで行っていることは、訓練データにはほとんど存在しないからです。
基本的に、Francois Choletは、誰かが実際にLLMを離散探索と組み合わせて使用し、彼のテストを完了したというツイートに応答しています。彼らは50%を達成しました。50%は良くないと思うかもしれませんが、重要なのは、以前は人々がこれは決して達成されないだろうと言っていたことです。そして80%が実際のAGIシステムだと主張されていました。
彼は言います:「これまでのところ、最も有望なアプローチの分岐です。LLMを利用して離散プログラム探索を支援し、LLMをプログラムや分岐決定をサンプリングする方法として使用しています。これは正確にニューロシンボリックAIが行うことです。」
そして、ここで彼は述べています:「ちなみに、アルファ碁もニューロシンボリックでした。」
基本的に、ここでのポイントは、これらのAIシステム、これらのLLMに多くのことを行わせることは本当に意味がありませんが、これらのAIシステムをコードインタープリターや木探索のようなものと組み合わせることで、本当に信じられないほどのシステムを得ることができるということです。
Sam Altman(サム・アルトマン)も簡単にこれについて言及しましたが、異なる方法で考えるAIシステムが必要だということを示唆しました。これは非常に興味深いので、ここに含めたいと思います。もちろん、これはQARのことをカバーしています。
「質問:GPTが何をできて何ができないかについて、あなたの直感を聞きたいと思います。各トークンを生成するために約同じ量の計算を割り当てていますが、より遅い思考、連続的な思考のためのスペースはありますか?」
「私は、その種の思考のための新しいパラダイムがあると思います。それはLLMで現在見ているものと建築的に似ているでしょうか?それともLLMの上に層を重ねたものでしょうか?」
「それを実装する方法は多くあると想像できます。私が思うに、あなたが提起している質問の方が重要です。つまり、より難しい問題についてより時間をかけて考え、より簡単な問題についてはより速く答えることができるAIが必要ではないかということです。精神的に言えば、AIがより難しい問題についてより一生懸命考え、より簡単な問題についてはより速く答えることができるようにしたいと言えるでしょう。そして、私はそれが重要になると思います。」
「それは人間のような研究のようなものですか?」
「我々は長い間、これらのシステムでのより良い推論が我々が追求したい重要な方向性だと言ってきました。まだコードを解読していませんが、非常に興味を持っています。」
これら全てについて興味深いのは、著名なAI懐疑論者であるGary Marcus(ゲイリー・マーカス)でさえ、この用語に同意していることです。Gary Marcusについて言及している理由は、基本的に今年人気があったものの多くがAIに関するものであり、彼は現在のAIパラダイム、つまりLLMとTransformersの大きな批評家だったからです。彼は基本的に、ニューロシンボリックAIが必要だと言っています。
私は実際にGary Marcusが好きです。なぜなら、私はいつも「全ての人が同じ方向で考えているなら、誰も本当に考えていない」と言っているからです。そして、時々彼はAIに対して批判的すぎることがありますが、このような意見は重要だと思います。なぜなら、「待てよ、この人は実際に正しいかもしれない。そして、彼は単なる批評家ではなく、モデルの明確な限界を示唆しているのかもしれない」と考え始めるからです。そして、彼が述べていることに実際に耳を傾け、その領域で作業すれば、実際にAGIを得られるかもしれません。彼がここで述べていることは重要だと思います。彼は、ニューロシンボリックAIが確実に必要だと述べています。
「可能であれば3つの最後の点を挙げたいと思います。まず、スケーリングだけでは十分ではありません。このスライドを数年前に書きましたが、今でも真実です。言葉を変えていません。現在のディープラーニングは、膨大なデータと巨大なモデルを与えても、推論と事実性に苦戦しています。
古典的なAIも答えではありません。純粋なシンボリックAIがこれらすべてを解決すると期待しているわけではありません。十分な速さで知識を生成する方法がわからないなど、多くの問題があります。
我々は、オンライン学習と抽象化を組み合わせる必要があります。ニューロシンボリックアプローチが、ここで最も有望だと思います。この部屋に50人いるべきではありません。5000人いるべきです。現在、大規模言語モデルに費やされているリソースの10分の1でもニューロシンボリックAIに費やされていたら、世界は完全に変わるでしょう。
しかし、ニューロシンボリックAIの進歩だけでは十分ではありません。なぜなら、知能は多面的であり、ワンサイズフィットオールの解決策を期待すべきではないからです。だからこそ、あなたが冗談で言及した3年間の問題に戻りますが、これらすべてを次の数年で解決することはできません。多くの側面があります。
また、一部は機械可読な形式での大規模な知識も必要です。」
はい、そう言って、このダイアグラムを見てください。このダイアグラムは言語と読解に関しては不正確です。なぜなら、言語が対応する脳の多くの異なる部分があるからです。しかし、ここでのポイントは、人間の脳を表現しようとしているということです。人間の脳が完全に知的であるとは限りませんが、ポイントは、LLMは人間の知能のごく一部分に過ぎず、ニューロシンボリックAIの観点からパイプラインにはさらに多くのものが必要だということです。
以上で、この動画の内容は終わりです。次回の動画でお会いしましょう。
コメント