
13,866 文字

まず最初の注目すべきAIニュースは、Stargateプロジェクトについてです。これはAI業界の外でも大きな話題となっています。Stargateは、AGI(人工超知能)のためのプロジェクトで、その注目を集めている理由は投資規模の大きさにあります。
OpenAIのAIインフラ構築のために、今後4年間で5000億ドルが投資されることになりました。最も驚くべき点は、この5000億ドルがOpenAIの米国内のインフラだけに使用されるということです。サム・アルトマンとOpenAIがどのようにしてこれを実現したのかは分かりませんが、政府と5000億ドルのAIインフラ整備で合意したのは驚くべきことです。
他の企業は怒っているとは言いませんが、OpenAIがかなりの力を持っていることを実感しているでしょう。5000億ドルという投資額は、GDPの割合で見るとマンハッタン計画と同規模です。個人的にはオッペンハイマー映画を非常に楽しんだので、これは非常に興味深いと感じています。
これは私たちの時代を象徴するプロジェクトとなるでしょう。米国が今後4年間で構築するもので、AI懐疑派にとっても、5000億ドルもの投資が私たちの生活を変えない技術に投資されることはないということを示しています。
年間1250億ドル、つまり4年間で5000億ドルのAIインフラへの投資は想像を絶する規模です。この規模の投資により、コンピューティング能力は途方もないものとなり、ほとんどの人には想像できないレベルになるでしょう。OpenAIは最近の資金調達で数十億ドルを調達しましたが、年間1250億ドルという規模は、データセンターの拡張を含めて、驚異的な規模となります。
この投資により、2030年までに世界は全く異なる場所になることが確実視されます。多くの場合、これらの研究所が行いたい実験や研究は、単純にコンピューティング能力が不足しているために制限されています。これはインフラへの投資不足によるものでもあります。
AIテクノロジーは急速に進歩していますが、データセンターの構築にはより多くの時間がかかるため、私たちはそこで追いつこうとしているところです。
イーロン・マスクはこのStargateプロジェクトについてコメントし、「実際にはそのお金を持っていない」と述べました。「ソフトバンクは100億ドル未満しか確保していない。これは確かな情報だ」と彼は言いました。
これに対してサム・アルトマンは「それは違う。あなたもご存知の通り、最初のサイトに来て見ることができます。これは国にとって素晴らしいことです。国にとって良いことが、必ずしもあなたの会社にとって最適とは限りませんが、新しい役割の中で、主にアメリカを第一に考えていただければと思います」と返答しました。
もちろん、サム・アルトマンとイーロン・マスクは現在対立関係にあります。イーロン・マスクはサム・アルトマンを訴えています。この経緯をご存じない方のために説明すると、イーロン・マスクは当初OpenAIを設立し、オープンソースの企業として運営することを意図していました。彼の主張によると、サム・アルトマンは基本的に会社を乗っ取り、営利企業に転換させ、その結果として彼自身が複数の億万長者になろうとしているとのことです。
イーロン・マスクは「それは私が会社を設立した理由とは全く異なる」と主張しています。また、イーロン・マスクはAIの面で少し遅れを取っているようで、彼らが追いつくことができるかどうかは興味深いところです。
もちろん、これは実際の資金に関するツイートですが、私はOpenAIがその投資を獲得すると考えています。アメリカの軍事予算がどれくらいか正確には知りませんが、途方もない額であることは確かです。アメリカは軍事予算に莫大な金額を費やすことで知られていますが、人工超知能が恐らく最も強力な軍事ツールとなることを考えると、人工知能にあらゆる資金を投入することは理にかなっています。
そのため、この5000億ドルの投資は実現すると考えており、表に出ていない部分ではさらに多くの投資が行われている可能性もあります。政府の秘密施設なども必要になるでしょう。5000億ドルという額は途方もないものに見えますが、これは国の未来を確保するためのものです。
個人的には、これは十分に理にかなっていると思います。今後10年間は非常に興味深い展開が待っているでしょう。もちろん、それらはすべてこのチャンネルで記録されていくことになります。
次に、AI業界で起きたもう一つの出来事について取り上げたいと思います。これは私にとってはそれほど驚くものではありませんでしたが、Anthropicが音楽レコード所有者を代表するドイツの組織GEMAから訴えられました。私が気になっているのは、生成AI企業が、トレーニングデータに含まれる作品を再現できる人々に多額の料金を支払わなければならなくなるのではないかということです。
生成AIシステムの仕組みについてご存じない方のために説明すると、多くの場合、これらのシステムは大量のデータでトレーニングされます。そのデータの中には、明示的な許可を得ていない公開データが含まれています。そのため、時にはグレーゾーンで、単にコンテンツをダウンロードしてAIモデルをトレーニングすることがあります。
その結果、トレーニングデータに非常に似たコンテンツを生成できることがあります。例えば、誰かが作った曲に非常によく似た曲を作ることができます。これはMidjourneyでも起きたことで、アーティストが作成した画像を、特定のプロンプトを使用することで再現できました。
私はこのことについて以前の動画で話しましたが、これらの決定の結果は本当にAIの未来を形作ることになると思います。正直なところ、私はこの件について50-50の立場です。一方では、これらのツールは業界全体にとって本当に有用なので、利用可能であってほしいと思います。しかし同時に、作品が盗用され、それに似たものを作られてしまうクリエイターたちのことも気の毒に感じます。
これらの法廷がどのように判断するのか、非常に興味深いと思います。なぜなら、基本的には盗用をしているのですが、同時に直接的にそのコンテンツを再現しているわけではなく、何か似たようなものを作っているだけだからです。
次は今日のスポンサーについてですが…
(スポンサーセグメントはスキップします)
また、OpenAIが彼らのオペレーターエージェントをリリースしました。これは研究プレビューで、残念ながらOpenAIの最も高額な月額200ドルのプランでのみ利用可能です。このAIオペレーターエージェントは、自身のブラウザを使用してタスクを実行することができます。
これは少し調査を行ったり、花を注文したりすることができます。デモでは、誰かが食料品の買い物をしたり、花に関する非常に具体的な情報を見つけたりする様子が紹介されました。これは、システムをより自律的にするために重要なものだと思います。
今後数ヶ月で急速に変化すると思いますが、セキュリティの問題などをどのように解決するのかは分かりません。これは基本的にインターネット理論のようなもので、何百万ものAIエージェントがウェブ上を走り回ることになります。
しかし、ここで本当に重要なのは、機能し、信頼性のあるものを持つことです。このAIエージェントは時々名前を忘れたり、間違った人にお金を送ってしまったり、特定のループに陥ってしまうことがあると彼らは話しています。
もちろん、これまでのAIシステムの軌跡を見ると、2年後にはこれは非常に初歩的なものに見えるでしょう。異なるスケーリング法則があるかもしれませんが、AIエージェントのスケーリング法則がどのようなものになるのかは、私もまだよく分かっていません。
Google AI StudioのリードであるLogan Kilpatrickのツイートによると、マルチエージェントがこれに関係してくるとのことですが、それについて話し合っているのを見たことがありません。これらの問題をどのようにスケールアップしていくのか知りたいと思います。
現実的には人間よりも優れていれば良いだけなので、大きな問題にはならないと思いますが、企業が実際にこれらのAIエージェントを使用したい場合、信頼性は重要な要素となります。
潜在的に破滅的な何かをする可能性が3-5%あると分かっているAIエージェントを誰も使いたがらないでしょう。例えば、メールを送信したり、リンクをクリックしてウイルスをダウンロードしたりする可能性があるとしたら。私自身、そのようなリスクを冒したくありません。
すべての動きを監視しなければならないとすれば、それは本来の目的を損なうことになります。なぜなら、それは私よりも遅く、私ができることができないからです。ただし、障害を持つ人にとっては、これらのデバイスにアクセスし、通常はできないことを可能にするツールとなる可能性があります。これは、これらのテクノロジーを使用する大多数の人々が忘れがちなことです。
次に、UIARと呼ばれるものの論文/動画を見てみましょう。これは、人間のようにコンピュータ画面と対話するように設計された次世代のソフトウェアエージェントです。多くの特定の指示を必要とする他のシステムとは異なり、UIARはスクリーンショットだけを使用して何をすべきかを理解します。
これは適応性と自律性を持つように構築されており、非常に効果的です。GUIを分析するのが得意で、ボタン、フィールド、メニューなどの要素をスクリーンショットから直接理解し、高い精度で処理することができます。これは特定のウェブサイトにとって非常に重要です。
基本的に、ドラッグ、クロール、クリックなどのアクションを、デスクトップ、モバイル、ウェブなどのプラットフォーム全体で統一されたシステムに簡略化します。素早い反射的な決定(システム1思考と呼ばれる)と、より遅い段階的な計画(システム2思考)を組み合わせており、簡単なタスクと複雑な多段階のワークフローの両方を処理するのに優れています。
このシステムは何が間違っているかを見て、時間とともに自己改善することができます。反復学習と呼ばれるプロセスを使用し、過去のエラーを学習して繰り返しを避けます。
このシステムは、推論やタスク実行をテストするベンチマークでCLaudeやGPT-4のような人気のAIシステムを上回る性能を示しています。特に、アプリの操作、ウェブサイトとの対話、複雑なコンピュータ環境の処理など、リアルタイムの適応性を必要とするタスクで強みを発揮します。
このタイプのソフトウェアは、多くの反復的なタスクを自動化し、多くの人々の時間と労力を節約する可能性があります。例えば、フライトの予約、ファイルの整理、複雑なソフトウェアの操作、追加の調査など、コンピュータ上の退屈なタスクを実行するAIがあることを想像してください。これは真に自律的なものになるでしょう。
基本的に、UIARのベースとなるLLMは、高度なビジョンモデルシリーズの一部であるQwen-2VLです。論文によると、7Bモデルと72Bモデルで構築されており、これらのすべてを効果的に処理する高性能なマルチモーダルモデルを活用しています。
また、これはオープンソースで、ByteDanceのリポジトリでホストされています。先ほど話したように、OpenAIがオペレーターエージェントをリリースしたことを考えると、多くの企業が非常に似たツールをリリースしオープンソースツールがクローズドソースに追いついてきているため、価格は急速に低下していると考えられます。これは開発者が望むようにツールを実験できるため、私のような新しい製品を使うことが好きな個人、そして一般の人々がシンプルで簡単な方法でAIを利用できるようになるため、誰にとっても良いことだと思います。
AIエージェントについて話すと、これはOpenAIの次のロードマップに含まれるかもしれません。サム・アルトマンは、複数のステップを含むコーディングの問題を処理する強力な新製品を通じて、ソフトウェアエンジニアリングを自動化することを目標としていると話しています。経験豊富なプログラマーの作業を再現することを目指しているそうです。このような製品は一般的にエージェントとして知られており、アルトマンは最近、これが労働力に加わる可能性があると述べています。
OpenAIはあまり言及していませんが、自動化されたソフトウェアエンジニアに取り組んでいると思われます。内部で既に持っているという記事もいくつか見ました。これはゲームチェンジャーになると信じており、おそらくOpenAIがGPT-4oにそれほど焦点を当てていない理由でもあるでしょう。多くの人々がGPT-5はどこにあるのか、GPT-5が必要だと言っていますが、OpenAIは3つのことに焦点を当てていると思います。
1つ目は、もちろん新しい分野であるAIエージェントです。2つ目は推論モデル、そして3つ目はコーディング分野です。多くのユーザーが様々なコーディングプロジェクトにCLaudeを使用しているのを見てきたため、将来的にOpenAIが専用ツールをリリースする可能性は高いと思います。
彼らが基本モデルの構築だけに留まるかどうかは分かりませんが、OpenAIは製品重視の企業でもあるため、そのようなことをする可能性は十分にあります。サム・アルトマンはYコンビネーターで多くの経験を積んでおり、単に優れたAIモデルに焦点を当てるようなAI研究者タイプではありません。もちろん、優れたAIモデルは必要ですが、彼はより事業面に焦点を当てる人物です。
これは会社にとって重要な要素だと思います。よく目にするのは、新しい素晴らしいツールがすべてのベンチマークで他を上回っているという話ですが、多くの場合、それが良い製品に組み込まれていなければ、推論がどれほど優れていても重要ではありません。人々は他の、より使いやすく、よく知られているものを使うでしょう。
サム・アルトマンはAIエージェントが労働力に加わると述べていますが、彼らが具体的に何を開発するのか、非常に興味深いところです。
これは恐らく私がこの動画で最も好きな部分です。これを見たとき、これは恐らく最もクールなベンチマークだと思いました。AIがこのベンチマークを突破できれば、物事は非常に興味深いものになるでしょう。
Ronan Tamariがツイートし、それが私のタイムラインに表示されました。この論文を読むのがとても楽しかったのですが、「ビデオモデルは世界モデルと同じではない」と述べていました。中国から出た論文がこれについて言及しており、彼らが行った一連の小規模なテストの結果は非常に驚くべきものでした。
中国から出た論文は、SoraのようなモデルはWorld Modelについて全く理解していないと基本的に述べていました。もちろん、物議を醸すものかもしれない、あるいは単に中国がOpenAIを攻撃しようとしているだけかもしれないと人々は考えましたが、これをご覧ください。
これはGoogle DeepMindからのもので、基本的にAGIへの新しい道筋が必要だと述べています。元のSora論文では、AIのスケーリングへの道筋として使用できると述べていましたが、これは業界を完全に変えることになると思います。
「生成ビデオモデルはビデオを見ることで物理的原理を学習するのか」というのが基本的な質問です。最近、VQ-2やSoraのようなビデオモデルがテキストプロンプトから動画を再現する際の動きが非常に優れているため、これらのモデルは何らかの世界モデルの理解を持っているのではないかと多くの人が主張していました。
それはそうかもしれませんが、この論文では – GitHubがありますので、お見せしましょう – Physics IQ Benchmarkと呼ばれるものがあります。「生成ビデオモデルはビデオを見ることで物理的原理を学習するのか」という質問に対する答えは、実際には「学習しない」というものです。
私は何らかのレベルでは学習すると思っていました。なぜなら、そのすべての映像を見れば物理学についての理解が得られるはずだと考えたからです。しかし、非常に優れたビデオモデルでさえ、物理学を本当には理解していないようです。
基本的に彼らが行ったのは、最初のフレームを取り、これが実際の現実で何が起こるかを示す実際のビデオを見せ、そしてテストの現実で何が起こるかを見せることです。モデルは同じことをしないことが分かります。
より良い例として、これは正直なところかなり難しいと思いますが、平均的な人に何が起こるか見せたら、分からないかもしれません。ここでは、ペイントが取り付けられたルンバのような装置が左右に回転しているのが見えます。端にペイントがついているのが分かります。
ペイントが横に広がっていくことが予想されますが、これらのモデルを見ると、物理的現実を本当に理解していないことが分かります。一部は完全に外れ、一部は様々な異なることをしています。
同じ装置で回転する鍋のこの例も見てみると、これらのビデモデルから何を判断できるかが分かります。それらは正確には見えません。この研究は非常に重要だと思います。なぜなら、モデルのトレーニング方法では、物理学を正確に表現できる内部世界モデルを持てないことが分かれば、異なる方法を取る必要があり、それはより早く正しい道筋に到達できることを意味するからです。
また、現在のAIブームが単なる誇大広告ではないということも共有したいと思います。これを動画に加えた理由は、多くの場合、他の分野や業界の部外者がAIコミュニティ内の個人を見て、彼らが話していることは単なる誇大広告だと述べることがあるからです。
しかし、予測においてより保守的なCEOたちが何を言っているかを見る必要があります。より保守的な人物の一人がDario Amodですが、彼が言っていることを見てください。これは現在のモデルと新しいパラダイムの軌道に基づいて、タイムラインがどのように前進しているかを示す視点の変化を表していると思います。
「3-6ヶ月前まで、私はかなりの不確実性を持っていました。今でもそうですが、その不確実性は大きく減少しています。今後2-3年で、職場に現れ、消費者が使用するモデルが登場すると私はかなり確信しています。もちろん人間の支援者としてですが、徐々にほぼすべての面で私たちよりも優れていくでしょう。
ポジティブな結果は素晴らしいものになるでしょう。ネガティブな結果も、私たちは注意を払う必要があります。進歩は人々が考えているのと同じくらい速いと思います。
私が批判したいのは、速い進歩が比較的確実になった今、適切な重みを持ってそれを認識し、真剣に話し合うことが非常に重要だということです。他の企業は名前を挙げませんが、奇妙なTwitterの噂があり、従業員は『私たちはここで素晴らしいことをしている』というような、ウインクのような仕草をします。
それは危険だと思います。なぜなら、外部の人から見ると、『ああ、それは単なる誇大広告だ』という印象を与えるからです。このようなこの種のコミュニケーションは、これが実際に深刻な問題であるときに深刻ではないという印象を与えるため、本当に危険だと思います。
私たちがここにいる瞬間の深刻さを指摘する義務が、AI業界全体にはあると思います。もし私たちが、信じられないほどポジティブなことが可能だと言っているのなら、このような大きな変化には必然的にリスクが伴います。私たちには、それについて真剣にコミュニケーションを取り、実際に考えていることを述べる義務があります。
私は彼の言葉が正しいと思います。彼は基本的に、もし私たちがこのテクノロジーがどこに向かうのかを本当に理解しているのなら、このテクノロジーが悪いと言う方法で遊ぶのをやめなければならないと述べています。
これは重要な声明だと思います。なぜなら、彼は基本的に、テクノロジーは本物であり、人々がAIについて話す方法は、時にそれが単なる誇大広告であると公衆に信じさせてしまうと述べているからです。
そのため、これは、新しいテクノロジーについて時には誇大広告があるかもしれませんが、これは確実に革命的なものになるということを示すために、皆さんにお見せしたかった重要な声明です。
もう一つ、私が以前ビデオを作ろうとしていたが時間がなかったことについて、GWが実際にAI革命と現在の状況について話し、実際にブレイクスルーがあったかもしれないと述べています。
「なぜOpenAIが突然、奇妙なほど楽観的になっているのかと思っている人のために」と彼はツイートしました。これに入る前に、GWが誰なのか説明すると、彼はスケーリング法則を予測し、GPT-4についても早期に情報を持っていた人物です。
そのため、これは単なるRedditのランダムなスレッドではなく、AI予測において一貫して正確だった人物です。彼は、GPT-4oモデル2o3からの声明が完全に異なっていると述べ、「AlphaGoのELOカーブを見ているようだ。上がり続け、上がり続け、上がり続けている」と言いました。
彼が何を指しているのか分からない方のために、画像をお見せします。これは低品質な画像ですが、要点は理解できると思います。より多くの探索があれば、カーブは上がり続けるのが分かります。
これは現在のAIモデルで見てきたことであり、AlphaGoは本質的に最も賢いモデルだったので、これらのLLMでも同様のことが起こると基本的に想定しています。
もちろん、知能のレベルとそのフレームワークをより堅牢で信頼性の高いものにできれば、AGIや超知能を得られる可能性が高いです。
ここで彼は「彼らはついに臨界点の最後の閾値を超え、ブレイクスルーを達成したという感覚があるかもしれない」と述べています。つまり、数年後に誰もが再現するような単なる最先端のAI作業から、実際に知能を解明し、再帰的に自己改善できる点に到達したということです。
o4やo5で、AI研究開発を自動化し、残りを終わらせることができるでしょう。アルトマンは2024年11月に「私たちが今行っている作業は単に積み重なり続け、過去3年間の進歩の速度が次の3年間、6-9年間、あるいはそれ以上続くという道筋が見える」と述べました。
そして1週間前、彼らは「私たちは伝統的に理解してきたAGIの構築方法を知っている。私たちは今、その先の本当の意味での超知能に向けて目標を向け始めている。現在の製品は大好きだが、私たちは輝かしい未来のためにここにいる」と述べました。
これは重要なことだと思います。なぜなら、これらの声明を振り返ってみたとき、これはすべて誇大広告ではなく、AI業界がどこに向かっているかについての早期の警告を与えてくれたのかもしれないからです。
これらのグラフを見て、人々が話していることを見た後、これは確実に考慮に入れるべきことです。もちろん、ライフスタイルの変更をすべきだとは言いませんが、適切に計画を立てないわけにはいかないと思います。
キャリアを変えろとは言っていません。ただ、柔軟性を保ち、変化を理解し、テクノロジーを理解することが重要だと言っているのです。私がAI分野を行き来して、一般の人々とAIについて話すとき、彼らは本当に理解していません。
これを悪い意味で言っているのではありません。ただ、平均的な人はそれほど関心がないだけです。それは完全に理解できます。しかし、今このビデオを見ているあなたがここにいることは、インターネットの初期にいるようなものです。それは素晴らしい感覚です。
また、Deep Seek R1という新しいモデルがあり、インターネットで大きな話題となっています。ベンチマークを見せるべきでしたが、基本的にこのモデルは現在、OpenAIのo1と同程度に優れています。
AI業界からの現在の反応として、一般の人々の80%はこのモデルが素晴らしく、OpenAIのo1と同程度だと考えています。一方で20%の人々は、彼らがOpenAIのモデルから思考の連鎖を盗み、それを再現しただけだと基本的に言っています。
私には分かりません。これは開発者にとって確実に素晴らしいことです。推論できるモデルを手に入れ、基本的に無制限のレート制限を得ることができます。これは、何かを構築しようとしている人々にとって、大量の生産性を解放することになるでしょう。
私は現在構築している自動化の一部でこれを使用しようと思っています。なぜなら、これははるかに安価で、レート制限もほとんどなく、より安価な料金で思考モデルにアクセスできるからです。
彼らがそれを維持できる限り、非常に興味深いものになると思います。また、これについて最も多くの人々を驚かせたのは、彼らがそこに到達したということではなく、彼らがそれほど早く到達したということです。
人々は中国が6ヶ月、あるいは1年遅れているだろうと予想していました。しかし、彼らが3ヶ月遅れているとすれば、それは短い時間枠ではありません。これは基本的に、中国がここでリードを取る可能性があることを意味します。
特に彼らがOpenAIと同じパラダイムにいるのなら、これらの研究所の一部は突破口を見出し、特定の突破口がより大きな進歩につながる可能性があります。
私たちは今、以前はAI研究がグローバルに共有され、すべての論文に誰もがアクセスできた段階から、これらのプライベートな研究所が突破口を見出し、そのモデルを他よりも優れたものにする段階に来ています。
一部の研究所が脱出速度に達し、アメリカが最初にそれを達成するのか、中国が追いつき、何らかの形で追い越すのか、非常に興味深いところです。私には分かりませんが、これはAIレースが現在おそらく互角であることを示していますが、どちらに転ぶかは非常に興味深いところです。
また、ここでお見せしたいものがあります。OpenAI o1モデルから得られなかったもの、多くの人々が期待していたものの1つは、モデルがどのように考えるかの内部思考の連鎖でした。
モデルは長時間考え、それによってより良い応答を得ます。R1では、自己反省と呼ばれるものを見ることができました。これは特にトレーニングされたわけではありませんが、質問を理解しようとしたときにそれを始めました。
これはDeep Seek R1の「アハ」モーメントとされています。人間らしい口調を使って考えることを学び、「ちょっと待って、ここで実際に解決できる」というように考えます。
これは非常に興味深い方法です。なぜなら、これらのモデルはもちろんシステム2思考、つまり努力を要する合理的思考に基づいて構築されているからです。これに対してシステム1思考は、ChatGPTのように質問をすると即座に応答するような思考です。
これがOpenAIの推論のリードの実際の人物です。これはNan Brownで、OpenAIでこれを主導しており、過去に本当に興味深い様々なことを行ってきました。彼の研究が分野に与えた影響がいかに驚くべきものかを示していると思います。
システム1思考は、例えば友人の顔を認識したり、面白い冗談を笑ったりするような、より直感的で速い思考です。システム2思考は、休暇の計画を立てたり、エッセイを書いたり、難しい数学の問題を解いたりするような、より方法論的でゆっくりとした思考です。
この競争の後、私はこのシステム2思考がAGIに欠けているものかもしれないと考えました。ポーカーの1ハンドで20秒考えさせるだけで、モデルを100,000倍スケールアップし、100,000倍長くトレーニングするのと同じパフォーマンスの向上が得られることが分かりました。
もう一度言います。ポーカーの1ハンドで20秒考えることで、モデルのサイズとトレーニングを100,000倍スケールアップするのと同じパフォーマンスの向上が得られたのです。
この結果を得たとき、私は最初の3年間、それがバグだと思いました。私は博士課程でこれらのモデルを100倍スケールアップすることができ、その作業を誇りに思っていました。スケーリングの方法について複数の論文を書きましたが、システムをスケールアップするだけで、すべてがフットノートになることをすぐに知りました。
これが注目すべき理由は、彼が文字通り、100倍以上の結果をもたらす何かを発見したからです。わずかな変更で、時間とともにより多くの変更が得られるでしょう。
システムアーキテクチャの面では劇的ではないかもしれませんが、指数関数的な成長を考えると、クレイジーな量の進歩につながる可能性があります。
ここでDr. Jim Fanがシンギュラリティについて話しています。これは重要だと思います。なぜなら、サム・アルトマンがシンギュラリティについて話し、GWがブレイクスルーについて話しているなら、シンギュラリティはそれほど遠くないかもしれないからです。
しかし、人々はシンギュラリティについて様々な定義を持っています。Dr. Jim Fanは「シンギュラリティの実用的な定義は、トランスフォーマーが次のトランスフォーマーを研究し始めるまで本当に終わりではないということです。より簡単な言葉で言えば、数十年のすべてのコンピュータサイエンスのトピックの自動化です」と述べています。
基本的に、人間の監視なしに、より高い知能のために資本を取引することです。モデルは研究論文を読み、データを収集・キュレーションし、GPUクラスターを管理し、トレーニングジョブを監視し、シリコンから自身の子孫を選択する必要があるということです。
おそらく彼らは互いにピアレビューを行い、仮想のAIカンファレンスを主導することもできるでしょう。しかし、私たちはこれからそれほど遠くないと思います。
これは多くの人々が指摘するポイントだと思います。将来、これは注意を払う必要がある瞬間となるでしょう。なぜなら、これは物事が単一のシステムではなく、システム全体として再帰的に自己改善し始める瞬間だからです。
単一のアイデアからモデルの自己改善まで、より早く反復できれば、より早くミスを修正でき、そのループをより早く回せば、より早く次の知能レベルに到達できます。
つまり、この自動機械学習研究者のループが解決されれば、物事は成層圏に向かうということです。彼らが今これを行っているかもしれませんが、私の予測では、ソフトウェアエンジニアリングのベンチマークが80%や90%に達し始めるとき、あるいはそれらのベンチマークが本当に突破され始めるとき、そしてそれはそれはそれほど遠くないと思います。おそらく1年半ほどでそのベンチマークは驚くべきものになるでしょう。そうなれば、研究が信じられないレベルで行われ、物事は10倍から50倍に加速し、そして私たちは途方もないレベルの知能を得始めることになります。つまり、指数関数的な曲線が始まったということです。
もちろん、中国初のヒューマノイドロボットトレーニング基地についてのビデオもありました。国立ヒューマノイドロボットイノベーションセンターによって設立され、昨日から運営を開始しました。これは本質的にデータを生産する工場であり、これはイノベーションセンターの主任科学者であるJang Leeが述べたことです。
これは50兆のトレーニングハブで、AGI BやForia Intelligenceを含む10以上の企業や機関から100台以上のロボットが参加する十数個のタスクを開始します。ここで収集されたデータは、AI知能の具現化を試みる企業が利用できるようになります。2027年までに、トレーニング中の1000台のロボットをサポートすることを目指しています。
これは、AIモデルのような前線全体で進展していることを示しています。もちろん、これらのモデルの具現化も前進しています。
さらにヒューマノイドロボットについて、私は実際にXangヒューマノイドロボットが実生活で動いているのを見ました。これは私のビデオではありませんが、私が実際に見たということを言っています。なぜなら、これについてのビデオを作ったとき、多くの人々がこれはCGIで偽物だと主張したからです。
人々がCGIだと主張したビデオをお見せしますが、明らかにここで見られるように、それは公共の場で歩き回り、動いています。10年後には、私たちはこの動きが酷かったと思うかもしれませんが、現時点では非常に信じられないほど素晴らしく見えます。
ここで正確にどのように見えるかが分かります。このロボットはおそらくより多くの充電を持っていたと思います。これらのロボットは確実に同じプラットフォームですが、私が言いたいポイントは、それが遠くないということです。
10年の研究開発と、これらの企業に投資される数十億ドルで、これらのロボットは本当に賢くなり、完全に速く動き回るようになるでしょう。ビジョン、音声モード、この未来は明らかに、明らかに来ています。
動画の冒頭で話したように、このようなヒューマノイドロボットと共に、Stargateプロジェクトがあり、アメリカ政府が5000億ドルを投資すると基本的に述べています。他の企業や国々が何をするか考えてみてください。
以上で、この動画についてどう思うか、AIの誇大広告は本物だと思うか、偽物だと思うか、それとも実現すると思うかを教えてください。結局のところ、また次の動画でお会いしましょう。
コメント