DeepSeekがAI業界を破壊…r1モデルは止められない…

12,607 文字

DeepSeek DESTROYS the AI Industry... r1 model is UNSTOPPABLE...
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

AIアポカリプスが到来。DeepSeekとNVIDIAにより、今日の株価は177%下落。米国株式市場史上最大の時価総額の損失で、およそ半兆ドル、つまりStargateプロジェクトで約束された投資のほぼ全額が午後のうちに消し飛びました。
DeepSeekは好調で、現在最も使用されているAIアプリの1つとしてあらゆるチャートでトップを走っています。順調だったはずが、大規模なサイバー攻撃を受け、新規登録や既存ユーザーの利用が制限される事態となりました。
その一方で、世界の株式市場は1兆ドル以上を失い、1日で1兆ドルの売り越しとなりました。これは何を意味するのでしょうか?AIバブルは崩壊したのか?私たちが知っているAIの終わりなのか?Gary Marcusは正しかったのか?彼がTwitterで勝利の雄叫びを上げているか確認してみましたが、案の定そうでした。
このビデオでは、実際に何が起きているのか、新しいDeepSeekモデルは何ができて何ができないのか、モデルが主張する内容は本当なのか、そして最も重要なのは、人々が見落としていると思われる実際の影響について見ていきましょう。
まず、これまでの経緯を振り返ってみましょう。DeepSeekは複数のモデル(V3、R1、r10)を持つ企業で、それぞれが異なる理由で画期的なものとなっています。V3は、より大きな教師モデルから情報を抽出し、より小さな学習モデルをプログラミングや数学などの推論に特化して賢くできることを示しました。
ここでV3はGPT-4oと対決していますが、これは適切な比較です。両者とも推論を行わないモデルで、チェーン・オブ・ソートを持たず、答えを考えてから出すのではなく、すぐに答えを出します。これはOpenAI o1モデルやDeepSeek R1モデルとは異なります。これらは同じクラスのモデルですが、ここで注目すべきは高度な数学のベンチマークにおける精度です。GPT-4o OpenAIは9%の精度なのに対し、DeepSeek V3は約40%と大きな飛躍を遂げています。
R1はOpenAI o1への回答として位置づけられ、問題を考えてから答える推論モデルです。考える時間、つまりテスト時の計算能力を使うことで、より良い回答を生成できます。実際、問題を考える時間を指数関数的に増やすことで、より良い回答が得られます。
中国発のこのモデルは、基本的にOpenAIの最先端モデルを再現し、オープンソースで公開し、わずかなコストで実現しました。これは大きな出来事で、その理由についてはすぐに説明します。
まず理解しておく必要があるのは、米国が中国などの国々へのAIチップのアクセスを制限しようとしていることです。米国は中国、ロシア、イラン、北朝鮮へのAIチップの輸出を制限し、同盟国には無制限のアクセスを提供しています。理由は、米中間の影響力争いです。中国は自国の影響力を持ちたがり、米国も同様です。最新の戦場となっているのは、誰のテクノロジーでAIが動くのかということです。
具体的には、誰がハードウェアを提供し、誰がエコシステムの残りの部分を提供するのかということです。米国はOpenAIや他の主要企業(Amazon、クラウドサービスを提供する企業、NVIDIAとそのチップなど)による独自のモデルでリードしてきました。これらは米国が重視してきた企業で、米国に同調する人々に世界中でAIエコシステムを提供することを確実にしようとしています。
第一に、中国は「米国で利用可能な最高のAIモデルと同等のオープンソースモデルを提供する」という方針を打ち出すことで、その計画に大きな障害を投じています。これが地政学的な観点です。
もう一つの観点は、もちろん米国の株式市場です。多くの企業がAIへの投資額を発表しています。Meta、Microsoft、Googleはすべて、さまざまなAIインフラ、これらのモデルの推論、さまざまな維持費などに大規模な予算を費やしています。
このモデルは、そのような投資の多くが完全に無駄になっていることを示唆しているようです。中国のこの小さな企業がはるかに安価にこれらのモデルを構築できるのはなぜでしょうか?このモデルのトレーニングコストは600万ドルだったとされています。また、この会社にとってこれは副次的なプロジェクトだったようです。彼らは投資ファンドを運用する会社で、暗号資産プロジェクトのためにNVIDIAチップを大量に購入していたようです。
余っていたインフラ、つまりAIチップを使って、このモデルをほぼ副次的なプロジェクトとして作ることができたということです。これが大まかな状況ですが、本質的な問題に入っていきましょう。
それは、この会社が行ったことは本当なのか?米国企業が莫大な資金を投じているのに比べ、本当にそれほど安価に、速く、より良いものを作ることができたのか?米国のテクノロジー企業は単にこの資金を無駄遣いしているのか?あるいは、一部の人々が示唆するように、この会社、つまり中国全般がこのような情報を発信しようとしていて、実際の状況を正直に語っていないのではないか?実際には表明しているよりもはるかに多くのチップを持っているのではないか?という点です。
Scale AI のCEOであるAlexander Wangは、DeepSeekは米国の輸出規制のために言及できない約5万台のNVIDIA H100を保有していると述べています。つまり、彼らは膨大な計算能力を持っているにもかかわらず、わずかな量しか使用していないと主張することで、米国のテク企業に影を落とそうとしているという考えです。
この分野のさまざまな投資について多く語るG Bakerは、この状況について最も細かいニュアンスを含んだ見解の1つを示しています。DeepSeekの主張が真実かどうかを問う多くの人々に対する答えはおそらく「イエス」ですが、この会話にはもう少し細かいニュアンスがあります。
まず、R1はo1と比べてAPIコール当たり93%安価です。後ほどこれをどのように実現したのか、なぜそれほど効率的になったのかについて説明します。ハイエンドのワークステーションでローカルに実行でき、レート制限がないように見えるのは驚くべきことです。
また、ここには明らかに地政学的な力学が働いており、これがStargateの直後に来たのは偶然ではありません。おそらく少し前に発表されていたかもしれませんが、ほぼ同時期であり、確かにここにはさまざまな地政学的な力学が働いています。
米国と中国はこのAIレース、AIウォー(私はこの用語は好きではありませんが)に勝つために競争しています。確かにグローバルAIインフラを制御し、内部で最高のAIモデルを生産するための非常に競争的な戦いが行われています。
R1はOpenAI o1に非常に似ていますが、まだリリースされていない03には後れを取っています。ちなみに、チャットボットアリーナでは、すべてのチャットボットが互いに対戦し、人々が盲目的にどちらが優れているかを投票します。
ご覧の通り、DeepSeek R1は最上位にあり、ChatGPT-4oの最新版のわずか数ポイント後ろ、興味深いことにo1のすぐ上にいます。すべて数ポイント差です。明らかにDeepSeek R1の投票数はかなり少ないので、まだ上下に変動する可能性があります。
もちろん、これはこれらのモデルの質を評価する決定的な指標ではありませんし、ベンチマークもそうです。全体的に見る必要があり、最終的には実際のユースケースに関係してきます。
Ganの投稿に戻ると、トレーニングと推論の両方で劇的に効率的になった実際のアルゴリズムのブレークスルーがあったと述べています。後ほど彼らが具体的に何をしたのか説明しますが、まずはチップの部分について触れたいと思います。これが全体の中心的な問題のように見えるからです。
彼らは本当に米国のライバルよりもはるかに少ない計算能力でこのモデルをトレーニングすることができたのでしょうか?彼は「R1のトレーニング実行が600万ドルしかかからなかったことは簡単に検証できる」と述べています。
Stability AIの創設者で、AIの未来について多くのインタビューで話しているのを見たことがあるかもしれないEmod Maakは、DeepSeekが計算能力について嘘をついていない理由と、VRとR1(ここで話題にしている2つのモデル)の実際のトレーニングコストについて、数字を分析しています。
数字を計算した後、彼はDeepSeekでの実行方法について、チップ効率は予想よりも低く、最適化されたH100なら250万ドル未満でできただろうと述べています。DeepSeekは偽物ではなく、実行コストはデータ構造、アクティブパラメータ、その他の要素、および他の人々によってトレーニングされた他のモデルを考慮すると、ほぼ予想通りだと述べています。独立して同じコストで実行できる、よく働いている優れたラボだとしています。
ちなみに、これはNeil Khoslaで、Khoslaの息子です。Khoslaはベイエリア、シリコンバレーで非常に成功した有名な投資家です。彼はインド系アメリカ人の億万長者のビジネスマンで、ベンチャーキャピタリスト、Sun Microsystemsの共同創設者、Khosla Venturesの創設者です。
彼の息子のNeilは、DeepSeekは中国共産党(CCP)の詐欺であり、アメリカのAIを収益性のないものにするための経済戦争だと主張した人物の一人です。彼らは低コストを偽装して価格を低く設定する理由を正当化し、誰もがそれに切り替えることを期待して米国のAI競争力にダメージを与えようとしている、餌に乗るなと述べています。
もちろん、これは多くの論争を引き起こしました。父親がOpenAIの主要な株主であり、彼らがもちろん多くの米国のテクノロジーに投資しているからです。
ちなみに、インターネット上の私たちの多くの見解は、非常に二極化する傾向があります。つまり、一方か他方かのどちらかです。人々は自分自身について真実であることを言うことが多いのですが、心の中で「彼らは自分のチームなのか、それとも反対のチームなのか」と考える傾向があるため、そのような発言に対して、その基準に基づいて同意するか否かを決めがちです。
中国政府、CCPは、これらの企業の多くを大きな程度でサポートしているでしょう。Sam AltmanがOpenAIの創設者として米国大統領と舞台に立ち、とても親しげに話しているのを見かけるように、中国側も、これらの中国のスタートアップに多くの影響力を持っているのは驚くべきことではありません。おそらくはるかに多くの影響力を持っているでしょう。
私が言いたいのは、この最初の声明は真実かもしれないということです。つまり、CCPの国家的な詐欺であり経済戦争かもしれません。しかし、だからといってコストを偽装しているわけではありません。これらは必ずしも相互に排他的なものではないことを覚えておいてください。
おそらく国家の影響力があり、私たちが気付いているよりもはるかに多くのチップがあるでしょう。しかし、だからといってR1モデルの数字が作り話だというわけではありません。その理由は以下の通りです。
R1のトレーニング実行が600万ドルかかったことは簡単に検証できます。これは再びGavin BakerとImad Mustakによって確認されています。現時点で入手可能なデータに基づいて、私たちが知っていることに基づいて、これらの数字が正確だと仮定するのは妥当だと思われます。
しかし、それが文字通り真実だとしても、それは深く誤解を招くものでもあります。ここでのニュアンスは、その600万ドルには、アーキテクチャ、アルゴリズム、データに関する事前の研究と検証実験に関連するコストは含まれていないということです。
これは、ラボが事前の研究に何億ドルも費やし、はるかに大きなクラスターにアクセスできる場合、600万ドルの実行でR1品質のモデルをトレーニングすることが可能だということを意味します。その600万ドルは、彼らが述べた計算量で特定のモデルをトレーニングする実際のコストかもしれませんが、DeepSeekは248台のH100以上を持っています。彼らの以前の論文では、10,000台のA100クラスターについて言及していました。
実際の問題は、同様に賢いチーム、つまり同じように賢く知識のある人々に600万ドルを与え、彼らが述べた2,000台以上のH100を与えた場合、そのチームは今600万ドルで同様のモデルを一から構築できるのか?それは本当にそれほど簡単に複製できるのか、それとも舞台裏で私たちが知らない巨大なコストやアーキテクチャ、その他多くのものが存在するのか?
そして最後に、これは別の大きな点です。このチャンネルで話してきたように、蒸留とは何でしょうか?蒸留とは、大きな賢いモデル、例えばo1を取り、それを使って任意の問題を解決するための思考の連鎖、つまり推論を生成するというアイデアです。
その後、それらの思考、つまり合成データ、推論、根拠(どう呼ぶかは見る場所によって異なります)を取り、次世代モデルのトレーニングのための合成データとして使用します。これは新しいアイデアではありません。2022年のスタンフォードとGoogleのこのSTAR論文は、まさにこのテクニック、つまり思考や根拠(彼らは別の言葉を使っています)を取り、それらの根拠を使って次世代モデルを微調整するテクニックについて説明しています。
著者の一人であるNoah E Goodmanに注目してください。これはロイターからの記事です。OpenAIはコードネームStrawberry(以前はQARとして知られていた)の下で新しい推論技術に取り組んでおり、2022年にスタンフォードで開発されたSelf-Talk Reasoners(STAR)と呼ばれる方法と類似点があります。
これは私たちが先ほど話したことです。そしてここにNoah D Goodmanがいます。彼はOpenAIとは関係がなく、スタンフォードにいると思います。彼はSTARについて、AIモデルが反復的に自身のトレーニングデータを作成することで、より高い知能レベルへと自己を向上させることを可能にし、理論的には言語モデルを人間レベルの知能を超えるところまで高めることができると述べています。
再度、私たちが話しているそのアイデアは、異なる名前で呼ばれています。最近では、より多くの人々が知識の蒸留として言及しているように思います。
Gは続けて、多くの蒸留があったと述べています。GPT-4oと01への制限のないアクセスなしでは、これをトレーニングすることはできなかったでしょう。実際、私がDeepSeekモデルをテストした最初の日、どのモデルを実行しているかと尋ねると、「私はDeepSeek R1」や「V3」(どちらをテストしていたにせよ)とは言わず、「私はGPT4アーキテクチャ上で実行されています」と答えたことを示すビデオがあります。
そのビデオで私が説明している理由は、これらのモデルはすべてこの蒸留プロセスを使用しており、その多くがGPT-4、そして後にGPT-4o、おそらくo1ではないかもしれませんが、それらをベースに構築されているからです。
これも理解すべき重要な点です。NVIDIAチップに対する厳しい輸出規制があります(ただし、中国のさまざまなスタートアップが明らかに多くのチップを入手しているように見えるので、私たちが考えているほど厳しくないのかもしれません)。しかし、ハードウェアに対する輸出規制はありますが、ソフトウェアではなく、むしろ出力、つまり合成データに対する規制はありません。
再度、これらの中国のモデルが米国のモデルからの合成データでトレーニングされたことは、ほぼ100%の確実性で言えます。私はそれに賭けてもいいでしょう。なぜなら、これらのモデルにはそれを強く示唆する特徴的な兆候があるからです。
ここでの大きなポイントは、これらの多くがOpenAIによって補助されているということです。公開された他の研究、おそらく他の手段で取得された非公開の情報、この合成データなどによってです。
では、これは単なる模倣で、ここには革新がなく、新しいものは何もないのでしょうか?いいえ、なぜなら、彼らはアルゴリズムのブレークスルーを成功させたからです。
これはY Combinatorのパートナーであるジャレッド・フリードマンです。彼は、DeepSeekがトレーニングを45倍効率的にしたことが可能かどうかについて、多くの議論があると述べています。後ほどその人物について触れますが、彼らはそれをどのように行ったかについて明確な説明を書いています。
その記事を書いた人物はジェフリー・エマニュエルで、元クォント投資家です。彼は「NVIDIAストックのショートケース」を書き、基本的にNVIDIAが打撃を受けて多額の損失を出すと述べ、1月25日に書きました。もし彼が自分の記事通りに行動し、実際に24日頃にNVIDIAをショートしていたとすれば、今朝の時点でNVIDIAが時間外取引で10%下落したと述べた通りになっています。
論文の内容について、ジャレッド・フリードマンは素早く説明し、私たちも記事を見ていきますが、彼は次のように述べています:

32ビットの代わりに8ビットの浮動小数点数を使用し、これにより巨大なメモリ節約を実現
VRAMの大部分を占めるキー値インデックスを圧縮し、93%の圧縮率を達成
シングルトークン予測の代わりにマルチトークン予測を行い、推論速度を事実上2倍に
エキスパートモデルの混合により、大きなモデルを消費者グレードのGPUで実行できる小さなモデルに分解

これは少し前から存在し、GPT-4もそれを実行していると私たちは信じています。これは大きなブレークスルーで、現在はより多くのモデルがその方向に向かっています。
ちなみに、これに興味がある方には、これは素晴らしい読み物です。60分の読み物で、かなりの大作です。私はこの人を知りませんが、この人はかなり賢そうで、60分の価値があるかもしれません。理論的な脅威に関する部分は、DeepSeekがどのようにしてそれを実現し、なぜそれが衝撃的なのかを本当によく説明しています。
あなたたちは私が「衝撃的」という言葉を使うことについて多くの批判をしますが、彼がそれを使えるなら、私も使えるはずです。
彼は、このDeepSeek社が量的トレーディングのヘッジファンドとして始まったと言及していますが、それが本当なのか、あるいは単にCCPや中国軍の表向きの組織なのかは誰にもわかりません。前に言ったように、重複している可能性は十分にありますが、だからといって彼らがやったことが完全に偽りだというわけではありません。
彼は次のように始めています。第一に、このモデルは絶対に正当なものです。AIのベンチマークには多くの問題がありますが、このモデルは確かに優れています。2つの大きな成果は、モデルのトレーニングと推論の効率性です。彼らはGPUを劇的に、衝撃的なほど、あるいは驚くべきほど効率的に使用してトレーニングすることができました。45倍以上効率的に。
再度、彼は8ビットと32ビットの数値などについて詳しく説明しています。これと、NVIDIAのシニアAI研究者であるDr. Jim Fanによる別の投稿では、DeepSeekモデルが行った他のことについても説明されています。
判定に非常に重いモデルを使用する代わりに、DeepSeekは実際にはるかに高速で軽量な独自の方法を考案しました。これについては以前のビデオで取り上げました。GPUの通信効率における大きな進歩、エキスパートの混合(これは最新のものではありませんが、確かに役立ちます)を使用し、推論リクエストに95%少ない料金を請求できるAPIについて説明しています。
また、一部の人々が彼らのGPUについて嘘をついていると言っていることについても簡単に触れています。確かにそれは可能性としてはありますが、彼らは単にトレーニングと推論へのアプローチにおいて非常に賢く創造的であることで、これらの信じられない結果を達成することができたと考える方が妥当でしょう。
彼らは自分たちがどのようにことを行っているかを説明しており、他のラボの様々な研究者たちによってこれらの結果が広く再現され確認されるのは時間の問題だと思います。
ここでの大きなポイントの1つは、研究を公開する人々が皆、この分野に貢献しているということです。GoogleのトランスフォーマーやスタンフォードのSTAR、あるいはこの場合のDeepSeekのようなアルゴリズムのブレークスルーを公開する場合、1つの会社や組織が発見したことが、今や誰もの標準となるのです。
これは重要な点です。なぜなら、人々は「誰が先を行っているのか、米国なのか中国なのか」と言っていますが、中国は今、すべてをオープンソースで公開し、研究を公開しました。中国の他の組織や大学もo1を複製する方法や、それに何が関係しているかを説明する論文を発表しています。
そのうちの多くは、米国のテクノロジーとOpenAIのモデルから合成データや蒸留を得ることで可能だったのでしょうか?もちろんそうです。米国のテク企業は今、これらの中国企業によって公開された研究で同じことをするのでしょうか?もちろんです。これが機能するなら、彼らはそれを使用して自社のモデルに適用し、おそらく同じ結果を見ることでしょう。
結局のところ、これはすべて何を意味するのでしょうか?進歩に関して理解することが重要なのは、2つの状態があるということです。「終わった」と「私たちは戻ってきた」です。そして今、両方の状態にあります。「終わった」そして「私たちは戻ってきた」です。
なぜなら、AIの進歩は前進し続けているからです。スケーリングが壁に突き当たったと言う人々がいます。私が何度も使いすぎた冗談のように、はい、その通りです。それは垂直な壁で、AI の進歩はその上をまっすぐ登っていっています。
o1とその他すべてで見ている進歩に加えて、同時に中国の研究者たちがこの新しいアルゴリズムの改良を提供しており、それは単に信じられないものです。推論で50倍の改善、おそらくそれ以上、トレーニングで45倍の改善です。
AIが株式だったら、このように上がっているでしょう。まっすぐ上昇しました。AIは爆発的に成長し、より速く、より安く、より良く、よりスマートになっています。「終わった」「私たちは戻ってきた」。つまり、AIは素晴らしい状態です。
これは誰に影響を与えるのでしょうか?まず、さまざまな企業を見る必要があります。もちろん、NVIDIAは15%以上下落しました。モデルのトレーニング用チップを売るという彼らの主力ビジネスを失うのではないかという懸念があるからです。
私はハードウェア側についてはそれほど詳しくないので、私の言うことは参考程度に聞いてください。私の理解が正しければ、NVIDIAはトレーニング用AIチップの生産でリードしています。推論に関しては、他にも多くのものが使用できます。
Grockチップは大規模言語モデルに対して非常に高速です。これらは実際には大規模言語モデルチップで、LPU(Language Processing Unit)と呼ばれていると思います。NVIDIAのGPU(Graphics Processing Unit)やGoogleのTPU(Tensor Processing Unit)とは異なります。
Metaが現在ウォールームを設置しているという噂があります。なぜなら、彼らはもちろんオープンソースエコシステムを追求しようとしており、ここで中国企業が最高のオープンソースモデルをリリースしているからです。
明らかに、Facebook内のLlamaプロジェクトは、上級技術幹部から内部で多くの注目を集めています。もちろん、これは最新で最高にクールなものです。その結果、Llamaに取り組んでいる13人の個人がいますが、彼らは各々、それを上回るパフォーマンスを示したDeepSeek V3モデルの合計トレーニングコストよりも多い年間報酬を得ています。
これは「必要は発明の母」という言葉が真実であることを示しています。あなたが持っているものへのアクセスを制限すると、それが創造性を刺激します。より少ないリソースで物事を行う方法を見つけなければなりません。年間500万ドル以上を稼ぐ13人の幹部がこれに取り組む必要があるのでしょうか?明らかにそうではないようです。
もちろん次に、多くの企業がどのように反応するかを見ることになります。ElonはTeslaの決算発表を数日後に控えています。Elonはもちろん彼の新しいAIスタートアップxAIに非常に興味を持っています。
まだ彼から正式な声明はあまり聞いていませんが、どのように反応するか見ていきましょう。なぜなら、人々は確かに彼の声明を待っているからです。おそらく彼は自社のxAIの評価が下がることを望んでいません。彼らはそれに対する資金調達で非常にうまくいっていますが、もちろんこのようなことはスタートアップに対する認識に悪影響を与える可能性があります。
多くの企業にとって、これは表面的には悪いことのように見えます。しかし同時に、これらの結果を再現し、アルゴリズムの改良を追加できると仮定すれば、より良いAIモデルをより安価に生産する能力を助けることになります。
再度、評価や資本支出などについて考えなければ、これは長期的には良いことのように思えます。雨の日のために多くのものを買い込んでおいて、次の日にすべてがセールになったような経験はありませんか?
混じった感情を持ちますよね。多額の無駄遣いをしたことに腹を立てますが、将来的にそれが安くなることは、それ自体は悪いことではありません。これも同様です。彼らがそれを複製できれば、将来のモデル開発コストにとって良いことだということを覚えておく必要があります。
NVIDIAに関して、この人は次のことを書いています。これは彼がおそらくNVIDIA株をショートし、そのためにNVIDIAのショートケースを作成したものだということを覚えておいてください。そう呼んでいます。
それを公開し、多額の利益を上げました。もちろん、ここで彼は否定的なケースを提示します。それがポイントです。興味がある方は、ぜひ読んでみてください。それが正しいか間違っているかは言いませんが、ゲームがどのように行われているかを理解する必要があります。
人々はショートの機会を見つけ、市場や特定の企業をショートし、そのショートケースを発表します。そのショートケースを他の人々が読んで、「ああ、この人に同意だ」と思い、彼らも会社を売るかショートします。最初に発表した人が多くの利益を得るので、このような事例を発表することは、その戦略の一部として言葉を広めることです。
それが間違っているということではありません。利益相反があると言うのは公平だと思います。彼は楽観的な見方についても言及し、次の大きな波がロボティクスの波である可能性があるとしています。確かにNVIDIAはそれに対してうまく位置付けられているように見えます。
しかし、これは投資アドバイスではありません。これは投資チャンネルではありません。もちろん、NVIDIAに非常に強気な人々もいます。再度、Emad Mustakは「DeepSeek R1はNVIDIAにとって強気です。計画はDigitsでLMオペレーティングシステムプラットフォームを構築することです。これには5070のパフォーマンスと128GBの統合VRAMがあり、インテリジェンスボックスとして、2台でR1を量子化し、ファンなしで高速に実行できます。」
次は何でしょうか?SL Windows Subsystem with Linux、そしてR1量子化です。R1量子化とは基本的に圧縮のようなもので、その機能をあまり失うことなく小さくすることです。Digitsはデスクトップ上のGrace Blackwell AIスーパーコンピュータです。
ちなみに、ハードウェアの側面、NVIDIAチップなどに深く精通している人々には、私よりもハードウェア側について多くのことを知っている人が多いことを100%認識しています。下のコメント欄で、あなたの見解を教えてください。
R1、DeepSeek、すべてのアルゴリズムのブレークスルーは、NVIDIAにとって良いことでしょうか、悪いことでしょうか?これは史上最大の買い場なのか、それとも落ちてくるナイフを掴もうとしているのでしょうか?
しかし、本当に大きなポイントは、市場でプレイしている場合、明らかに多くの変動があり、非常にうまくいくかもしれませんし、あるいはその過程で損失を被るかもしれませんが、AIについて話すなら、AIはまだここにあり、まだ非常にうまくいっており、まだ加速し、前進を続けているということです。進歩は続いており、何も変わっていません。
また、この全体で1つの非常に明確で大きな勝者があります。それはオープンソースAIです。1年か2年前には、それがどれほど素晴らしく、どれほど大きく、どれほど強力に、どれほど速くすべてに追いつくかを、私は完全には理解していませんでした。
オープンソースAIが勝利しています。そして、それは主に米国で、多くのAI開発が行われている場所で推進されているため、政府は4年ごとにリーダーシップが変わるたびに、一方向に大きく振れる可能性があり、OpenAIに反対し始め、それを抑制し始める可能性があります。
これらのイノベーションが中国から推進されている場合、できることはあまりありません。オープンソースAIはより大きく、より良く、より速くなっています。私たちが気付いているよりも安全です。安全というのは、消えないという意味で、おそらく消えることはないでしょう。それは続いていくでしょう。それは衝撃に強いのです。
いずれにせよ、AIの株価は上昇し、オープンソースの株価は上昇しています。このビデオを楽しんでいただけたなら、サムズアップを押してください。必ずサブスクライブしてください。私の名前はWes rthです。視聴ありがとうございました。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました