
12,250 文字

クリス・ブラント:現在AIの世界では本当にたくさんのことが起こっていて、最新の変化についていくのが難しいんですけど、みなさん実際に価値を得られてるんでしょうか?今日は今後の展望について掘り下げていきたいと思います。
今日はマーク・クルツさんをお迎えしています。NeuralMagicのCTOで、ディープラーニングの課題に対する最先端のソリューションを作る技術者と研究者のチームを率いておられます。
NeuralMagicは2017年にMITの教授と研究者によって設立され、最近では、NEAが主導し、アンドリーセン・ホロウィッツ、VMware、ベライゾン、アムドックス、コムキャスト、ピラー、リッジラインベンチャーズが参加する3500万ドルのシリーズAラウンドを調達しました。では、AIの現状と今後の展望についてマークさんとお話ししましょう。
ようこそ、マークさん。
マーク・クルツ:ありがとうございます。このポッドキャストに参加できてとても嬉しいです。
クリス・ブラント:AIは今、面白い状況にありますね。文字通り、私のメールボックスはAIの提案でいっぱいです。このAI、あのAI、「うちの会社が生成AIモデルを作ります」など、本当に止まりません。
そして、私のニュースフィードも毎日AI界の何か新しいクレイジーな進展で埋め尽くされています。放送前に話していたように、前回お話した時と比べても、短期間でたくさんのことが変わっていて、本当にクレイジーですよね。
さて、NeuralMagicにいらっしゃるマークさんは、常にこの状況の真っ只中におられるわけですが、現在の生成AIの状況をどのように見ておられますか?今最も注目されているトピックのように思えますが。
マーク・クルツ:コミュニティの推進とエンタープライズの推進があって、コミュニティの方がより多くのハッキングをしています。オープンソースのエコシステムは、エージェントや生活の最適化など、ローカルで実行できる方法を探っています。
一方、エンタープライズはより多くのスペースを持っているため、データの処理方法などについて多くの管理が必要で、エージェントなどについてはかなりリスク回避的です。既存のエコシステムにどう組み込むかを検討し、その上に構築しようとしています。
エージェントではなく、ブログや画像生成など、多くのパスを補強することに注力しています。コード生成も行われていますし、チャットボットの置き換えも試みられています。ブランドやイメージの管理のため、人間による監視が徹底的に行われています。
この2つの側面は、少し異なる方向に進んでいるように思います。
クリス・ブラント:ニーズも全く異なりますよね。企業側から見ると、チャットGPTが市場を牽引する中で、最も大きな動きはおそらくCopilotなどでしょう。多くの企業がCopilotを導入していますが、導入後に「で、これをどう使えばいいの?」という状態になっているように見えます。
企業は現在の導入から本当に価値を見出せているのでしょうか?また、この急速な変化の中で、早期に参入するメリットはあるとお考えですか?
マーク・クルツ:2つ目の質問から答えさせていただきますと、早期参入には絶対にメリットがあります。私のキャリアを通じて、企業でのAI導入を最も妨げてきたのは、コンピュータビジョンやNLP、そして現在の生成AIの波に至るまで、ビジネスマンやプロダクト担当者など、企業全体でAIを理解することでした。
リスクがどこにあり、製品にAIをどう実装するかを理解することです。早期に参入して経験を積むことは、即座の成功の有無に関わらず、絶対に重要です。投資して受け入れる準備をしなければならないものの一つです。
現在の企業での可能性を見ると、従来のユースケースの置き換えに焦点が当てられています。例えば、アマゾンやグーグルなどは、Google AssistantやAmazon Alexaなどの従来のNLP(自然言語処理)チームの多くを生成AIに置き換えています。多くの投資が…
クリス・ブラント:NLPは自然言語処理ですね。専門用語が多くなってきたので、みなさんが理解できるよう確認させていただきました。
マーク・クルツ:はい、アシスタントベースや特に翻訳ベースのものは、生成AIへの置き換えが容易です。ユーザーが100%正確でない可能性を想定していて、人間による監視も可能だからです。
コード生成などの人間のプロセスを補強することは、非常に導入しやすいです。より困難なのは、チャットメッセージなど外向けのメッセージをコントロールする場合です。航空会社の中には、チャットボットを置き換えたところもありますが、必ず「人間のオペレーターに繋ぐ」ボタンを用意しています。
これは成長期の痛みの一つですね。幻覚やバイアスの問題は簡単には解決しないので、それらを理解し、リスク許容度とパイプラインを構築して、企業で展開できるようにすることが重要です。
クリス・ブラント:重要な点を指摘されましたね。早期参入のメリットの一つは、限界を理解し、より良い方向付けができることや、過度な自信を持たないことですね。
興味深い議論の一つは、生成AIの多くのユースケースが創造的なプロセスに関するものだということです。当初、AIは単調な作業から解放してくれて、創造的な仕事ができるようになると言われていましたが、まだそこまでは至っていないように思います。これについてはどうお考えですか?
マーク・クルツ:いくつかの考えがあります。まず、ブログの投稿やコード生成の補強など、即座の創造的なニーズについては、人間による監視が容易な反復プロセスなので、現時点で導入しやすいです。
クリス・ブラント:そうですね、グーグルが全員に提供していますよね。
マーク・クルツ:はい、NotebookLMは興味深い場所にいますね。しかし、完全に自動化されたパスは導入が難しいです。例えば、ロボットを制御して後ろに曲がらないようにしたり、パーツを通過したりすることです。
JSONスキーマやペイロードの受け取りなど、厳密な設定が必要な場合も同様です。トークンの違いで物事が壊れる可能性があります。クリエイティブ業界では、人間にとって説得力があれば、トークンの違いはそれほど重要ではありません。
もう一つの側面は、これらの生成AIモデルが膨大なデータで訓練されていることです。クリーンなデータが枯渇しつつあり、おそらく1桁のオーダーで残っているだけだと思います。それは平均を記憶し、その平均に基づいて予測しているのです。
新しいプロセスや新しい世代が文化や社会に新しい道筋を与えようとしていますが、生成AIはそこまでは近づいていませんし、近い将来もそうはならないでしょう。しかし、人間が次の段階に進むのを助けることはできると思います。
クリス・ブラント:おっしゃっていることは重要ですね。AI業界の一部の人々から、現在利用可能な訓練データの最大能力にほぼ達していると聞いています。
これらの課題を解決するために、異なるアプローチを検討する必要があります。また、訓練データが不足しているため、合成データを作成するという問題もあります。
さらに、コンテンツの権利の問題もありますね。特にクリエイティブな分野では。ハリウッドのストライキはAIが原因でしたし、画像ギャラリーなどについても多くの訴訟が起きています。
生成AIで有名人の顔が混ざっているのを見ると、それらを重要視していることがわかります。訓練データの課題や、その解決策、合成データについて、どのようにお考えですか?
マーク・クルツ:まず訓練データの枯渇について。これは大企業にとって非常にスケールしやすいものでした。彼らは既に大量のデータを持っており、その上にスケールアップできます。基本的には運用費用の問題で、資金を投入してモデルをスケールアップし、その後の展開を見守るというものです。
ザッカーバーグなどは、これは重要な投資であり、見逃せないと言っています。たとえ成功しなくても、ハードウェアはリサイクルできます。現在の状況と印象的な成果を得る最速の方法は、データと計算能力をスケールアップすることでした。
しかし、その限界に達した今、アルゴリズムをよりスマートにする必要があります。古い一方向のアプローチや、文脈トークンを増やすだけでは不十分です。チェーンソフトプロンプティングなどの研究も出ていますが、それは特定の体制、特に構造化されたものに役立つかもしれません。
論理やコーディングを証明しようとする場合など、簡単にテストできるものには有効ですが、それには膨大な計算力が必要です。テスト環境も必要で、すべての問題に適用できるわけではありません。
より創造的でスマートになり、標準的な勾配降下法を超えて進む必要があります。勾配降下法は、これまでに見たことのないような巨大な最適化空間を移動しているだけです。そこでの平均を記憶し、幸いにもデータにオーバーフィットせず、次のバッチに拡張されるトレンドを見つけ出そうとしています。
結論として、今後は小規模なデータ、よりスマートなデータ、よりスマートなアルゴリズムに注力する必要があります。現在のものを実装しようとする人々にとっても同じで、よりクリーンなデータを得て、データを縮小し、単一のモデルですべてを解決しようとせず、コアニーズに焦点を当てたモデルを作り、それらのニーズを満たすためのパイプラインを構築することが重要です。
クリス・ブラント:小規模モデルの考え方に非常に興味を持っています。AIモデルのパフォーマンスとコストを見ると、明確な軌道があります。より多くのトークン化された小規模モデルの方が、パラメータ数の多い大規模モデルよりも魅力的な結果を出しているように思います。
OpenAIなどにとって、大規模モデルを構築することは競争優位性があります。サーバーを満載したデータセンターを持つことができる企業は限られています。しかし、より訓練された小規模モデルから興味深い結果が得られており、エージェントと組み合わせることで、データセンターからエッジに移行する動きも見られます。
小規模モデルを支持されているようですが、複数のモデルとエージェントの統合など、これらがどのように機能するのかについてお話しいただけますか?
マーク・クルツ:大きなポイントは、OpenAIには大規模モデルへの既得権があり、理想的にはすべてを処理できるチャットボットインターフェースを持とうとしていることです。サム・アルトマンも何度も言っているように。
多くの問題が出てきていて、その一つは多くの安全策を設ける必要があることです。基本的にプロンプトエンジニアという新しいポジションを作る必要があります。これは別のコーディング能力で、モデルを変更し、期待する出力を得るためのコンテキストを調整する方法を見つけ出すものです。
そこにもリスクがあります。モデルが変更されると、作成したすべてのプロンプトを再作業する必要があります。すべてを処理できるモデルが必要なわけではありません。また、モデルサイズを拡大してすべての問題を解決しようとすると、リスクの表面積が指数関数的に大きくなります。
表面積を最小限に抑え、モデルを気にしている中核的なタスクに特化させることができれば、専門チーム、専門的な評価を設け、ライフサイクルを管理することができます。
また、これらの小規模モデルは、訓練とファインチューニング、コントロールが可能になります。これが大きなポイントです。OpenAIのAPIやメタのオープンソースを使用する場合、彼らが収集したデータや、そのデータからモデルが学習したことに左右されます。
望む動作や望むアイデンティティに合わせて学習内容を調整することができません。モデルサイズを縮小することで、より特化させることができ、モデルのライフサイクルを管理することが実行可能になります。大規模なモデルの訓練に数百万ドルを費やすのではなく、小規模モデルなら数千ドルで小規模なデータセットにファインチューニングできます。
これはスタートアップや大企業にとって実行可能で、製品に組み込んで積極的に改善できるライフサイクルを構築できます。エージェントについてもおっしゃった通り、LLMの範囲を制限できればできるほど、バイアスや幻覚がなくなるわけではありませんが、安全策を構築しやすくなります。
モデルの動作が異常な時や再評価が必要な時を知ることができます。すべてを解決するモデルを目指すと、人間の解釈者が必要な創造的なインターフェースになってしまいますが、リスクプロファイルを縮小できれば、自動化の段階に到達し、安全策を設けることができます。
インターネットに公開されている場合、人々がプロンプトインジェクションを行っているかどうかも含めて、より重要なのは出力の末尾で、これは正確なモデルなのか、正確な出力なのかを素早くテストできることです。
例を挙げると、非構造化データを解析して数値を抽出しようとする場合、例えば誰かのローンアプリケーションを様々なウェブサイトから埋めようとする場合、最大値が120万ドルと言われたら、それが元の入力に存在するかを確認できます。このように、モデルサイズを縮小することで、より多くのコントロールが可能になります。
クリス・ブラント:エージェントベースのアプローチと、意図的に答えを求めていくこと、例えば「昨晩起きたことで注目すべきことはこれです」とか、「このモデルの方が良くなったのでワークロードをシフトしましょう」など、より大きなエコシステムを構築し、多くの可変コンポーネントを持つことは興味深いですね。
大規模モデルの企業でも、専門家の混合やその他のアプローチを見てきました。OpenAI O1を見ると、非常に異なるアプローチを取っています。保険の例で言及したような「これは理にかなっているか」というバイブチェックのようなものですが、これはAIっぽく聞こえるか、幻覚はないか、などを内部的にチェックし、そのチェックに基づいてより良い回答を出そうとしています。
これは彼らが望んでいた成果を達成できていないとお考えですか?また、これらの大規模モデルは、このような新しい開発をどのように見ているとお考えですか?
マーク・クルツ:大規模モデル企業、特にOpenAIについて言えば、サム・アルトマンが何度も生成AIを目指し、すべてを解決する1つのモデルを作りたいと言っているからです。
一方、メタのヤン・ルクンのイニシアチブは、私の見方と非常に近いと思います。これらは別のツールであり、調整や訓練が可能で、サイズを大きくすればより一般的になり、より多くのデータを記憶できます。興味深いツールですが、生成AIへの道筋にはないと思います。
これはO1やストロベリーリリースにも関係してきます。そして何時間…
クリス・ブラント:そうですね、ストロベリーには何時間あるのか。AIが一般的にストロベリーに何時間あるかを特定する大きな問題がありました。通常2時間という結果が出ていました。これは単語そのものを見ずに、トークンを見ているためです。申し訳ありません、中断して。
マーク・クルツ:素晴らしい名前で話題になっていましたね。OpenAIが商業企業に移行していることを考えると、ストロベリーは彼らにとって素晴らしい動きです。
単一の回答を得るために、より多くのトークンを処理することになります。40倍の計算処理を行うことになります。より多くの資本を得るための素晴らしい動きです。当初はおそらくそれを目指していなかったでしょうが、うまくいきます。
クリス・ブラント:サム・アルトマンは確かに資金調達が得意ですね。現実歪曲フィールドを持っています。
マーク・クルツ:彼らは1つのモデルで全てを解決し、さらに…それは追跡や作業が必要な巨大な表面積になります。ストロベリーなどの場合、必ずしも幻覚がなくなるわけではありません。
最終的に、問題文はそのモデルによって論理的にテストできなければならず、モデルがその特定の形式で訓練されていない限り、論理的思考の中でも幻覚の問題に直面します。
ストロベリーはそれらの問題を解決する効率的な方法なのでしょうか?過去には進化的セルアルゴリズムや強化学習など、数学の問題をよく解決する方法がありました。
ストロベリーは新しいベンチマークを設定し始めていますが、ストロベリーの時間数の問題に関連して、強化学習側には非常に特殊な数学的言語があり、厳密な構造を持っています。自然言語と比べてテストがはるかに容易です。
同じスケールをそれらの技術に適用したら、どうなるでしょうか?次のトークン予測で全てを解決しようとするよりも効率的ではないでしょうか?
クリス・ブラント:スケールは興味深い議論ですね。OpenAIは66億ドルのVC資金を調達し、サム・アルトマンは人工汎用知能(AGI)の構築を目指すと述べています。これは本当に大きな話です。
同時に、多くの人々がOpenAIを去っています。OpenAIの良心と見なされていたイリヤも去り、多くの人材が流出している一方で、これだけの資金を調達してAGIの構築を目指しています。
それには大規模なスケールアップが必要で、純粋な計算能力のコストだけでも、調達した66億ドルを大きく超えると思います。理論上は実現する可能性のある数兆ドル規模の市場において、巨額に見える資金ですが、できる限り大規模化を目指すのは少しリスクが高いように思えます。
マーク・クルツ:もし私がそれほど大きな資金を管理する立場なら、そのレベルまでは投資しなかったでしょう。OpenAIは…
クリス・ブラント:マイクロソフトとアップルが撤退したのは、何かを物語っていますよね。
マーク・クルツ:はい、サム・アルトマンは、おっしゃる通り、現代のスタートアップ時代で最高の資金調達者かもしれません。
クリス・ブラント:スティーブ・ジョブズのような雰囲気がありますよね。「これは素晴らしいものになる」というような。
マーク・クルツ:はい、しかしあなたの指摘通り、彼らは計算能力のスケールアップを目指していますが、それが正しい道筋なのでしょうか?
私の意見では違います。なぜなら、基本的に勾配降下法やディープラーニングを使用する場合、モデルやアプリケーションのあらゆる段階で、これらの幻覚や問題が見られてきました。別の技術がない限り、それらはなくなりません。
また、スケールアップには非常に多くのものが必要です。確かにスケーリング則はありますが、それはべき乗則です。現在のベンチマークを2%でも向上させるには、4050億パラメータから8000億か1兆に増やす必要があるかもしれません。
それは展開にも訓練にもスケーラブルではなく、先ほど指摘された訓練データの枯渇という問題もあります。その計算能力は何に使われるのでしょうか?
世界を記憶するデータを生成できれば、完璧な賭けになります。そのデータを作成し、展開できます。しかし、データが枯渇し、特化の余地がなくなり始めると、これらのエージェントベースシステム、特定の問題を解決するための特化システム、それらの間の相互作用をコントロールする能力の方が、はるかに安全な賭けになります。
それらは資金も訓練データも比較的少なくて済みます。近い将来、うまくいくとは思えません。おそらくこれが、彼らが商業的な展開に向かっている理由でしょう。
クリス・ブラント:サムは自分の仕事の見返りを得たいのでしょうね。それが大きな部分を占めているのでしょう。
OpenAIについてよく話題にしますが、それは現時点で800ポンドのゴリラのような存在だからです。しかし、他にも本当に興味深い企業がたくさんあります。
モデル空間では、メタのLLaMAがあります。MMLUベンチマークなどを見ると、コストに対する性能の面で実際にはとてもよい結果を出しています。オープンソースモデルとして、それは本当に魅力的だと思います。
他にもAnthropicや、イリヤの会社が安全なAIに焦点を当てていくなど、興味深い展開があります。
同時に、OpenAIを去った人々が「ChatGPTの作り方はこうです」「必要なスクリプトは全部ここにあります」というように、モデルを公開しているのも見られます。
ある意味で、これらの作業は簡単になってきています。現時点で大規模言語モデルを作ることはそれほど難しくないと思います。それを有用にし、改良し、細部を調整することは確かに難しいですが。
オープンソースの世界がこの戦いに勝利すると思われますか?これは非常に普及するものになり、何らかの形で公開モデルを持つことは誰にとってもメリットがあるように感じます。
マーク・クルツ:オープンソースはこれらの道筋にとって不可欠だと考えています。主に2つの観点からです。
1つは安全性の観点です。メタやグーグルなど、重みを公開している企業は、著作権や法的問題があるためデータセットは公開していませんが、重みを見ることができ、検査できます。
プロンプトインジェクション攻撃がどこにあるかを探るなど、好きなように検証できます。クローズドAPIではできないことです。安全性に関する側面の一つです。
2つ目は、先ほど指摘した点に関連します。モデルをテストし評価できればできるほど、特定のシナリオに展開できる可能性が高くなります。
ヤン・ルクンやザッカーバーグと直接話したことはありませんが、おそらくそこに焦点があると想像します。内部で使用したい大規模な投資を行ったオープンソースモデルを公開できますが、できる限り多くのテストを望んでいるのです。
クリス・ブラント:開発者も増えますしね。
マーク・クルツ:その通りです。スタックもすべて含めて。これらは単一の訓練実行に数百万ドルを投じる巨大なプロジェクトです。彼らは可能な限り多くの成果を得たいのです。
まさにおっしゃる通り、周りに構築できるスタックと、オープンソースからテストや取得できるものすべてが、クローズドソースが今後1-2年で到達する地点をはるかに超えて前進させるでしょう。
クリス・ブラント:もう一つの側面について触れたいと思います。AIは裏で本当に興味深いことを行っています。初めに話した通り、すべてが急速に変化しています。
GitHubのコードの57%がAIによって生成されているという統計も見ました。ソフトウェア開発には多くの基礎作業があり、テストや継続的インテグレーション/デプロイメントモデルなど、AIが本当に良い仕事をしています。
AIが問題の特定や解決を支援する速度によって、開発がほぼ指数関数的に飛躍したように感じます。過去3年間のテクノロジー分野の変化は、私が今まで見たことのないほど大きく、それはまだ加速しているように感じます。良いことも悪いこともあるでしょうが。
開発作業を行い、人々のシステム開発を支援している立場として、このAIの影響をどのように見ておられますか?
マーク・クルツ:個人的な経験から言うと、私は常にAIを使用しています。CopilotやChatGPT、その他の内部モデルも使って、コストを削減しようとしています。
おっしゃる通り、多くの基礎作業を行っているからです。変数の特定の名前を考えたり、6つの異なる言語でforループの書き方を覚えたりする必要がありません。
クリス・ブラント:好きな言語で書いて、必要なプロジェクトの言語に変換してもらえますよね。
マーク・クルツ:その通りです。これは今後も発展していくと思います。コアコードを補強し、CIやCDプロジェクト、テストプロジェクトなどを組み込むことができます。
現在の世界に確実に組み込まれ始めています。もちろん、企業には社内エンジニアに公開する際に解決すべきIP(知的財産)やデータプライバシーの問題が多くありますが。
1つ注意したいのは、経験者にとっては素晴らしいツールだということです。なぜなら、AIは間違いを犯すからです。指導的な知識を持って「これをこう直して、あれをああ直して」と言えない限り、多くの潜在的な間違いを招き、責任を負うリスクが発生する可能性があります。
アクティブなコーダーで経験がある場合は素晴らしいツールですが、クイックプロジェクトの例を示すことはできても、2000行のコードを出力された場合、それぞれの行が何をしているのかを理解するのは難しいです。これが私が与えたい唯一の注意点です。
クリス・ブラント:サプライチェーン攻撃の問題も提起されますね。プロンプトエンジニアリングやトレーニングデータの改ざん、モデルの改ざんなどを通じて、悪意のあるコードを構築に注入できるモデルがある場合、ある時点で人々は出力を信頼して先に進むようになり、それは非常に危険です。
興味深い例を見ました。ある教師が存在論的な恐怖について話し、「これを行う意味は何なのか、子供たちはAIを使うだけでいいのではないか」と言っていました。
すると誰かが「教授法が間違っている、これは世界の新しいパラダイムなので、子供たちにこれの使い方を教える必要がある」と返答しました。
これはあなたが指摘していることと同じですよね。ある教授は学生にAIを使って論文を書かせ、それを持ち帰って読み、弱い文章をどう特定するか、材料の出所をどう特定するか、まさにAIを活用しながら、バイブチェックと呼ばれるプロセスを通じて検証していました。
AIで働く多くの人を雇用している立場として、人々がこのような、言うなれば批判的思考スキルを欠いている状態でやってくるのを感じますか?AIの課題に取り組むスキルについて、どうお考えですか?
マーク・クルツ:素晴らしい指摘であり、話題です。おっしゃる通り、人々が適応する必要があり、適応したい別のツールだと思います。
古い歴史書の中に、人々が全てを暗記する代わりに鉛筆と紙に移行していることについて書かれた引用を見たことがあります。テクノロジーは進歩し続け、人々は採用を躊躇しますが、
多くの人々の助けになると思います。基礎作業の多くを埋めてくれるので、必要な努力に集中できます。
教育者ではないので、私の意見を真実として受け取らないでください。しかし、これらのツールが与えてくれる基礎を認識し、その上で批判的思考を行い、自分の声や意見に適応させ、個性化する能力が本当に重要だと思います。
適応しなければ、人々は背後で使用し、それを検出するためのツールを競って構築するか、人々を構築することになります。
クリス・ブラント:今では、AIらしさを薄めて検出不可能にするために、どのAIが最適かという議論もたくさんありますね。
さて、NeuralMagicの今後の展望について教えていただけますか?
マーク・クルツ:すべての人が生成AIに大きな投資をしているのを見て、私たちは常に効率的なディープラーニングに焦点を当て、コスト効率とエネルギー効率の両方を実現することに注力してきました。
今日、実際にすべての主要な生成AIモデルの圧縮モデルをリリースしています。これらは冗長性を多く取り除いたモデルです。これは先ほどの指摘にも関連しますが、より良いアルゴリズムを見つける必要があるなら、これらのモデルは大幅に圧縮できます。
これらのモデルには無駄な最適化空間が多く残されており、基本的に量子化を通じて精度を下げるか、プルーニングを通じて接続を移動することができます。
これが私たちの専門分野です。最終的に、一部のプラットフォームでは4倍から、初期のモデルでは最大10倍のパフォーマンス向上が得られます。最新のモデルについてはまだ更新中です。
つまり、10倍のパフォーマンス向上、10倍のコスト削減、10倍のエネルギー効率を実現できます。私たちはこれらをできるだけ簡単にすることに焦点を当てています。
生成AIアプリケーションの制御プランを構築し、すべてのパイプライン部分を組み込み、展開に自信を持てるシステムを作り、銀行を破産させたり、理想的には環境に大きな悪影響を与えたりしないようにすることです。
これが私たちが取り組んでいること、強く推進していることのすべてです。多くはオープンソースの貢献と企業ライセンスで構成されています。
クリス・ブラント:その圧縮モデルの良さを得たい人は、どこに行けばいいですか?
マーク・クルツ:おそらく最初の場所はHuggingFaceの組織でしょう。HuggingFaceのNeuralMagicで、展開方法の説明とともに、すべてのオープンソースモデルを公開しています。
ローカルで実行してテストできます。最終的には、これらのモデルを展開するために12万時間のサーバーが必要なくなり、ローカルマシンや小規模なサーバーで実行できることを願っています。
クリス・ブラント:HuggingFaceは今やAIのグラウンドゼロですね。オープンソースで配布していることは素晴らしいです。世界にとって非常に価値があると思います。
マーク・クルツ:確かにその通りです。
クリス・ブラント:マークさん、お話を伺えて本当に素晴らしかったです。もっと30くらいのトピックについてお話ししたいのですが、そうしたら誰も最後まで聞いていないでしょうね。
とても啓発的で楽しい会話でした。AIの荒れ狂う世界での取り組み、頑張ってください。
マーク・クルツ:ありがとうございます。他のゲストも楽しみにしています。しばらくファンでしたし、素晴らしいゲストと洞察を提供していただき、本当に素晴らしいです。
クリス・ブラント:ありがとうございました。
視聴ありがとうございます。AIの状況についてのご意見をコメント欄でお聞かせください。いいねやチャンネル登録、友人とのシェアもお願いします。次回でお会いしましょう。
コメント