DeepSeek R1を今すぐ試す方法(ホスト型、ローカル型、安全な方法!)

2,282 文字

How to try DeepSeek R1 Right Now (Hosted, Local, Safe!)
Join My Newsletter for Regular AI Updates 👇🏼 Links 🔗👉🏻 Subscribe: 👉🏻 Twitter: https:/...

みんながDeepSeek R1について話していますが、実際に試してみたいですか?具体的な方法を複数紹介しましょう。
まず1つ目の方法は、DeepSeekを直接使用する方法です。chat.deepseek.comにアクセスし、ログイン後にインターフェースに進みます。ChatGPTそっくりのインターフェースで、DeepSeek、つまりDeepSeek R1モデルを選択するだけです。また検索機能もあるので、思考モデルを使いながらウェブ検索もしたい場合はそちらを使用します。
ただし、私のように中国のサーバーでホストされているモデルのプライバシーとセキュリティを心配する方もいるでしょう。質問した内容は全て中国共産党によって保存・分析されると考えておいた方がよいでしょう。そういった懸念がある方には、より良い選択肢を紹介します。
2つ目の選択肢は、Grockです。驚異的に高速な推論速度を誇り、最近新しいDeepSeek R1モデルを導入しました。開示しておきますが、私はGrockに少額出資しています。gro.comにアクセスし、DeepSeek R1 Distill LLaMA 70bを選択します。これは完全なDeepSeek R1モデルではなく蒸留版ですが、非常に優れた性能を発揮し、思考能力も備えており、250トークン/秒で実行できます。
実際の速さをお見せしましょう。「Pythonでテトリスゲームを書いて」と入力すると、ほら、この通りです。全ての思考プロセス、思考の連鎖が数秒で行われ、全体の出力も数秒で完了します。275トークン/秒を達成しました。DeepSeekの蒸留モデルで超高速な推論を実現したい場合は、Grockを試してみてください。
ローカルで実行したい場合は、私のお気に入りのローカル推論アプリであるLM Studioを使用できます。これについても開示しておきますが、私はLM Studioにも少額出資しています。ただし、投資先の製品だから紹介しているわけではなく、それぞれのユースケースで単に私のお気に入りだからです。
lm-studio.aiにアクセスし、適切なバージョンをダウンロードしてください。インストール後の使い方をお見せしましょう。LM Studioを起動すると、このような画面が表示されます。Discoverタブに移動してクリックし、「deepseek」で検索するだけです。複数のバージョンが表示されます。
完全なDeepSeek R1モデルをローカルで実行するには、複数の強力なGPUか、多数のMac miniを接続した環境が必要で、基本的にかなり高価な環境が必要になります。ただし、蒸留版をローカルで使用すれば非常に高速に動作します。「deepseek」で検索すると、R1 Distill Qwen 7BとR1 Distill LLaMA 8Bが表示されます。
例えばこれをダウンロードする場合、クリックすると右側に様々なダウンロードオプションが表示されます。基本的に量子化が最も少ないものを選ぶべきで、それを判断するには最も大きいQ番号を探します。ここではQ8が表示されていて、これはQ4よりも量子化が少なくなっています。量子化が少ないほど通常は品質が高くなりますが、おそらく違いに気づくことはないでしょう。私は通常Q4 KMを選択していますが、すでにダウンロード済みです。
この緑のアイコンは、完全なGPUオフローディングが可能であることを示しています。つまり、モデル全体をGPUのVRAMに載せることができます。オフローディングが少し制限される場合は若干遅くなりますが、基本的にここを見れば、あなたのマシンでどの程度うまく動作するかが分かります。これがLM Studioの優れている点です。
より強力なGPUをお持ちの方向けの他のバージョンもあります。Distill Qwen 14b、32b、そしてLLaMA 70b Distillなど、マシンで実行可能な限りどれでもダウンロードできます。
ダウンロード後の実行方法をお見せしましょう。「Select a model」をクリックし、DeepSeek R1 Distill 8Bを選択してクリックし、「Load model」を押すだけです。私の環境はRTX 5090で32GBのVRAMを搭載していることを念頭に置いて、これから見せる推論速度をご覧ください。
モデルが読み込まれたので、新しいチャットを開始しましょう。「PythonでSnakeゲームを書いて」と入力すると、思考の連鎖が実際に見えます。これは驚くほど高速で、どう見ても速いです。ローカルで実行される完全な思考モデルで、77トークン/秒を達成しています。
これで、完全なホスト型のDeepSeekの使用方法、米国企業であるGrockでの驚異的な推論速度の実現方法(中国にデータを渡す必要はありません)、そして誰にもデータを渡したくない場合のローカル実行方法が分かりました。これがオープンソースの素晴らしさです。
LM Studioの代替としてOLlamaという素晴らしい製品もありますが、ビルトインのインターフェースがないため、自分でインストールする必要があり、少し技術的になります。
以上が、現時点でDeepSeek R1を実行する方法です。ぜひ試してみてください。これは驚くほど優れたモデルで、オープンソースの未来に非常に期待が持てます。この動画が気に入っていただけたら、いいねと登録をお願いします。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました