
7,963 文字

私の名前はDavid Andreです。これからDeepSeek V3で何でも作る方法をお伝えします。これは歴史的な瞬間で、決して誇張ではありません。DeepSeek V3はAIの歴史上、初めてクローズドソースモデルを上回るオープンソースモデルです。GPT-4oやClaude 3.5 Sonnetの新バージョンを、多くのベンチマークで上回っています。これから詳しくご説明します。
このビデオでは、CursorでDeepSeek V3を使用する方法と、それを使って何でも作る方法をお見せします。このチャートを見るだけでも、このモデルがいかに印象的かがわかるはずです。X軸は100万トークンあたりのコスト、つまり価格を示しており、Y軸はMLUベンチマークでのパフォーマンスを示しています。ご覧の通り、DeepSeek V3は他のすべてのモデルと一線を画しています。Claude 3.5と同等かGPT-4oより優れた性能を持ちながら、大幅に安価なのです。現在セール中で、価格は信じられないほど安く、100万トークンあたり0.014ドルです。そのため、このモデルを使ってアプリを作るのはほぼ無料同然で、それを今からこのビデオでお見せします。
モデルのアーキテクチャに関して、これはMoEとして知られる専門家の混合モデルです。つまり、このモデルは単一の大きな671パラメータのモデルではなく、専門家として知られる小さな特殊化されたモデルで構成されています。例えば、あるエキスパートは数学が得意で、別のエキスパートは化学やコーディングが得意というように、それぞれのタスクの特定の側面を扱うように訓練された複数の小さな特殊化モデルがあります。
では、このような優れたモデルを作ったのは誰なのか、その背後にある企業は何なのでしょうか。DeepSeekは中国のAI企業で、彼らのAIモデルを全てオープンソース化しています。過去1年半にわたってこれを行い、多くの印象的なモデルをリリースしてきましたが、DeepSeek V3のリリースは、中国がAI能力の面で急速に米国に追いついていることを示しています。
ここで、DeepSeekが競合を上回る6つの異なるベンチマークをお見せしましょう。まずはMLU、次にGPQ Diamondです。これは博士レベルの非常に難しい質問で、ここではDeepSeekを上回るのは新しいSonnet 3.5だけです。次にM-500では、DeepSeekが最高で、Sonnet 3.5よりも優れています。
次にAMYベンチマークですが、これはAIと機械学習における倫理に焦点を当てています。明らかにDeepSeek V3は市場で最も倫理的なAIモデルです。次にCodeForcesベンチマークがありますが、これは競技プログラミングで、ここでは他を完全に圧倒しています。最も近いのは同じ会社のDeepSeek V2です。そして、ソフトウェアエンジニアリングのSWE-Bench Verifiedでは、Claude 3.5 Sonnetにのみ上回られています。
つまり、これは世界最高のモデルかもしれません。唯一の反論としては、新しいClaude 3.5 Sonnetが一部のベンチマークではまだ優れているということです。これは「干し草の山から針を見つける」問題でのパフォーマンスで、トークンウィンドウのすべての部分で完璧な10点満点のスコアを獲得しています。これは、非常に長いプロンプトを含めても、他のモデルのように途中で重要な情報を忘れることがないということを意味します。
このモデルは素晴らしいものですが、ただし注意点があります。中国では、すべての企業が政府の監督下にあります。つまり、政府がDeepSeekのデータを見たいと思えば、非常に簡単に入手できるということです。また、chat.deepseek.comにアクセスすると(これがモデルを試す最も簡単な方法です)、広告ブロッカーの使用が許可されていません。
デビッド、それはどういう意味なのかと思われるかもしれません。あなたのデータが学習に使われる可能性があると考えてください。オープンソースモデルだからといって大丈夫、と思うかもしれません。確かにその通りですが、このモデルは671億のパラメータを持っているため、10台のRTX 4090を購入してもローカルで実行することはできません。どこかにホストする必要があり、現在便利にホストできる唯一の場所は、この会社が所有するDeepSeekプラットフォームだけです。これを覚えておいてください。
とはいえ、このモデルには多くのポジティブな側面があります。個人的に、私は間違いなくオープンソースの支持者で、DeepSeekは世界最高のオープンソースモデルです。この会社がモデルと研究論文の両方をオープンソース化していることを高く評価しています。AGIが間近に迫っていることを考えると、オープンソースは本当に正しい方向だと思います。
単一の企業や単一の主体、政府がAIを管理することは、私に言わせれば最大のリスクです。しかし、トップAIモデルが完全にオープンソース、オープンウェイト、オープンリサーチ、すべてがオープンであれば、超知能は分散化され、単一の主体による悪用を防ぐことができます。中国の企業が基本的にOpenAIの仕事を代わりにやっているのを見るのは、ある意味面白いですね。
それでは、実際の構築に移りましょう。まず始めるには、Cursor内に新しい空のプロジェクトを設定する必要があります。Cursorを開き、空のフォルダを開きます。ここで新しいフォルダを作成します。VS CodeやWin Surfなどのコードエディタをお使いいただいても構いません。main.pyという新しいファイルを作成しましょう。
Vectalに戻って、次のステップを確認しましょう。DeepSeekプラットフォームにログインする必要があります。このリンクをクリックすると、ログインページに移動します。繰り返しになりますが、これは中国の企業なので、メインのメールアドレスとパスワードは使用しないことを強くお勧めします。
ログインすると、ダッシュボードが表示されます。青い通知には、DeepSeekモデルがV3にアップグレードされたことが表示されています。また、2月8日午後4時までは、すべてのAPIコールが割引料金で課金されるとも書かれています。つまり、5週間ほどあるということです。24時間連続で生成し続けても、モデルを24時間365日稼働させても、コストは1ドル50セントほどです。
Vectalに戻りましょう。このステップは完了したので、完了としてマークします。次にドキュメントからPythonコードをコピーする必要があります。これはDeepSeekドキュメントへのリンクです。説明を簡単にするために、このリンクは説明欄に記載しておきます。ここで「Your First API Call」セクションに移動する必要があります。
最初に知っておくべきことは、彼らがOpenAI SDKを使用しているということです。これは素晴らしいことです。なぜなら、APIコールが親しみやすく、過去にAIエージェントを構築したことがある場合、例えばNew Societyのメンバーで、最初のAIエージェント構築に関するワークショップを受けた場合、このAPIの使用方法とコードの構造化方法を知っているからです。
基本的に、DeepSeekは彼らのAPIを使用するのをとても簡単にしてくれます。さらに下にスクロールすると、実際に必要なコードが表示されます。Pythonに切り替えて、このコードブロックをコピーしましょう。プログラマーでなくても、コードを一行も書いたことがなくても、これは簡単にできます。これらのAIツールを使用して、何かを作り始めてください。これは歴史上、アプリ、AIスタートアップ、モバイルアプリ、ゲーム、何でも構築するのに最も簡単な時代です。
「ああ、デビッド、私はノーコードツールしか使いません」という言い訳は使わないでください。それは負け組の考えです。これらのAIツールを使えば、平易な英語でコードを書くことができます。英語でタイプできさえすれば、問題ありません。
コードを貼り付けました。ご覧の通り、ここにAPIキーを入れる必要があります。APIキーの取得方法をお見せする前に、DeepSeekが彼らのGitHubでオープンソース化した技術報告書を簡単に見てみましょう。これは30ページ以上の純粋な知識の集積です。最先端のオープンソースAIモデルを構築するために必要なことを示しています。
AIに本気で取り組みたい方には、これを読むことを強くお勧めします。平易な英語で書かれた4ページの簡略版が欲しい場合は、New Societyで見つけることができます。クラスルームのTemplatesとPresets内で、このビデオや他の私のビデオからのすべてのコード、そしてDeepSeek技術論文の4ページの要約を見つけることができます。興味がある方は、下記リンクからNew Societyにぜひご参加ください。
続けましょう。Vectalでの次のステップは、実はAPIキーではなく、2ドルをチャージすることです。DeepSeekプラットフォームに戻ると、右here
あなたの残高が表示されます。初めて使用する場合は、おそらく0と表示されているでしょう。左の「Top up」をクリックして、2ドルをチャージしてください。このモデルは信じられないほど安価なので、2ドル以上入れる必要は本当にありません。
支払い方法として、実際にPayPalが利用可能です。少なくともそれは、DeepSeekをあまり怪しく見せない一つの要因です。2ドルをチャージしたら、使用状況に戻って、サイトを更新すると、ここに新しいチャージ残高が表示されるはずです。
それが完了したら、最後にAPIキーを取得できます。DeepSeekプラットフォームに戻り、左のAPIキーをクリックします。私はすでにいくつか作成していますが、まだ作成していない場合は、新しいAPIキーの作成をクリックしてください。私はこれをVLA(私のAIスタートアップの名前)と名付けます。そしてAPIキーの作成をクリックします。
必ずコピーしてください。Cursorに戻り、これらの引用符の間のすべてを削除します。引用符が2つだけになっていることを確認し、その間をクリックしてCtrl+V(Macの場合はCommand+V)を押して保存します。これが正しい見た目です。もちろん、いつものように、APIキーは誰とも共有しないでください。このビデオをアップロードする前に、私のキーは削除します。
モデルを実行する前に、実際にもう一つやらなければならないことがあります。それはOpenAIパッケージのインストールです。ご覧の通り、黄色で下線が引かれているのは、パッケージがインストールされていないことを意味します。
幸いなことに、インストールは非常に簡単です。上部に移動して新しいターミナルを開くか、WindowsではCtrl+J、MacではCommand+Jを押します。ここで単純に「pip install openai」と入力します。Condaを使用している場合は、Conda環境を開きたい場合があります。私は「conda activate test」を実行します。
Condaが何かわからない場合は、VLAなどの任意のAIモデルに「Condaとは何か、そしてどのようにセットアップするのか」と尋ねてください。それが正確に教えてくれます。Vectalの良い点の一つは、あなたのアクティブなタスクと作業内容をすべて把握していることです。他のAIツールにはない追加のコンテキストを持っているので、タスクをより迅速に完了するために協力することができます。起業家やビジネスオーナーの方は、vector.aiにアクセスして確認してください。
Cursorに戻りましょう。Conda環境を有効化したら、「pip install openai」を実行するだけです。ご覧の通り、私はすでに持っています。また、右下隅で環境を選択していることを確認する必要があります。Pythonのバージョンをクリックしてください。私の場合は3.9と表示されていますが、これを私が持っているtest環境に変更する必要があります。これで下線が引かれなくなり、パッケージがインストールされた正しい環境を使用していることを意味します。
これで残っているのは、Pythonファイルを実行して、正常な応答が得られるかどうかを確認することだけです。そしてバーンと、「こんにちは、どのようなお手伝いができますか?」という応答が表示されました。プロンプト自体は特に凝ったものではなく、「あなたは役立つアシスタントです。こんにちは」というものです。
実際には、これをもっと便利にしていきます。トークンストリーミングを実装し、また、CursorでDeepSeekをモデルとして使用する方法もお見せします。Cursorを使用し、コードを編集する際に、DeepSeek V3がそれらを動かすことになります。先ほどプレゼンテーションで見たように、ソフトウェアとプログラミング関連のタスクに非常に優れているからです。
Vectalでの次のステップは、トークンストリーミングを実装することです。実際にCursorを使用してこれを行います。ComposerまたはChatを開きます。私はエージェントとComposerを使用します。モデルにはSonnet 3.5を使用しますが、実際には何を使用しても構いません。
main.pyを更新して、トークンストリーミングのトークンを正しく出力するようにします。現在、トークンストリーミングはfalseに設定されており、応答全体を一度に出力しているからです。まず最初にすべきことは、streamをTrueに設定することです。そして、トークンストリーミングのチャンクを出力する必要があります。
応答オブジェクトの各チャンクに対して、実際にその中に内容があるかどうかをチェックし、ある場合はそのチャンクを出力し、応答全体が生成されるまでそれを繰り返します。これがどのように機能するか見てみましょう。「count to 100」と入力して、異なるプロンプトであることを確認しましょう。
そしてそこにあります。100までカウントしているのが見えます。トークンがストリーミングされているのが分かります。つまり、メッセージ全体が完了するまで待つのではなく、トークンが生成されるたびに表示されているのです。これはユーザー体験がはるかに良いですね。これで完了としてマークしましょう。
では、実際にCursor内でDeepSeekを使用する方法を見てみましょう。まず最初にする必要があるのは、Cursorを開き、VS Code設定ではなくCursor設定をクリックし、右here[ここ]のModelsをクリックすることです。最初のアクションは実は直感的ではありません。他のすべてのモデルを無効にする必要があります。
アクティブなモデルのチェックをすべて外し、下にスクロールして、OpenAI APIキーの下で、baseURLをapi.deepseek.comに変更する必要があります。デフォルトでは、api.openai.com/v1のようになっていますが、api.deepseek.comに変更する必要があります。保存をクリックし、APIキーについては同じプロセスを踏みます。
ここにある同じものを使用できます。それが最も簡単でしょう。同じAPIキーをコピーして、Cursor設定を再度開き、ここでこれを置き換えます。繰り返しになりますが、他のすべてのモデルが無効になっていることを確認し、検証をクリックする前に、新しいモデルを追加してdeepseek-chatと名付ける必要があります。
モデルを追加し、deepseek-chatのみが有効になっていることを確認し、検証をクリックしてOpenAI APIキーを有効にします。すぐにエラーが出なければ良好です。そうでない場合は、「モデルは使用できません」などと表示されます。オンにできれば、うまく機能している兆候です。
左側でテストできます。エージェントモードでは使用できませんが、チャットモードでは使用できます。そのことを覚えておいてください。チャットモードで、ここで自分のモデルが見えることを確認し、「Hey, who are you?」と言うことができます。「I’m DeepSeek developed by…」と応答するはずです。
一般的な応答が返ってきましたね。それが私の望むところです。「Be specific, what kind of LLM are you?」とより具体的に聞いてみましょう。そうすると、「I’m DeepSeek Chat developed by DeepSeek Company」と応答がありました。ご覧の通り、DeepSeekをCursor内に正常に統合し、コードを書くために使用できるようになりました。
「Update main.py to save the streamed tokens into a simple txt file. Also add more explanatory comments」と入力してみましょう。単純なコーディングタスクをどのように処理するか見てみましょう。Cursorインターフェース内でうまく機能しているようですね。
適用をクリックすると、これらが変更点です。コメントを追加し、下部でoutput.txtファイルを開いて、そのテキストを内部に保存し始めています。それをやってみましょう。「count to 100」 – いや、「count to 500, each number on a new line」にしましょう。これはCursorが私の次の考えを予測しているんですね。
これを実行すると、新しいファイルが作成されるはずです。そしてそこにあります。このファイルを開いてみましょう。実際には、すべてを生成した後に保存されるかもしれません。見てみましょう。確認する方法は一つしかありませんね。
バーンと、そこにありますね。はい、すべてを生成した後にのみ保存されます。おそらく、継続的に保存するように変更したい場合もあるでしょう。もしかしたら、これで十分かもしれません。DeepSeek V3を使用するユースケースによりますね。
これで最後のタスクを完了としてマークできます。これでDeepSeek V3モデルを使って何でも作る方法を学びました。このビデオを楽しんでいただけたなら、vector.aiにアクセスしてサインアップしてください。これは私が過去2ヶ月半かけて構築したAI生産性ツールです。
もちろんタスクAI機能を備えていますが、主な特徴は、あなたのアクティブなタスク、ユーザー設定を把握し、作業を30〜50%速く完了するのを助ける統合型AIエージェントです。再度になりますが、超生産的になりたい方は、vector.aiにアクセスしてサインアップしてください。次回お会いしましょう。
コメント