
12,508 文字

このビデオでは、現在使える最高のAI動画生成ツールの一つをご紹介します。Alibabaが開発した「One」というツールで、最も素晴らしいのは完全に無料でオープンソースであることです。つまり、ダウンロードして自分のコンピュータで無制限に無料で使用できます。このビデオでは、その機能を紹介し、他の主要な動画モデルと比較します。そしてもちろん、このツールをインストールして自分のコンピュータで実行する方法を段階的に説明します。
まずはその素晴らしい例をいくつか見てみましょう。これがどれほど優れているかを示すためです。これはテキストから動画を生成した例で、プロンプトは「広々とした芝生の上でピラティスをする人々のグループ」です。シーンには多くの人と動きがありますが、すべてが非常に一貫していて現実的に見えます。
ここに別の素晴らしいデモがあります。プロンプトは「屋内ステージでボールルームダンスを披露する2人のアジア人」です。回転や動きが多くあるにもかかわらず、Oneは非常に一貫性を持ってこれを処理できています。他の動画生成ツールで見られるような歪みや変形がほとんどありません。これは非常に印象的です。
2匹の猫によるボクシングの試合の例もあります。最高の動画生成ツールでさえ、このような一貫性のある戦闘シーンを生成することができません。再び、Oneは複雑な動きを処理し、すべてを一貫させるのが本当に得意なのです。
トマトをスライスする犬の印象的な例もあります。GoogleのV02を除けば、トップクラスの動画生成ツールの中でこれを正確に行えるものはありません。トマトをこのようにリアルにスライスすることができるものはありません。これは超印象的な動画生成ツールです。
ヨーロッパの宮殿で踊るカップルの素晴らしい例もあります。再び、すべてが非常に一貫しており、歪みもなく、彼らのダンスは超リアルに見えます。
素晴らしいのは、テキストから動画だけでなく、画像から動画も作成できることです。つまり、Stable Diffusionを使用して画像を作成したり、既存の写真を使用したりして、それをこのAIに動画の最初のフレームとして入力できます。画像から動画へという機能があるため、このようなアニメーション生成にも非常に適しています。
最初のフレームとしてこの画像をアップロードした漫画生成の別の例もあります。
さて、デモはこれくらいにして、実際にテストしてみましょう。使い方はすぐに説明します。ここでは、OneをGoogleのV2や他のトップビデオ生成ツールであるCling 1.6 ProやHigh Law Miniaxと比較しました。これらはすべて最先端であり、最高の動画生成ツールの中でもトップクラスです。しかし、これら3つはすべて商用モデルで、つまりクローズドソースであり、使用するには料金を支払う必要があり、ダウンロードして自分のコンピュータでローカルに実行することはできません。
一連の非常に難しいプロンプトでそれぞれの動画生成ツールを試し、3つの生成の中から最良のものを選びます。例えば、ここにOneからの3つの生成があり、この3つの中で一番下のものが最も良く見えると思います。
これが4つの動画生成ツールすべてを比較した結果です。プロンプトは「激しい剣の戦いをする2人の侍」で、これが4つのビデオ生成ツールそれぞれの3回の生成の中で最良のものです。興味深いことに、Oneのすべての生成で、侍がマスクとヘルメットを着用しているように決定されました。ご覧のように、これは非常にリアルな戦闘シーンに見えます。彼らは剣をぶつけ合うだけでなく、一方が相手に突進して蹴りを入れようとしています。物理的な動きとリアリズムの点で、このOneの生成が最も優れています。
右上にはGoogleのV2がありますが、多くの点で素晴らしいものの、戦闘シーンを本当に処理することはできません。動きが不自然で、お互いに攻撃していないように見えます。彼らの戦い方には何か変なところがあります。
Cling 1.6 Proはここでは混乱しています。多くの歪みがあり、左側の人物は1本の剣から始まり、突然2本の剣を持っています。High Law MiniMaxも混乱しており、多くの歪みがあります。彼らの戦い方や剣を振り回す方法には何か変なところがあります。
これら4つの中で、私はOne 2.1が唯一リアルに見える戦闘シーンを生成できると言えるでしょう。コメント欄で皆さんの考えを聞かせてください。
次のテストです。プロンプトは「顔に涙を流しながら抑えきれずに笑っている女性」です。One 2.1では、彼女は本当に抑えきれずに笑っているように見え、何か非常におかしいことがあったようです。さらに、彼女の顔には涙が流れています。V02では、この女性も顔に涙を流しながら抑えきれずに笑っています。OneとV2を比較すると、Oneの生成の女性はV02の女性よりもはるかに激しく笑っているように見えます。
ClingとHighlawには笑っている女性がいますが、顔に涙は流れておらず、どちらの生成もOne 2.1の女性ほど激しく笑っていません。再び、このプロンプトに対して、「顔に涙を流しながら抑えきれずに笑っている女性」というプロンプトに対して、私はOneに軍配を上げなければなりません。
もう一つの非常に難しい例です。プロンプトは「平均台で完璧なバック転を行う体操選手」です。これらの生成ツールのどれも正しく生成できませんでした。Oneの場合、平均台でパフォーマンスを行う体操選手はいますが、バック転はありません。そして何らかの理由で彼女は浮き上がって平均台に浮かび上がります。
V2の生成ですが、おやまあ、それは痛そうです。もし現実でこれが起こったら、彼女の首は100%折れてしまうでしょう。完璧ではありませんが、少なくとも平均台で何かをしている体操選手はいます。
ClingとHighlawについては、何が起こっているのかわかりません。誰か説明してくれませんか?明らかに両方の生成は失敗であり、ここで勝者を選ぶのは難しいです。最良の結果という点では、OneとV2の間で引き分けだと言えるでしょう。
次に、アニメを生成する能力をテストしたいと思いました。プロンプトは「蒸気の立つコーヒーカップを囲んで友達が笑い合う居心地の良いカフェのシーン、アニメスタイルで」です。Oneの生成は本当に良く見えます。これはアニメ番組や映画からそのまま抜き出したシーンのように見えます。
GoogleのV02は良いですが、キャラクターは本当に伝統的なアニメキャラクターには見えません。どちらかというとアメリカナイズされたような感じです。彼らが手を動かすときの指に注目してください。かなりの歪みがあります。また、このシーンは3Dすぎて流動的すぎるように見え、それはアニメの本来の見た目ではありません。
驚くべきことに、Cling 1.6 Proはこれは本当に素晴らしい生成です。これもアニメ番組からそのまま抜き出したシーンのように見えますが、コーヒーカップから蒸気は立っていません。さらに、これはカメラが右にパンするだけで、キャラクターは口以外ほとんど動かないという非常にシンプルなシーンです。
High Law MiniMaxはテキストから動画への2Dアニメシーンを生成できませんでした。これは近いものの、まだ非常に3Dであり、私が求めていたスタイルではありません。
皆さんはどう思いますか、この4つの生成の中で、私はOne 2.1を勝者として選びます。コメント欄で皆さんの考えを聞かせてください。
次に、ディズニーピクサースタイルのアニメーションを生成する能力をテストしましょう。以前のビデオでこのクリップを紹介しました。プロンプトは「美しいキラキラの白いドレスを着た王女が、赤く光る目を持つ巨大なドラゴンから逃げる、ディズニーピクサーアニメーションスタイルで」です。以前、すべての他の動画生成ツールでこのプロンプトをテストしましたが、これは驚くほど難しいプロンプトであり、AlibabaのOne以外にはどれも正確に生成できませんでした。
ご覧のように、これは確かにキラキラの白いドレスを着た王女であり、彼女はドラゴンから逃げています。GoogleのV02を見ても、王女はドラゴンから逃げていますが、彼女は殺されそうです。これはV2が最高のものであることを考えると驚くべきことです。
Clingはディズニーピクサーアニメーションスタイルさえ生成できませんでした。Miniaxは意外にもこれらのディズニーピクサースタイルの動画を生成するのが非常に得意ですが、王女は本当にドラゴンから逃げておらず、ただゆっくりと忍び足で離れているだけです。再び、この場合、私はOneにポイントを与えなければなりません。
動画におけるテキストと文字の生成能力に関するテストです。プロンプトは「教授が黒板にhelloと書く」ですが、どれも正しく生成できませんでした。まずOneを見ると、教授は実際に黒板に「hello」という単語を書いていません。テキストはすでにそこに存在しています。V02でも、教授は黒板に「hello」の各文字を書いていません。黒板への書き方にはいくつかの欠陥が見られます。
Cling 1.6 Proでは、彼は何をしているのでしょうか?誰か説明してくれませんか?いずれにせよ、Clingはテキストの処理が非常に苦手であることで知られており、動画内の一貫したテキストを生成することができません。High Law Miniaxでは、この生成は単に間違っています。この場合、OneとV2の間で引き分けだと言えるでしょう。
これらは私の簡単なテストのいくつかです。Oneがこれらのケースのほとんどで勝利しただけでなく、4つの中で唯一無料でオープンソースであることを覚えておいてください。それはクレイジーではありませんか?そしてこれがどれほど優れているかを示すために、V benchと呼ばれるこの動画モデルのリーダーボードを見てください。総合スコアでランク付けすると、最新バージョンのOne 2.1は現在トップにあります。それはSora、Luma Minimax、Gen 3などのすべてのクローズドソースおよび商用モデルを上回っています。これは非常に印象的です。
さて、One 2.1がどれほど優れているかを理解していただけたと思いますので、次に実際にどこで使用できるかを説明します。まず、インストール方法とコンピュータでのローカル実行方法を説明します。少なくとも8GBのVRAMが必要ですが、十分に良いGPUをお持ちでない場合は、オンラインで使用できる方法がいくつかあります。
最初の場所はOneの公式プラットフォームであるW.V Videoで、説明欄にリンクを貼っておきます。無料アカウントにサインアップすると、最初に50クレジットが付与され、さらに毎日チェックインするだけで無料の日々のクレジットが得られます。動画を生成するには約10クレジットが必要なので、かなり寛大な無料プランです。
ここでは画像を生成することもできますし、AIビデオをクリックして動画を生成することもできます。テキストから動画へというオプションがあり、プロンプトを入力し、アスペクト比を選択し、音響効果を追加することもでき、そして動画を生成をクリックします。また、画像から動画へというオプションもあり、開始フレームとして使用する画像をアップロードし、プロンプトを入力できます。これはオプションなので、空のままにすると、このフレームから動画を生成しようとします。
開始または終了フレーム機能をオンにすると、開始フレームと終了フレームをアップロードすることもできます。例えば、これら2つのフレームをアップロードすると、その間のすべてを生成する動画が作成されます。それが一つの使用場所です。
もう一つの方法はAlibabaのQuinプラットフォームです。これは動画生成ツールだけでなく、画像を生成したり、通常のチャットボットのようにチャットしたり、この深い思考モードを使用したり、ウェブを検索したりすることもできます。ただ、その動画生成機能を示すために、ここにプロンプトを入力し、動画生成をクリックします。ここにドロップダウンがあり、さまざまなアスペクト比を選択できます。16:9を選びましょう。そして生成をクリックすると、これが得られます。「シェフになるために学ぶポメラニアンの子犬のグループ」、非常に素敵です。
また、説明欄にリンクを貼っておくこの無料のHugging Faceスペースもあります。再び、テキストから動画へと画像から動画へのオプションがあります。使用するのは非常に簡単なインターフェースで、ここにプロンプトを入力し、生成をクリックするだけです。これが得られます。このHugging Faceスペースは時々混雑することがあるので、実際に成功した生成が得られるかどうかはわかりません。通常、待ち時間は非常に長いか非常に短いです。
利用できる他の場所をいくつか紹介します。これらは有料プラットフォームですが、Monicaを使用することができます。Monicaはすべての最高のAIモデル、画像生成ツール、動画生成ツールを一つの場所に集めています。動画生成を選択すると、One 2.1だけでなくGoogleのV02もすでにここにあることがわかります。Monicaを使用したい場合は、説明欄に素敵な割引コードがありますのでご確認ください。
これを気に入っていただけると思います。NVIDIAと提携して、RTX 4ではなく、5でもなく、RTX 6000 Adaをプレゼントします。これには驚異の48GBのVRAMがあり、最高のAIモデルを自分のコンピュータでローカルに実行できます。さらに、Jensen Hwangによって個人的にサインされています。これは限定品で、あなたのものになるかもしれません。今年3月17日から21日にかけて開催される彼らの今後のGTCイベントのセッションに参加するだけです。これはカリフォルニア州サンノゼで直接参加するか、オンラインで参加できるグローバルカンファレンスで、AIからロボット工学、コンピューティングまで幅広いトピックをカバーしています。業界のトップリーダーや専門家による多くの講演があるので、多くの価値を得ることができます。無料で仮想参加に登録できます。3月18日のJensen Hwangによる基調講演を強くお勧めします。彼はAIエージェント、ロボット工学、コンピューティングに関する多くの洞察を共有する予定です。
個人的に非常に興味を持っている他のセッションがいくつかあります。3月19日には人型ロボットに関する講演があり、非常にエキサイティングです。そして3月20日には量子コンピューティングに関するこの講演も非常に洞察に富んでいるでしょう。Jensenはこのスペースの多くの業界リーダーとこの講演をホストするので、量子コンピューティングで何が起こっているかについて最新の概要を得ることができます。
さて、RTX 6000 Adaのプレゼントに戻りましょう。どのように応募するのでしょうか?説明欄のリンクをクリックすると、応募方法に関するすべての指示が表示されます。
さて、ビデオに戻りましょう。テキストから動画へと画像から動画への両方でOneを使用できるもう一つの場所は、このFというプラットフォームです。これも説明欄にリンクを貼っておきますが、これも有料サービスです。実行する前に5ドルを追加する必要があると思います。そして1つの動画は約4セントかかります。
これらはすべて、オンラインでOneを使用できる場所です。次に、コンピュータにローカルにインストールする方法に移りましょう。そうすれば、無制限に無料で実行できます。最も素晴らしいのは、これがApache 2ライセンスの下にあることで、商業利用を含め、ほとんど何でもできることを意味します。説明欄にこのGitHubページへのリンクを貼っておきますが、そこにはすべての仕様が含まれています。
現時点では、少なくとも8GBのVRAMを持つCuda GPUが必要であることに注意してください。4GBのVRAMでも実行できるように、より量子化されたバージョンが近日登場する予定なので、お楽しみに。そして素晴らしいのは、これがすでにComfy UIに統合されていることで、これは今日使用する予定のものです。選択できる4つのモデルがあり、後で説明します。それだけです。
このリンクをクリックして、Comfy UI統合をチェックしてみましょう。これについても説明欄にリンクを貼っておきます。これはすでにコンピュータにComfy UIがインストールされていることを前提としています。もしまだインストールしていなければ心配しないでください。Comfy UIのインストールに関する完全なステップバイステップのチュートリアルビデオを作っています。実際、使い方に慣れると非常に簡単です。まだComfy UIをお持ちでない場合は、このビデオをチェックしてから戻ってきてください。
しかし、Comfy UIがすでにインストールされていると仮定して、Oneをインストールするための手順はこちらです。今からこれを説明しましょう。
まず、このテキストエンコーダーをダウンロードする必要があります。このリンクをクリックすると、fp16ファイル(約2倍大きい)またはfp8ファイルがあります。小さい方は品質を少し犠牲にしますが、より効率的です。もし低グレードのGPUでVRAMが少ない場合は、fp8が最良の選択肢です。実際、それをダウンロードするつもりです。これをクリックして、Comfy UIのmodelsフォルダ内のtext_encoderフォルダに保存します。
次に、このVAEファイルをダウンロードする必要があります。再びこれをクリックし、ダウンロードをクリックします。このファイルはComfy UIのmodelsフォルダ内のVAEフォルダに保存します。
次に、動画モデルをダウンロードする必要があります。これはこのリンクで見つけることができます。上の4つは画像から動画への変換用で、下の4つはテキストから動画への変換用です。テキストから動画へのモデルには140億パラメータのモデルと13億パラメータのモデルがあります。もちろん、より多くのパラメータを持つこのモデルはより高品質の生成を提供します。このモデルは最大720pをサポートしますが、13億パラメータのモデルは最大480pしかサポートしません。このより小さいモデルはもちろんはるかに計算効率が良いので、約8GBのVRAMの低グレードGPUでも実行できます。
また、2つの画像から動画へのモデルもあり、どちらも140億パラメータですが、一方は最大720pをサポートし、もう一方は最大480pをサポートします。私は16GBのVRAMを持っているので、これとこれをダウンロードします。うまくいくといいですね。
Hugging Faceフォルダに戻り、テキストから動画へのモデルとして140億パラメータのものを選びます。そして少し小さいfp8バージョンを選びます。品質を少し犠牲にしますが、少し速く実行されます。これをクリックし、Comfy UIのmodelsフォルダ内のdiffusion_modelsフォルダに保存します。
画像から動画へのモデルについては、このHD 720pバージョンを選び、再び半分のサイズであるfp8バージョンを選びます。より効率的です。ダウンロードをクリックし、再びComfy UIのmodelsフォルダ内のdiffusion_modelsフォルダに保存します。
ここにリストされているすべてを持っているか確認しましょう。Comfy UIフォルダのmodelsフォルダ内のtext_encodersフォルダには、このmt5-fp8.safetensorsファイルがあるはずです。さらに戻って、models/vaeフォルダには、one-2-1-vae.safetensorsがあるはずです。そしてdiffusion_modelsフォルダには、テキストから動画へのモデルと、使用したい場合は画像から動画へのモデルがあるはずです。それだけです。
Comfy UIの素晴らしいところは、これらすべてのノードやヌードルを最初から作成する必要がないことです。既存のワークフローをドラッグアンドドロップするだけなので、使い方が非常に簡単です。
テキストから動画へから始めましょう。ダウンロードできるワークフローがここにあります。これをクリックすると、コードのあるこのページが開きます。代わりに、右クリックして「リンク先を名前を付けて保存」をクリックします。これにより、このJSONファイルを好きな場所に保存できます。Comfy UIフォルダに保存しましょう。
それでは、Comfy UIを起動しましょう。Comfy UIに慣れていない場合は、完全なチュートリアルについてこのビデオをご覧ください。これを起動します。
Comfy UIが読み込まれました。現在画面に何があるかは関係ありません。ダウンロードしたJSONファイルをここに直接ドラッグアンドドロップします。そしてXをクリックすると、テキストから動画へのOneを使用するためのこの既製のワークフローが表示されるはずです。
ここに欠落しているノードが見える場合、例えばこれを右クリックすると、このEmpty HunanLatentVideoノードが欠落していることがわかります。これはおそらく最新バージョンのComfy UIに更新していないためです。マネージャーをクリックし、Comfy UIを更新をクリックします。その後、Comfy UIが正常に更新されたことが表示されるはずです。閉じるをクリックし、再び閉じます。これを再起動する必要があると思いますので、一度終了して、Comfy UIを再び開きます。
これを再起動すると、更新からいくつかの追加パッケージや依存関係をインストールしていることに注意してください。更新後は、このEmpty HunanLatentVideoのような欠落したノートを排除するはずです。早速使い始めましょう。使い方は非常に簡単です。ここがポジティブプロンプトを入力する場所で、ここがネガティブプロンプトを入力する場所です。これらはすべて、動画から除外したいものです。私はこれをデフォルトのままにしておく傾向があります。
実行する前に確認する必要があるいくつかのことがあります。まず、このdiffusion modelをクリックしてドロップダウンを表示し、実際にダウンロードしたものを選択していることを確認します。我々の場合、このテキストから動画への140億fp8モデルをダウンロードしたので、これを選択します。そしてここでドロップダウンをクリックすると、このumt5-1を選択します。そしてVAEについても、このOne 2.1 VAEを選択します。
ここは動画の幅と高さを指定する場所です。140億パラメータのモデルをダウンロードしたので、これは最大1280×720まで可能ですが、これをより速くするために、まずは480pの動画を生成してみましょう。そしてここは生成したい動画のフレーム数です。ここまで行くと、現在の動画は16フレーム/秒であることに注意してください。33フレームを生成すると、それは2秒強になります。もちろん、これをより長くすることもできますが、これを実行するのに十分強力なGPUが必要です。私はとりあえず33にしておくので、約2秒の動画が生成されます。
そして、Stable DiffusionやFlux、Hunenなどを使ったことがあれば馴染みがあるはずの設定がここにあります。各動画はランダムノイズのフレームから始まり、このシードは基本的にこのランダム性を決定します。同じ設定を保ち、同じシードを使用すると、理論的には同じ生成が得られます。通常、これはあまり重要ではないので、シードをランダム化に設定するだけです。
ステップ数については、一般的にステップ数が多いほど動画の品質が高くなりますが、ある時点から収穫逓減が始まります。100に設定すると、それはステップが多すぎて、もちろん時間もかかります。私は通常、デフォルトの30を使用します。これは通常十分です。
CFGは、AIがプロンプトにどれだけ従うかを決定します。これを10のような高い値に設定すると、よりプロンプトに忠実に従います。2のような低い値に設定すると、より創造的になり、プロンプトに忠実に従わなくなります。残りの設定はデフォルトのままでよいでしょう。
それだけです。では、「泣いている女性。彼女は非常に悲しく、苦しんでいる」というプロンプトを試してみましょう。Qをクリックしましょう。テキストエンコーダーを読み込んでいるのがわかります。次に拡散モデルを読み込み、プロンプトとlatent imageをこのケースサンプラーに入力して動画を生成します。コマンドプロンプトウィンドウを開くと、生成の進行状況が表示されるはずです。30ステップに設定したので、30で割られているのがわかります。
私のRTX 5000(16GB VRAM搭載)では10分かかりましたが、悪くありません。これが生成結果です。確かに泣いている女性で、彼女は非常に悲しく、苦しんでいるように見えます。ちなみに、これはすでに出力フォルダに保存されているはずです。Comfyフォルダを開き、outputをクリックすると、そこに動画があるはずです。完璧です。
これがテキストから動画への設定方法です。次に画像から動画へを試してみましょう。このページに戻ると(説明欄にリンクを貼っておきます)、画像から動画へのセクションにスクロールすると、これらの画像から動画へのモデルの1つをインストールする必要があります。これは、生成したい動画が480pか720pか、そしてfp8という量子化バージョンを使用するか、bf16というフル品質バージョンを使用するかによります。私はこれをダウンロードしました。
もう一つ必要なのは、このclip-vision-h.safetensorsファイルです。これをクリックし、ダウンロードをクリックします。これはmodelsフォルダ内のclip_visionフォルダに保存します。このページに戻り、少し下にスクロールすると、ダウンロード用の既存のワークフローがあります。再び右クリックして「リンク先を名前を付けて保存」をクリックし、Comfy UIフォルダに保存します。好きな場所に保存できます。
この画像から動画へのJSONファイルをダウンロードした後、これをComfy UIウィンドウにドラッグアンドドロップしてみましょう。ワークフローが少し異なることがわかります。再び、この緑のノードはポジティブプロンプト、赤いノードはネガティブプロンプトですが、ここは開始フレームとして画像をアップロードする場所です。
まず、これらのモデルの各々をクリックし、コンピュータに持っているかを確認しましょう。このドロップダウンをクリックし、このi2vモデルを選択します。次にこのドロップダウンをクリックし、mt5を選択します。ここではVAEを選択します。このドロップダウンをクリックし、one-2-1-vaeを選択します。次にclip visionをクリックし、持っているものを選択します。それだけです。
動画の最初のフレームとなる画像をアップロードすることから始めましょう。この画像を開始フレームとしてアップロードします。この画像がここに入力され、これが動画の幅と高さです。私の場合は512×512の初期画像に合わせてください。ここは生成したい動画のフレーム数です。私は33のままにしておき、約2秒の動画が生成されます。
ここがポジティブプロンプトです。これを空のままにして、このフレームをアニメーション化することもできますが、彼女に何をしてほしいかを指定することもできます。例えば、「女性がカメラの方を向いて微笑む」と入力しましょう。ここがネガティブプロンプトで、動画から除外したいすべてのものです。私はこれをデフォルトのままにしておく傾向があります。そして、これらの設定は以前に説明したもので、テキストから動画への設定と同じです。それだけです。Qをクリックして生成しましょう。
それは非常に早かったです。これを生成するのに約6分かかり、これが最終的な生成結果です。非常に素晴らしいです。背景もアニメーション化されているのがわかり、彼女は確かにカメラの方を向いて微笑んでいます。これは現在使える最高の画像から動画への生成ツールの一つです。この動画もすでにComfy UIの出力フォルダに保存されています。ここで見ることができます。それだけです。これが画像から動画を生成する方法です。
これでOne 2.1のレビューは終わりです。その機能、オンラインでの使用場所、そしてこれをインストールしてコンピュータでローカルに使用する方法について説明しました。これは私が見た中で最も印象的な動画生成ツールであり、無料でオープンソースであることが信じられません。これはGoogleのV02と同じくらい優れていますが、V02は非常に高価でクローズドソースです。
インストールでエラーが発生した場合は、コメント欄でお知らせいただければ、できる限りトラブルシューティングのお手伝いをします。One 2.1を使っていて何か面白いものを作ることができた場合は、コメントでお知らせください。
いつものように、トップAIニュースとツールを探し続け、皆さんと共有していきます。このビデオを楽しんでいただけたなら、ぜひ「いいね」、「共有」、「購読」をして、今後のコンテンツもお楽しみください。また、AIの世界では毎週本当に多くのことが起きているので、YouTubeチャンネルですべてをカバーすることはできません。AIで起きていることをすべて把握するために、無料の週刊ニュースレターをぜひ購読してください。そのリンクは説明欄にあります。視聴ありがとうございました。次の動画でお会いしましょう。
コメント