この AI で変わる、ゲームの世界

7,017 文字

This AI changes video games forever
GameGen-O & GameNGen. New AI generates video games with prompts, including worlds, characters, actions. Another AI gener...

おはようさんどす。今日はビデオゲームの世界を根本から変えてしまうかもしれへん、2つの AI システムについてお話しさせてもらいますわ。せやから、さっそく本題に入っていきましょか。
まず1つ目の AI は、ゲームジェン・オー(Game Gen O)言うてな。これは中国の大手企業テンセントが開発したプロジェクトやねんけど、オープンワールドのビデオゲームを丸ごと生成できる AI システムなんどす。仮想世界、キャラクター、ストーリーライン、クエスト、それにゲームプレイのメカニクスまで、ゲームのあらゆる要素を作り出すことができるんや。
従来のゲーム開発では、開発者がゲームのすべての側面を手作業で作らなあかんかったけど、ゲームジェン・オーを使えば、多くの要素を自動的に生成できるわけどす。
このAIはオープンワールドゲームに特化してんねん。オープンワールドゲームいうのは、プレイヤーが自由に動き回って好きなことができる広大な探索可能な世界が特徴やねんけど。有名なオープンワールドゲームの例でいうと、マインクラフトがあるわな。
ゲームジェン・オーの仕組みについて、もう少し詳しゅう説明させてもらいますわ。まず、訓練のプロセスは2段階あんねん。第1段階では、ゲームデザインの幅広い理解を深めるために、大規模なデータセットで訓練されるわけや。
彼らは「OAME データ」いう、このプロジェクト専用に作られたカスタムデータセットを使ってんねん。このデータセットには、オープンワールドRPG、ファーストパーソン・シューター、レーシングゲーム、アクションパズルゲームなど、さまざまなジャンルやスタイルの150以上の次世代ビデオゲームから、32,000本以上の動画が含まれてんねん。
さらに、一人称視点や三人称視点などの異なる視点や、リアルな表現や伝統的な表現、サイバーパンクなどのスタイルもカバーしてんねや。そこからさらに選別と処理を行って、最終的に150以上のゲームから4,000時間以上の高品質なビデオクリップ、つまり4,000時間分のゲームプレイデータを得たわけどす。
こうしてさまざまなジャンルや視点、スタイルを含めることが重要やねん。それによって、AI がこれらのさまざまなタイプのゲームを生成したりデザインしたりする方法を学べるからや。
そして、データセット内の各ビデオクリップには、GPT-4o を使ってテキストの説明をつけたんや。これがビデオクリップのラベル付けになるわけやね。例えば、こんな感じや。
これは「レッド・デッド・リデンプション2」のゲームプレイシーンやけど、ここにはこんな説明がついてるんや。これが基本的にこのビデオのメタデータになるわけどす。
ほんで、これは「グランド・セフト・オート」のシーンやけど、同じようにこのゲームプレイシーンの説明がついてんねん。
全部で4,000時間以上のゲームプレイクリップと、それに対応する説明文があんねん。実はこのデータセットを作るだけでも、データの選別からフィルタリング、ラベル付けまで、高品質を確保するのに6ヶ月もかかったんや。
何度も言うてるけど、質の高い訓練データを用意するのが、質の高い性能のいいAIモデルを作るカギなんや。訓練データがクソやったら、出力もクソになるわけや。だからこそ、彼らは6ヶ月もかけてデータセットをフィルタリングして選別し、質の高さを確保したんどす。
とにかく、この大量のゲームプレイデータのデータセットでAIモデルを訓練したわけや。これが、キャラクターや環境、アクション、イベントなど、ビデオゲームのさまざまな要素を理解し生成するのに重要なんどす。
ほんで、AIモデルの訓練の第1段階が終わったら、次は指示チューニングの段階に入んねん。つまり、ユーザーからの特定の指示に従えるように、モデルを微調整するわけどす。この指示についてはちょっと後で詳しく説明するわ。
まず、ゲームジェン・オーのアーキテクチャについてもうちょっと詳しゅう説明させてもらうわ。これは拡散トランスフォーマーアーキテクチャを使ってんねん。これは、多くのトップクラスの画像生成AIや動画生成AIでも使われてる技術やねんけど、ゲームジェン・オーは普通の動画じゃなくて、ゲームプレイスタイルの動画だけを生成するように訓練されて微調整されてんねん。
ほんで、動画の話が出たついでに、このAIが何をできて何ができへんのか、その限界について説明しとくわ。今のところ、こういう動画を出力するだけで、実際にプレイできるゲームは作れへんねん。それに、リアルタイムじゃないんや。つまり、シーンからシーンへとその場で生成することはできへんのや。
でもまあ、それはええんどす。なぜかって、もう1つのAIの話をするからや。こっちは完全にプレイ可能なゲームを生成できて、キャラクターを動かしたり世界と対話したりできるんや。しかも、リアルタイムでできんねん。その話はすぐにするわ。
まずはゲームジェン・オーの話に戻ろか。この拡散トランスフォーマーモデルを通した後、動画が出力されんねん。生成をカスタマイズするためのコントロールがいくつかあんねんけど、まず、ゲームに登場させたいキャラクターをプロンプトで指定できるんや。
例えばこれは、「ウィッチャー」のゲラルト・オブ・リヴィアを指定してんねん。ゲラルト・オブ・リヴィアはこんな感じやねんけど、ゲームジェン・オーはぴったり再現してるわ。
ほんで、もう1つの例やけど、ここではアーサー・モーガンを指定してんねん。アーサー・モーガンはこんな感じやけど、このAIは確かにアーサー・モーガンを生成してるわ。
他にもいろんな例があんねん。ここには氷の魔法使い、ここにはロボコップ、ここには警備員、ここには竹林の中の仁サカイがおんねん。つまり、プロンプトを使ってゲームプレイのキャラクターを指定できるわけや。
でも、それだけやないねん。環境も指定できんねん。例えばこれは春、これは夏、ここは秋、最後に冬や。季節を変えるだけやなくて、他の環境も指定できんねん。例えばこれは湖、これは海、これはラベンダー畑、これはピラミッドや。
それだけやないで。異なるアクションも生成できんねん。ここでは一人称視点でのバイク走行をプロンプトで指定してんねん。ここではバイク走行やけど、一人称じゃなくて三人称視点や。ここのプロンプトは運転やから、レーシングゲームにぴったりやね。ここは三人称視点での飛行や。ほんで、歩行、馬に乗る、馬車に乗るなんかもあんねん。
それに、いろんなイベントも指定できんねん。例えばここでは雨を降らせてるし、ここは雪、ここは雷、ここは日の出、ここは津波と竜巻なんかもあんねん。
もちろん、こういう簡単なプロンプトだけやなくて、もっと詳細なプロンプトも使えんねん。例えば、「チャイナタウンを歩くサイバーモンク」とか、「別次元に立つタイムマスター」、「火星を歩くマントを着た旅人」、「雲の中を飛ぶ魔法の蒸気飛行船」、「聖なる王国を見下ろす天使」、「ルーンの森を旅する毒ドルイド」、「血の月の下を歩く幽霊」なんかもあんねん。
でもまだまだあんねん。もっとすごいことができんねん。出力は連続した動画やから、プロンプトで何でも指定したら、それに合わせてゲームプレイが変わんねん。例えば、ここでプロンプトは「空に火が」やねん。ほんで、ここのプロンプトは「暗くて星空」やから、徐々に夜空に星が出てくるのが分かるやろ。ここでは「日没が起こる」いうプロンプトで、日没のシーンを生成してんねん。ここでは「霧が出る」いうプロンプトやから、霧の立ち込める環境に変わってんねん。
こうしてキャラクターや場面、環境を変えられる柔軟性がめちゃくちゃすごいんや。このツールはめっちゃパワフルやで。
前に言うたように、特定のキー入力も受け付けられんねん。例えば、WDキーを押したらキャラクターが上下左右に動くようになってんねん。Aを押したらキャラクターが左に動いて、Dを押したら右に動くんや。
ほんなら、ゲームジェン・オーについてまとめてみよか。これは基本的にプロトタイピングのツールやねん。ゲーム開発者がゲームの要素を一からビルドせんでも、素早くプロトタイプをデザインしてテストできるツールなんや。
従来のゲーム開発では、コンセプトアートから始まって、ストーリーやキャラクターのデザイン、アートの作成、3Dアセットの作成まで、膨大な時間がかかってたんや。でも今はゲームジェン・オーを使えば、プロンプトを入力するだけで数秒でプロトタイプを作れんねん。
このテクノロジーがビデオゲームの未来を変えるいうのは、大げさな表現やないのが分かってもらえたと思うわ。
ほんで、ここでスポンサーのAbacus AIが提供する素晴らしいツール、チャットLLMについて少し紹介させてもらうわ。これを使えば、最高のAIモデルを1つの統合プラットフォームで使えんねん。GPT-4o、Claude Sonnet 3.5、Llama 3.1、それに彼ら独自のSMOGなんかが含まれてんねん。
普通のチャットボットとして使えるだけやなくて、最高の画像生成AIであるLuuxProでの画像生成もできんねん。それに、めっちゃクールな「アーティファクト」機能もあって、コーディングしたりなんか作ったりする時に、アプリを横に並べて見たり操作したりできんねん。
PDFやドキュメントをドラッグ&ドロップして分析させることもできるし、これはレポート作成やデータ分析に最適やで。チャットインターフェースで簡単にデータテーブルやチャートも作れんねん。めっちゃ便利やで。
新機能の「AIエンジニア」を使えば、自分のカスタムデータや指示でファインチューニングした独自のチャットボットを作ることもできんねん。SlackなどのEnterpriseプラットフォームにシームレスに統合できるから、チームでの共同作業にもぴったりや。それに、特定のタスクを自動化するカスタムエージェントも作れんねん。
これは本当にパワフルで多目的なツールで、最高のAIモデルを1つのプラットフォームで使えんねん。詳しくは説明欄のリンクからチェックしてみてな。
ほんで、このAIモデルの出力はリアルタイムやないことに注意してな。つまり、その場でビデオゲームを生成するわけやないんや。それに、前に言うたように、これはただの動画で、実際にプレイできるビデオゲームやないねん。
でもまあ、それはええんどす。なぜかって、次のAIシステムの話をするからや。こっちは実際にプレイ可能なビデオゲームをリアルタイムで生成できんねん。これはGoogle DeepMindが開発した「ゲームエンジン」(Game Engine)いうんや。ややこしいけど、名前が似てるから気をつけてな。これは先ほどのテンセントの「ゲームジェン・オー」とは違うで。
ほなら、この「ゲームエンジン」について説明していくわ。これは先ほどの「ゲームジェン・オー」とはちょっと違うアプローチを取ってんねん。ここでは、「DOOM」いうファーストパーソン・シューターゲームをシミュレートするように、AIを訓練してんねん。
このAIのすごいとこは、プレイしながらリアルタイムでゲームを生成できることやねん。1秒間に20フレームも生成できるんや。それに、長時間のプレイでも一貫性を保てんねん。ほら、見てみい。これ全部AIが生成してんねん。プレイヤーの位置、弾薬、体力なんかの様々なゲーム内のステータスまで追跡できんねん。
ほんじゃあ、このAIの仕組みについてもうちょっと詳しく説明したるわ。テンセントの「ゲームジェン・オー」と同じように、Googleの「ゲームエンジン」も拡散モデルを使ってビデオゲームを生成してんねん。具体的には、Stable Diffusion 1.4の改良版を使ってるんや。
ちなみに、Stable Diffusion 1.4はめっちゃ古いモデルやで。今はもっと性能のええStable Diffusion XLやStable Diffusion 3、最近やとFluxなんかもあんねん。わいが思うに、SD 1.4からもっと新しいモデルに切り替えて再訓練したら、結果はもっとよくなると思うわ。
ほなら、「ゲームエンジン」の訓練方法について説明したるわ。これも2段階の訓練が必要やねん。最初の段階は強化学習の段階や。ここでは、AIにDOOMを何度も何度もプレイさせんねん。AIがゲームをプレイしてる間、すべての動作や動きを記録して、次の段階で使うデータセットを作ってんねん。
次の段階では、最初の段階で集めたゲームプレイデータを使って、拡散モデルを訓練すんねん。このモデルは、過去のフレームとアクションに基づいて、ゲームの次のフレームを予測したり生成したりすることを学習すんねん。先ほど言うたように、Stable Diffusion 1.4の改良版を出発点として使ってんねん。
すごいのは、1つのテンソル処理ユニットだけで、リアルタイムで1秒間に20フレーム以上生成できることやねん。MinkやSoraみたいな動画生成AIは、めちゃくちゃ計算力が必要やねんけど、これは1つのテンソル処理ユニットだけでリアルタイムでゲームを20フレーム以上で生成できるんや。これはほんまにすごいことやで。
つまり、プレイヤーがゲームをプレイして動き回ると、AIがその場でリアルタイムですべてを生成してんねん。ほら、こんな感じや。これ全部AIが生成してんねん。見てみい、プレイヤーの弾薬や体力なんかのステータスも追跡してんで。
先ほどの「ゲームジェン・オー」とは対照的に、「ゲームエンジン」は実際のゲームプレイのために作られてんねん。つまり、エンドユーザーがこのゲームを実際にプレイできて、プレイしながらAIがすべてをその場で生成してくれんねん。
ほんじゃあ、この2つのツールについてまとめてみよか。右側の「ゲームエンジン」は、DOOMみたいな特定のゲームをシミュレートすることに焦点を当ててんねん。一方で「ゲームジェン・オー」は、様々なオープンワールドゲームのコンテンツを生成できんねん。AIの動画生成みたいに、プロンプトで何でも指定したら、それを生成できんねん。
実際の出力について言うと、「ゲームエンジン」はリアルタイムで更新される実際にプレイ可能なゲームを提供すんねん。一方で「ゲームジェン・オー」は、いくつかの対話的な制御はあるものの、ビデオシミュレーションだけを生成すんねん。これは実際のゲームやないねん。
最後に、目的について言うと、「ゲームエンジン」はリアルタイムのゲームシミュレーション、つまり実際にプレイするためのものやねん。一方で「ゲームジェン・オー」は、ゲーム開発者やデザイナーのためのツールとして位置づけられてんねん。
この2つのツールは実は相性がええんや。陰と陽みたいなもんやね。「ゲームジェン・オー」は世界やキャラクター、アクションをデザインするためのものや。ほんで、ゲームのデザインが終わったら、それを訓練データとして「ゲームエンジン」に与えて、実際にプレイできるゲームを作るわけや。
これで、ビデオゲームの作り方やプレイの仕方が完全に変わってしまうかもしれへんな。もう、プロの高予算ゲームスタジオは必要なくなるかもしれへん。3Dアセットをデザインする必要もないし、環境をデザインする必要もない。AIにプロンプトを与えて、すべてを生成させて、それを訓練データとしてAIに与えて、ユーザーがプレイしながらリアルタイムで更新できるゲームを生成させるだけでええんや。
まあ、今のところこれは理論上の話やけどな。この2つのツールの質はまだ高くないねん。でも、これが見られる最悪のバージョンやと思ってな。時間とともに、どんどん良くなっていくはずや。
この2つのツールを組み合わせることで、ゲーム制作のプロセスがめちゃくちゃ速くなるだけやなく、ゲームスタジオのコストも大幅に下がるやろな。もしかしたら、親の家の地下室に住んでボクサーパンツ姿の誰かが、たった1人で丸ごとゲームをデザインできるようになるかもしれへんな。ほんまにワクワクする時代やで。
ほんじゃあ、この2つのツール、「ゲームジェン・オー」と「ゲームエンジン」の説明はこれで終わりや。みんなはどう思う? これが本当にビデオゲームの未来やと思う? AIがその場でシーンを生成するゲームが主流になると思う? これでゲームスタジオがなくなると思う? このようなAI生成のビデオゲームが発売されるのはいつごろやと思う? コメント欄で教えてな。
いつも通り、最新のAIニュースやツールを探して、みんなに共有していくわ。この動画を楽しんでもらえたら、ぜひ「いいね」を押して、シェアして、チャンネル登録してな。次のコンテンツもお楽しみに。
AIの世界では毎週たくさんのことが起こってて、YouTubeチャンネルですべてをカバーするのは無理やねん。AIの最新情報を本当に知りたいなら、無料の週刊ニュースレターを購読してな。リンクは説明欄にあるで。
見てくれてありがとう。また次回の動画で会おな!

コメント

タイトルとURLをコピーしました