
7,727 文字

皆さん、OpenAIとGoogleがYouTube動画を購入しているんです。巨大企業が動画を買い集めるなんて、誰がこんな時代が来ると想像したでしょうか。また、OpenAIのロボット工学に関する動向も見ていきましょう。彼らはロボット部門を再開し、2025年には素晴らしい展開が期待できそうです。
いつものように、いいねをくれた皆さん、チャンネル登録してくれた皆さん、そしてこの人工知能チャンネルのスポンサーであるメンバーの皆さんに特別な感謝を。
こちらのニュースをご覧ください。OpenAIとGoogleが未公開のYouTuber動画を1分あたり最大4ドルで購入しているとのこと。10分の動画で40ドル、4×6で240レアルになりますね。
何が起きているのか見てみましょう。OpenAI、Google、その他のAI大手が新しいトレーニングデータのソースを見つけました。彼らはコンテンツクリエイターから直接、未公開の動画を購入しているのです。
Bloombergによると、企業は1分あたり最大4ドルを支払っており、4K高画質映像、ドローン映像、3Dアニメーションには割増料金が設定されているとのこと。特に3Dアニメーションは入手が非常に困難です。ドローン映像もある程度はありますが、需要は高いですね。4K映像に関して言えば、私は4K動画を作っていません。4K動画を毎日投稿するコンテンツクリエイターを想像してみてください。大量の動画コンテンツを保存するには400,000台のハードディスクが必要になるでしょう。
YouTubeやTikTokなどのプラットフォームの通常コンテンツや未使用コンテンツは1分あたり1-2ドルで、これらの取引は数千ドルの価値があるとBloombergは報じています。各ピクセルの価値をご覧ください。
ライセンス契約の手続きを処理するため、企業はTravAIやKelly Cope Networksなどの専門企業を通じて作業を行っています。TravのCEOによると、ビデオモデルを開発している全ての企業が既に彼らと取引をしているか、交渉中とのことです。そして彼らは既にクリエイターに500万ドル以上を支払っています。
データ収集に特化した企業があるということは、質の高いデータを見つけることがいかに難しいかを示しています。皆さんも、データ収集企業を立ち上げてデータを販売することができます。インターネットの裏側でデータがどれだけ取引されているか、想像もつかないでしょう。
そのためLGPD(データ保護法)が始まったのです。マーケティング会社やあらゆる種類の仕事のために私たちのデータが売買されていたため、突然、知らない人からスパムメールが届くようになったのです。これは盗まれたデータではなく、正式に売買されたデータの話です。データは非常に価値があるのです。
War Agency のDan Levitは、現在の状況をビデオコンテンツをめぐる軍拡競争と表現しています。今後数年間はライセンス契約で利益を得るチャンスがあると見ていますが、それは永遠には続かないと警告しています。
2025年のこの競争は重要です。企業はビデオ生成が重要だと気付いています。ロボット工学への応用など、2026年に巨大な市場が開かれる未来のアプリケーションがたくさんあり、今準備できる企業が大きな成功を収めることになるでしょう。
契約には、AI企業がクリエイターのデジタルコピーを作成したり、特定のチャンネルのシーンを再現したり、クリエイターの評判を損なう方法で映像を使用したりすることを禁止する保護条項が含まれています。
これは興味深い点です。なぜなら、一度AIに入力されると何でもできてしまうからです。OpenAIとNew York Timesの間で起きた興味深い出来事があります。New York TimesがOpenAIを訴えた理由の1つは、記事の冒頭を入力するとChatGPTが元の記事と全く同じように続きを生成してしまったからです。
これはOpenAIにとって厄介な問題でした。なぜなら、元のテキストとまったく同じものを生成していたからです。しかし、この争いの中で、誰も完全なテキストを入力してAIに続きを生成させるようなことはしていないということが理解され、テキストが元のままの形で再現されることを防ぐためのトレーニングにおける保護措置やルールが導入されました。
映像の直接購入と並行して、Googleは最近別の戦略を導入しました。YouTubeに新機能を追加し、クリエイターがAI企業に自分の公開動画をトレーニングに使用させるかどうかをコントロールできるようにしました。
興味深いのは、私もこれについて動画を作ったことがありますが、そこではチェックボックスがあって許可を与えることができます。ただし、動画の使用を許可しても一銭も支払われません。ここでは少なくともいくらかのお金を得られるので、より理にかなっているように思えます。
潜在的なライセンス取得者のリストには、OpenAI、Meta、Microsoftを含む17社以上の企業が含まれています。YouTubeは未承認のコンテンツスクレイピングを禁止しているため、彼らは仲介者として完璧なポジションにいて、将来のライセンス契約で利益を得ることができます。
ここで多くの人が「インターネットは誰のものでもない、データは誰のものでもない、インターネットにあるものは自由に使える」と言いますが、これは半分の真実です。路地裏のジョーがYouTube全体をスクレイピングしてAIのトレーニングを始めても、おそらく捕まることはないでしょう。
しかし、GoogleやOpenAIがそれをして捕まれば、巨額の訴訟と大きな問題に発展します。常にすべてのシナリオを考えてください。大企業にとっては問題になりますが、路地裏のジョーにとってはあまり問題にならないかもしれません。影響は非常に小さいでしょう。
しかし、会社が成長し、自分たちの行動に責任を持つようになれば、著作権は確実に問題になります。「著作権は不要だ、それは作り物だ」と言う人もいますが、私は全く同意できません。
YouTubeチャンネルを持っていて、自分のコンテンツが他のチャンネルにコピーされ、自分が人生の時間を費やして作ったもので他人がお金を稼いでいるのを見たことがある人なら分かるでしょう。それは最悪です。それが正しくないことは分かっているはずです。
私のチャンネルは大きくないのにこれが起こるのです。巨大なチームを雇って映画を作り、公開翌日に誰かが単純にあなたのコンテンツ、映画全体を取って配信を始め、著作権がないためすべての収益を保持し、好きなように配信できるとしたらどうでしょう。
注意してください。そう単純な話ではありません。裏には時間とお金を投資している人がいます。デジタル製品、それが本であれ映画であれ、何らかの規制が必要なのです。
全体像として、AI企業はSoraやViwのようなビデオジェネレーターを構築するために、これらすべてのビデオデータを熱望しています。しかし、一部の研究者はさらに大きな夢を持っています。これらの大規模なビデオデータセットが一種の世界シミュレーターの作成に役立つと考えているのです。
もちろん、彼らが望んでいるのは世界シミュレーターです。単なるビデオジェネレーターを作りたいわけではありません。コンテンツ生成のためのビデオ生成は多くのお金を生み出すかもしれませんが、ロボット工学のための世界生成アプリケーションの方がはるかに重要です。
次のことを考えてみてください。映画市場やアート市場は長い間存在してきました。そこにいる企業はAIを使用したデジタルビデオ制作に適応していくでしょう。つまり、古い市場が適応しているのです。
しかし、自律型ロボット、ヒューマノイドロボットの市場は完全に新しい市場です。理解していますか?市場で誰もロボットを売っていない状況で、あなただけがロボットの屋台を出すようなものです。そして、世界中がそれを使用することになるのです。
これは何兆ドルもの巨大な市場であり、今まさに誰もが参入しようとしています。理論的には、科学的には議論の余地がありますが、大量のビデオに触れることでAIシステムが物理的現実をより深く理解し、一般化能力を向上させる可能性があるというものです。
これは物理学を観察から学ぶという理論の1つです。私たちの物理的な世界、物の重さ、質感についての経験は、画像だけでなく、接触や触覚、物を持ったときに感じる重さなど、視覚以外の場所からも得られると理解しています。
しかし、彼らが言っていること以外にも、仮想世界を作れば、今彼らが購入しているような動画を購入する必要がなくなります。なぜなら、家から出ることなく、存在しない多くの動画を仮想的に生成できるからです。
これらの環境はロボットのシミュレーション用にも使用でき、仮想世界で何が起こるかを見ることができます。また、物事の物理的な性質を理解するのにも役立ちます。
これはコンテンツクリエイターにとって予期せぬ恩恵となるでしょう。多くの映画制作者は年間数百時間の映像を制作していますが、それらはオンラインに公開されることはなく、これまで全く価値がありませんでした。今では、この編集コンテンツを実際のお金で売ることができます。
さらに深く考えてみましょう。Instagramは今日、広告で成り立っています。テレビも常に広告で成り立ってきました。テレビ局がドラマやニュース番組を制作するとき、その途中に広告を入れていました。ドラマやニュース番組の制作費用はテレビ局が負担し、広告料金はテレビ局に支払われていました。
しかし、Instagramでは、私たちがコンテンツを作成し、私たちの写真が投稿され、その写真の間に広告が表示されています。さらに、私たちのコンテンツはAIのトレーニングやその他の商業目的に使用されています。
これは少なくとも私にとって、私たちのデータが直接的な商業目的に使用されていることに違和感を感じ始めています。もはや間接的なマーケティングキャンペーンではなく、そのデータを使用して実際の製品を作っているのです。
これは、データ保護法が意味を持ち、私たちのデータを使用したい場合は確かに支払いが必要になることを意味します。今日のような無料の仕組みは意味をなさなくなるでしょう。毎日Instagramに動画を投稿している人が、そのコンテンツがトレーニングに使用されることで少しでもお金を稼げるというのは理にかなっていると思いませんか?
次のニュースです。OpenAIが再びロボットの構築に挑戦します。OpenAIにはロボット工学部門がありましたが、それを閉鎖し、今再開しています。何が起きているのか見てみましょう。
OpenAIは、約4年前に元のロボット工学プログラムを終了してから、ロボット工学に回帰しています。企業はゼロから新しいチームを結成しようとしており、3つの主要な職種を募集しています。
ロボットのセンサーを扱う電子検出エンジニア、ナットやボルト、ギアボックス、モーターなどを扱うロボット機械エンジニア、そして製品開発と運営を監督する技術プロジェクトマネージャーです。
ロボット工学を簡単に理解するために説明すると、センサーや計装の部分があり、それらのセンサーを機能させて有用なものにし、ロボットの知能やそれが世界をどのように見るかに関係します。
そして、ロボット自体、つまりモーター、ギア、減速機、空気圧式、電気式、油圧式など、ロボットの物理的な部分があります。例えば、Boston Dynamicsの最初のロボットは油圧式でした。これは、オイルなどの流体を基にして機能することを意味します。
しかし、電気式もあり得ます。ロボットを電気式にするか油圧式にするか、どのようなギアを使うか、部品のサイズなど、すべてを小型化して収めて機能させる必要があります。また、これを製品に変換する人も必要です。
私も以前から言及していますが、人間の横に産業用ロボットを置くには、多くの安全基準があります。本当に多くの基準があります。これらのロボットは、誰かを傷つけているとか何らかの損害を引き起こしているということを認識する人間のような知能を持っていないからです。人間にとっては明白なことでも。
これらの企業が安全基準の壁を乗り越えるまでには、まだかなりの時間がかかるでしょう。求人リストによると、これらの職位は、OpenAIが「次世代の組み込みAI」と呼ぶものを作成し、AGI(人工汎用知能)レベルの知能に向かって推進するのを助けるとされています。
または、必ずしもそうとは限りません。時にはこの「組み込み」は完全なヒューマノイドロボット全体である必要はなく、単純に配達を行う小さな台車や飛行するドローン、またはロボットの上半身だけや脚だけかもしれません。これは様変わりする可能性があり、犬のような形態さえあり得ます。
これは「実際の世界に対処できるロボットを作りたい」という企業の専門用語のようなものです。この部分は本当に興味深くなるでしょう。私たちがいつもテレビで見てきた映画のような部分が、いよいよ本当に始まろうとしているのです。
興味深いのは、誰もがターミネーターとスカイネット、戦争を仕掛けるロボットを思い出しますが、その何年も前にジェットソンズというアニメがありました。そこにはロージーという、家族と一緒に働く助手ロボットがいました。機械との戦争など全くなく、皆が調和して共存していました。
あなたはどちらが実際に起こると思いますか?目標は、シミュレーションを超えて、継続的なテストと改良を通じて、混乱した予測不可能な環境に適応できるロボットを作ることです。
この混乱した予測不可能なシナリオに、前のニュースが関連してきます。世界生成は、混乱した世界を生成してロボットのテストを行ったり、予期せぬシーンが発生したときに自動運転車がどう対応するかを評価したりするのに役立ちます。
求人広告の1つには、「最先端のハードウェアとソフトウェアを統合したモデル全体で作業し、幅広いロボットフォーマットを探求する」と書かれています。
ここで彼らは、彼らのコア(中核)に変化があったと述べています。これは2020年10月、OpenAIがロボット部門を閉鎖したときからの大きな転換です。当時、OpenAIの共同創業者でロボット部門の責任者は、AGI(人工汎用知能)を追求するために大規模言語モデルと人間のフィードバックトレーニングに集中する必要があると述べました。
Sam Altmanは当時、ロボット研究を「時期尚早」と呼びました。2020年初頭の主な問題はデータ、より正確には、データの不足でした。ロボットチームは、当時のOpenAIの主要戦略であったAIモデルの効果的な事前トレーニングに必要な巨大なデータセットを入手できませんでした。
また、今日私たちが持っているような画像生成に関する知識と確実性もありませんでした。現在、彼らは主に推論に焦点を当てたテスト時の計算に移行したようです。
この変更が興味深いのは、A3がロボットが活動を行い、データを生成し、行動中に何を考えているかを見ながら、モデルがより知的になることを可能にするからです。これに基づいて改良を行うことができます。
OpenAIは、いくつかの印象的な成果にもかかわらず、ロボット部門を閉鎖しました。彼らのロボットハンドDactylは2019年にルービックキューブを単独で解くことで話題になり、シミュレーションと現実のギャップを成功裏に克服しました。
これは本当にすごいことです。なぜなら、これは仮想世界で解決された典型的な例だからです。これらの指の動きやルービックキューブに関するトレーニングは、すべてデジタル世界での強化学習で行われ、実世界では行われません。
デジタル世界でそのトレーニングを行った後、実世界に移行して改良を行います。この改良は、デジタル世界の特定の不正確さを修正するのに役立ちます。
5月以降、OpenAIがロボット工学への回帰を計画していることは分かっていましたが、これらの求人情報は、彼らがハードウェアにも戻っていることを示しています。これはいくつかのことを意味する可能性があります。
おそらく、ソフトウェアだけのアプローチではAGIを構築するのに十分でないと気付いたのかもしれません。あるいは、合成データやより良いシミュレーションを通じて、以前のデータの問題を回避する方法を見つけたのかもしれません。
これが上手くいき、将来重要なデータが到来することを、彼らは既に視野に入れているに違いありません。ロボット工学の次の限界に到達するために今やるべきことがたくさんあると私は信じています。
また、単純な説明もあります。生成AIがロボットの能力を促進できると賭けて、ビジネスチャンスを見ているのです。言語モデルの世界に関する幅広い知識と高度な視覚システムを組み合わせることで、ロボットが環境とより自然に相互作用できるようになるという考えです。
これは完璧です。私も常にそうしています。私は常にロボット工学とコンピュータビジョンを扱ってきました。言語モデルが登場し始めたとき、限界は明確でした。現在のモデルの画像解釈の速度が非常に遅いのです。
これらの画像解釈が速くなれば素晴らしいことになるでしょう。なぜなら、モデルはリアルタイムで相互作用できるようになるからです。NVIDIAが開発しているものを見ると、これは確実に実現可能です。
たとえ短期的にはコスト効率が悪く、製品化されないとしても、既にできるということ自体が大きな飛躍です。
この構想は既に、FigureAI(ロボット工学のスタートアップ)とOpenAIのパートナーシップを通じて形になりつつあります。現在、BMWの工場でOpenAIの技術を搭載したロボットのテストを行っています。
ここで重要なのは、複数のロボットがいるということです。Figureのロボットはそのうちの1つです。ここでロボットがBMWにいて、きちんと動いているのが分かりますね。
つまり、ロボット工学は既に進行中です。コスト効率はまだ合わないと思いますが、いつか必ず価値が出てくるでしょう。家でロボットが日常的なタスクを手伝ってくれる未来を想像できますか?
彼らが戦争を始めることを恐れているのか、それともリビングでくつろいでテレビを見ているところを想像しているのか、あなたの考えを聞かせてください。
このような動画を見続けたい方は、チャンネルメンバーになってサポートしてください。メンバーはWhatsAppグループとビデオの先行視聴にアクセスできます。
以上です。いいねをお願いします。ありがとうございました。
コメント