元Google CEOが新しいAI技能に「衝撃」を受ける | エリック・シュミット

8,147 文字

Ex-Google CEO "SHOCKED" by new AI capabilities | Eric Schmidt
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

中国は現在、これまでに作られた中で最も強力と思われるモデルを2つ持っており、それらは完全にオープンソースです。私がこれを読んだ時は衝撃を受けました。エリック・シュミットは以前Googleで働いており、サン・マイクロシステムズやアップル、国防総省などでさまざまな職務に就いていました。最近では、AIが世界にどのような影響を与えるかについて、より多く語るようになっています。
数日前、彼はスコット・ギャロウェイのプロフェッサーGショーに出演し、AIの発展について懸念されることをいくつか話していました。特に、さまざまな国々がAIの能力をどのように向上させているかについてです。
先週、オープンソースAIの世界で大きなニュースがありました。それは、中国のDeep Seek R1 Lightプレビューについてです。これはオープンソースのAIモデルで、非常に優秀で、OpenAIの最新の推論モデルである01プレビューと同等のものでした。
どうしてこれほど優秀なのでしょうか。彼らはOpenAIが新しい最近のモデルを作るのに使用していた特別なソースを解読することに成功したのです。OpenAIは、テストタイム・コンピュートというアイデアを最初に導入した企業だと思います。
以前は、モデルのトレーニングにコンピュートを使用し、その後推論を実行すると、モデルは基本的に即座に答えを出していました。ここでは、質問に答える際の推論の部分により多くのリソース、より多くのコンピュートを許可しています。
質問をする時に、思考トークンのようなものを一定量与えると考えてください。私があなたに質問をして、すぐに答えを求めるか、1分考える時間を与えるか、1時間考える時間を与えるか、1日考える時間を与えるかのようなものです。より多くの時間を与えれば与えるほど、その問題について考え、処理し、推論する時間が増え、より良い結果が得られる可能性が高くなります。
例えば、数学の問題では、解くための時間が多ければ多いほど、正解を得られる可能性が一般的に高くなります。OpenAIが01モデルをリリースしてから6週間後、数ヶ月後に、この中国企業が不気味なほど似たものをリリースしました。
ここの紫の線がOpenAIのモデル、O1プレビューで、精度は44.2%です。青い線はR1 Lightプレビューの多数決投票で、これは複数の答えを生成し、最も一般的な答えを選ぶものです。対して赤い線は1回パスで、1つの答えを生成し、それを最終答えとするものです。
私にとって多数決投票は、新しい街で10人の通行人に市役所への行き方を尋ねるようなものです。9人が「北に2ブロック行って東に1ブロック」と言い、10人目が「橋から飛び降りろ」と言った場合、9人が言った北に行って東に行くという方が正しいだろうと考えるようなものです。
ご覧のように、思考トークンの数を増やすにつれて、モデルが答えについて考える時間が長くなるほど、精度は向上していきます。実際、AIMEの問題の1つでは(これは米国の高校生の中で最も優秀な数学生徒のための数学オリンピックだと思います)、最大で6.7%の精度を得ているのに対し、01プレビューは44.2%です。
なぜこれが問題なのでしょうか。いくつかの問題点があります。まず、オープンソースAIモデルに対する最大の議論の1つは、「中国がこれを手に入れたらどうなるか」というものです。私たちのモデルをオープンソース化することで、中国はそれらのモデルを再現し、基本的に私たちの競争上の優位性を奪うことができます。
ここで私たちとは、米国とイギリスのパートナーシップを指します。エリック・シュミットが説明するように、AIを開発している企業、AIラボは、この2カ国の間にあります。もちろん、GoogleのDeepMindはロンドンに本社があります。
米国とイギリスがAI開発の第1位の連合だとすると、中国は5年遅れていると考えられていました。エリック・シュミットは、彼らは数年遅れていると考えていたと思います。そのため、これらのモデルをオープンソース化することで、彼らは急速に追いつくことになるだろうと考えられていました。
しかし、これはその考えに多くの水を注ぐことになります。なぜなら、彼らは非常に競争力のあるこれらのモデルを作り出しているだけでなく、OpenAIが彼らのモデルをリリースしてからすぐに再現しているからです。01と Deep Seek R1の間は6週間しか離れていなかったと思います。
01プレビューは9月12日にリリースされ、Deep Seek R1は11月20日に発表されました。つまり、私たちが中国にコピーされないようにモデルをオープンソース化すべきかどうか心配している間に、彼らは私たちのモデルをリバースエンジニアリングしたか、あるいは何か同時進行的なことを試みていたのかもしれません。
しかし、それは可能性が低いように思えます。OpenAIが公開した何か、あるいは彼らが話した何かのブレークスルーがあり、それを複製することができるようになり、そしてそれを複製できるようになると、実際にオープンソース化したというのがより可能性が高いでしょう。
そうなると、その全ての議論は意味をなさなくなります。エリック・シュミットはこう言っています:
「例を挙げましょう。今週、中国から2つのライブラリがオープンソースでリリースされました。1つは非常に強力な問題解決ソフトウェアで、もう1つは大規模言語モデルで、Metaのものと同等か、場合によってはそれを超えるものです。彼らが毎日使用しているllama 3 400billionと呼ばれるものです。私がこれを読んだ時は衝撃を受けました。なぜなら、中国との会話で、彼らは2〜3年遅れていると思っていたからです。今では1年以内に追いつきそうです。」
確かに、チャットボットアリーナを見ると、最高のモデルが互いに競い合っているのがわかります。人々が匿名で、どのモデルを評価しているのかわからないように、並べて評価しています。もちろん、OpenAIは一般的に1位を維持する傾向にありますが、上位にはClaude、ChatGPT、あるいはO1のようなOpenAIモデル、最近ではGemini、Grokなどが見られます。
Grokはイーロン・マスクのxAI社が製作しています。そしてその後ろにはそれほど遠くない位置に、Yi Lightning、Alibabaのqwen Max、Deep Seekなどが続いています。
TwitterでAIセーフティのミームをフォローしている人なら、新しい種類の武器や帝国のスカイネット装置がリリースされているのを見たことがあるでしょう。戦闘で決定を下す、あるいはその可能性を持つAIモデルを搭載した、かなり恐ろしいものです。
例えば、ワニのように静かに泳いで近づき、攻撃を開始できるロボット犬のようなものです。また、AIvsAI、スカイネットvsスカイネットのようなものも見られます。例えば、米軍はドローンに対抗するためにAI機関銃を使用しています。
このような対ドローン技術を行う企業は多数あり、その多くはニューラルネット、AIモデルが組み込まれています。私たちは、自律型マシンによる最初の記録された殺人を目にしました。人間のオペレーターとは一切つながっていないドローンで、オフスイッチもキルスイッチもありませんでした。
自律型殺人ドローンのためのキルスイッチというのは奇妙な用語ですが、知る限り、最初の記録された犠牲者は2020年に出ました。それ以来、急速に増加しています。
AnthropicのClaudeが米軍に参加することになったのを見たかもしれません。彼らはより密接に協力し、Claudeモデルを米軍の目的で使用することを許可することになります。このように、米軍産複合体とこれらのAIスタートアップ、AIラボの間でより多くの重なりが見られるようになっています。
明らかに、中国でも同様のことが起きていると想像できます。確実に、そこのリーダーシップはこの技術を見過ごしてはいないでしょう。エリック・シュミットが指摘している点の1つは、これらの技術を戦争でどのように使用するかについて、いつ条約や合意を結び始めるのかということです。
確かに、これらが容易に武器化される可能性があることは想像できます。速度、敏捷性、器用さを獲得し、その背後にあるモデルは推論し、問題を解決し、トラブルシューティングを行うことができ、どんどん良くなっています。
これらのロボットの物理的な具現化が急上昇している一方で、推論モデルを改善するための大規模なレースも行われています。それらを組み合わせると、潜在的にかなり恐ろしいものが出現します。
AIについてどのような立場をとるにせよ、これらのハイテクで敏捷なロボットとAIモデルの組み合わせが、ある意味で恐ろしいものになる可能性があることは確かに見て取れます。
ここに、最大500キロのTNTを運搬できる神風特攻型の海中ドローンがあります。彼らがそれを撃墜しようとし、船に接近しようとしているのが見えます。そしてそこで爆発します。かなり大きな爆発です。
私にとって恐ろしいのは、これらのロボットがいかに速く、敏捷になっているかということです。私たちはまだ完全には準備ができていないと思います。映画やハリウッドは、これらが群れをなし、人間が可能な限りよりもはるかに速く、より敏捷になるという事実に対して、私たちを準備させてくれませんでした。
過去のロボットの描写は、大体ゆっくりと動くものでしたが、実際にはそうではないことに気付きます。彼らは人間よりもはるかに速く、より敏捷になるでしょう。
このやつには笑わされます。映画「Don’t Look Up」を見ていない人のために説明すると、ジョナ・ヒルの演技です。このキャラクターは少しだけ登場しますが、映画の中で私の最も好きなキャラクターです。
彼は、これらの巨大テクノロジー企業の1つを設立した、ある種のテック億万長者を演じています。映画全体を通じて、彼はほとんど目を合わせません。高度に自閉症的な人物を演じており、データで相手を粉砕し、自尊心を完全に打ち砕く場面を除いて、ほとんど誰とも目を合わせません。絶対的に素晴らしいキャラクターです。
そう、すべて大丈夫です、すべて大丈夫です。しかし、ここでエリック・シュミットは、AIの武器化を防ぐための国際条約についてと、それをどのように進めていくかについて話しています。
「これを核兵器体制の歴史的文脈で語りましょう。キッシンジャー博士が大きく貢献したものです。彼と仕事をする中で、完全な解決策が実現するまでにどれだけ時間がかかったかがわかります。アメリカは1945年に原爆を使用し、ソビエト連邦は1949年に実証しました。約4年の差があり、その後本格的な軍拡競争が始まりました。
これらの制限に関する合意が成立するまでに約15年かかり、その間、私たちは膨大な数の兵器を作り続けていました。結果的にそれは間違いでした。不必要な巨大な爆弾を含め、事態は制御不能になりました。
私たちの場合、あなたが言っているように、今から始めることが非常に重要だと思います。私なら次のように始めるでしょう。この条約の署名国が自動兵器システムを持つことを許可しないという条約から始めます。ここで自動兵器というのは、自動化されたものではなく、自分で決定を下すものを指します。紛争における任意の種類のAIの使用は、その決定を下す権限を持つ人間によって所有され、許可されなければならないという合意です。これは簡単な例です。
その一環として、これらのシステムをテストする際には、制御不能になった場合に備えて通知する義務があるということも加えることができます。これらの条約に合意できるかどうかはわかりません。核戦争の恐怖が人々を交渉の場に着かせ、それでも15年かかったことを覚えておいてください。私たちは同様の悪いできごとを経験したくはありません。」
同時に、非常にリアルな人物、完全にAIによって生成されたものでありながら、非常に信憑性の高い人物を作り出す能力は向上し続けています。私が話しているのは、視覚的な品質だけではありません。
例えば、これはFlux 1.1 Pro Ultraによって生成されたAIです。これらの多くは現実と区別がつかず、家庭用コンピュータで実行できるものによって生成されています。同時に、これらのアバター、これらのAIの振る舞い方、どれだけカリスマ性があり説得力があるかをカスタマイズする能力も、かなり向上しています。
それについてもう少し後で話しますが、ここでエリック・シュミットが最近見たデモについて話しています:
「以前、ソーシャルメディアへの影響について話していましたが、イギリスでデモを見ました。最初のコマンドは、25歳で2人の子供がいて、以下の奇妙な信念を持つ女性のプロフィールを作成するというものでした。システムはコードを書き、その特定のソーシャルメディアに存在する偽のペルソナを作成しました。
次のコマンドは、その人物を取り、同様の見解を持つあらゆる可能なステレオタイプ、すべての人種、性別、年齢層などに変更し、それを普及させるというものでした。すると、10,000人が瞬時に現れました。
例えば、今日、喫煙はがんを引き起こさないと主張する10,000人の偽のインフルエンサーのコミュニティを作りたい場合(これが真実でないことは知っていますが)、PCを持つ1人の人間でそれを実行できます。今日のAIよりもはるかに強力になった時のことを想像してください。」
それについてはすぐに戻ってきますが、私たちがすでに知っている人物から、最近非常に衝撃的な研究が発表されました。Social Simulacraという論文を書いた人物です。
さらにもう1つ心に留めておくべきことは、AIがエージェント化する、つまり長期的な計画を追求できるAIエージェントというアイデアです。エリック・シュミットはこれについてこう言っています:
「エージェントへの移行があり、エージェントは物事を実行します。旅行エージェントであったり、何でもよいのですが、エージェントは英語を話します。英語を入力すると、英語で応答します。これらを連結することができ、文字通りエージェント1がエージェント2と話し、エージェント2がエージェント3と話し、エージェント3がエージェント4と話すということができます。
そしてそれらをすべて機能させるオーラーがあります。例えば、これらのエージェントに『世界で最も美しい建物を設計し、すべての許可を申請し、建設業者の料金を交渉し、費用がいくらかかるか教えて、その金額が必要だと会計士に伝えて』というコマンドを出すことができます。
それが命令です。非常に才能のある100人が今日行っていることを、1つのコマンドで実行できるという、その力の加速を考えてみてください。この力は誤用される可能性もあります。」
最近、1000人のシミュレーションに関する論文が発表されました。Jun Sun Parkは、Social Simulacraの背後にいる人物で、基本的に25個ほどの小さなChatGPTが走り回り、すべての人の行動を制御する全体の町をシミュレーションすることができました。
ここでも同様のことを行い、これらの生成エージェントとして作成された2時間のインタビューを使用して、特定の状況でそれらの人々がどのように振る舞うか、どのような信念を持つかなどをシミュレーションすることができました。
これらは実際の人間の参加者で、おそらくOpenAIのモデルによってシミュレーションされています。両方の素晴らしい論文の背後にいる人物、Jun Sun Parkは、a16zのYouTubeチャンネルでインタビューを行い、これがどこに向かっているのかについてのビジョンを共有しています。
「大規模モデルがあるからこそできることがあると思います。私にとって根本的に異なることは、人間の行動をシミュレーションするというアイデアでした。将来のアプリケーション空間の観点から、多くのことを得られると思います。
信憑性を超えて、さらに正確なエージェントを作ることができたらどうなるかというアイデアについても少し触れましたが、一般的にこのアプリケーション空間は、実際にこの聴衆からも多くを学んでいます。私のアドバイザーと私のチームはゲームの大ファンですが、私たちはそのコミュニティの出身ではありません。
私たちが見ているのは、初めはおもちゃのように見えても、とても興味深い技術的な可能性があるということです。前に進むにつれて、私が興味を持っているアプリケーション空間は、例えば自分たちについてもっと学ぶためにシミュレーションを実行できるかということです。
実際、私が今訪れている場所の一部は、イングランド銀行のような場所で、これらの場所は新しい経済政策を必要としています。また、私の同僚の多くは社会科学に焦点を当てており、彼らは理論をテストする必要があります。
現実的な人間の行動でシミュレーションを実行し、少なくともある程度、これらの非常に複雑な社会現象や課題への答えを見つけることができれば、それは実際に過去にはなかった新しいツールとなります。特に経済学や社会科学のコミュニティにとって、興味深いことができるようになると思います。」
これらがエリック・シュミットによって提起された主要なポイントでした。エージェントから、ソーシャルネットワーク上で10万人の人々をシミュレーションして特定の行動を取らせることまで。つまり、誤情報、偽情報、あるいはそれをどう呼びたいかは別として、エージェント的な行動から武器化されたAIモデルまでです。
いつ殺すか、どのように殺すか、最高の殺害数をどのように達成するかについて決定を下す武器です。ある時点で、誰かが効率比のようなものを導入するでしょう。例えば、殺害コストをどのように削減するか、あるいは最小の費用で最大数の人々を殺害する方法などです。そして、おそらくモデルにそれを計算させることになるでしょう。
そしてそのような段階に達する前に、エリックが指摘し、他の多くの人々も指摘している点は、何が受け入れられないのか、どこに線を引くのかについて、何らかの合意を持つべきだということです。
彼は最近、実際にいくつかの本を出版したため、多くのインタビューや講演を行っています。「Genesis」が最新で、ヘンリー・キッシンジャーも著者の1人です。その前は「The Age of AI」で、これもヘンリー・キッシンジャーとの共著でした。
私はこれらを読んでいませんが、個人的に彼の発言や行っているインタビューの多くをフォローしています。なぜなら、彼はかなり長い間、AIの分野のインサイダーであっただけでなく、米国国防総省のインサイダーでもあったことを覚えておく必要があるからです。
おそらく彼は私たち一般人が見ていないものを見てきており、私たちがアクセスできないものにアクセスでき、多くのことがどこに向かっているのかを知っていると言えるでしょう。おそらく将来のAIの軌道についてより良く推測できる立場にいます。
しかし、あなたはどう思いますか?彼の言っていることのいくつかに同意しますか?中国が現在市場にある最先端のモデルを解読し、それをオープンソースとしてリリースしていることについてどう感じますか?
ソーシャルメディア上で数千のAIレプリカントが暴れ回ることを心配していますか?とにかく、コメントで皆さんの意見を聞かせてください。
ここまで見ていただき、ありがとうございます。私の名前はウェス・ルスです。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました