ホワイトハウスが衝撃的なAI関連命令を発表

6,377 文字

White House Releases SHOCKING AI ORDER
The latest AI News. Learn about LLMs, Gen AI and get ready for the rollout of AGI. Wes Roth covers the latest happenings...

ほな、今日はAIに関する大きなニュースがありましてな。まず何より、バイデン・ハリス政権がアメリカの国家安全保障のためにAIの力を活用するための統合的アプローチを発表しました。これはちょっと大きな話で、実際にアメリカがAI大国になるための取り組みの成果が既に出てきてるんです。
以前は、AIの安全で信頼できる開発を確保して、差別などにつながらないようにするという漠然とした話でした。AIとは何か、どんな影響があるのかについても、あまり理解してへんような印象でした。でも今回は全然違いますわ。
まず、国家安全保障覚書(NSM)で始まってます。これはAIに関する国家安全保障覚書で、アメリカ政府に以下の具体的で影響力のある手順の実施を指示してます。

アメリカが世界の安全で信頼できるAI開発をリードすることを確保する。使われてる言葉の強さに注目してください。これは単なる言葉だけやなくて、後で説明しますけど、実際の裏付けもあります。
最先端のAI技術を活用して、アメリカ政府の国家安全保障任務を推進し、AI関連の国際的な合意とガバナンスを進める。

トーンの変化に気付いたと思います。以前は「これは新しい面白いものやから、みんなとうまく付き合えるようにしましょう」みたいな漠然とした感じでしたけど、今回は違います。アメリカが開発でナンバーワンになって、国家安全保障の重要な部分にするって言うてます。
国家安全保障言うたら、軍事力のことも含みます。これは力であり、影響力を行使する能力のことです。古代から現代まで、政府の基本的な役割は生き残ること、他からの圧力に負けへんことです。誰かに攻撃されたら警察を呼ぶようなもんです。
彼らは「最高のAIを作って、それを国家安全保障の一部にする」って言うてます。これは大きな話です。さらに「国際的な合意を進める」言うてますけど、つまり「私らが一番になって、他の国に何をすべきか教える」ということです。
この強い言葉遣いに注目してください。「具体的で影響力のある手順を実施する」って。そしてNSMは連邦政府を「奮い立たせる(Galvanize)」ように設計されてます。この「Galvanize」って言葉、どれくらい使われてるんやろ。「ショックを与えて行動を起こさせる」って意味です。
私のビデオ見すぎやと思います。今回のタイトルに「SHOCKING(衝撃的)」って使わな仕方ないですわ。彼らが言うたんですから。
連邦政府にAIを採用させて国家安全保障任務を推進させる。その際には民主主義的な価値観を反映させ、人権、市民権、自由、プライバシーを守るようにする。これ全体を読んでると、ある国のことを言うてるみたいですけど、名前は出してません。その国がやってないことを全部やりますって言うてるように聞こえます。
さらにNSMは、AIの使用に関する国際的な規範をこれらの民主主義的な価値観に沿うように形作り、敵対者のAI開発と国家安全保障目的での使用を追跡し、対抗する行動を指示します。
まとめると、「最高のAIを作って、力を得て維持する。他の友好国や皆にこの技術をどう管理すべきか教える。民主主義的な価値観を持たない国々には、国家安全保障目的でAIを使わせたくない」と。
明らかに中国のことを言うてるんですけど、後で最近起こったことをお見せします。この強い言葉遣いには理由があります。
これらを実現するために、たくさんのチップが必要です。NVIDIAのチップがブンブン回るわけです。チップス法に署名して、アメリカのAI技術開発のために多額の資金を投入しました。確か、この法律で中国への強力なNVIDIA技術の輸出も制限されたと思います。
ブラックマーケットができて、まだ少し入り込んでますけど、取り締まりを強化してます。中国に最新・最強のNVIDIAチップやAIの学習・推論ができるチップへの無制限のアクセスを与えたくないんです。
チップス法は最先端の半導体製造能力に大きな投資をしました。これは本当です。NSMはチップのサプライチェーンの安全性と多様性を改善し、次世代の政府スーパーコンピューターや新技術の開発をAIを念頭に置いて行うよう指示してます。
AIが大きな存在になることに、みんな気付き始めてます。高性能AIチップの世界のサプライチェーンは、地球上で最も多様性に欠け、安全性も低いものの一つでした。
競争相手はアメリカのAIリーダーシップを覆そうとして、経済的・技術的なスパイ行為やアメリカの技術を盗もうとしてます。このNSMは、競争相手のAI分野への攻撃に関する情報収集を最優先の情報収集課題とし、関連する政府機関にAI開発者へのサイバーセキュリティと防諜情報の適時提供を指示してます。
アメリカの利益に関わる部分では、利益を追求する企業とアメリカ政府・軍事・サイバーセキュリティ・防諜機関との境界線が曖昧になってます。過去に石油でそうだったように、誰かがアメリカの利益やサプライチェーンを妨害しようとすると、情報機関や場合によっては軍も関与する可能性があります。
スパイ行為への対抗を最優先の情報収集課題とし、AI開発者に必要なサイバーセキュリティと防諜情報を提供すると言うてます。サプライチェーン開発に何十億ドルも投資して、さらに最高レベルの情報も提供すると。
アメリカが最大限AIの恩恵を受けるには、アメリカ国民がシステムが安全で信頼できると確信する必要があります。NSMは正式にAI安全研究所を、急速に進化するこの技術を理解する技術専門家を擁する、アメリカ産業の政府における主要な窓口として指定しました。
また、AI安全研究所が情報機関、国防総省、エネルギー省などの国家安全保障機関と連携するための強化された合理的な仕組みも示してます。
NISTという国立標準技術研究所があって、アメリカのイノベーションと産業競争力を促進する役割があります。理解が正しければ、NISTに属するアメリカAI安全研究所が、政府の主要な窓口として正式に指定され、急速に進化する技術を理解する技術専門家を配置することになります。
NSMは全米AI研究リソース(既にパイロット段階)を強化し、大学や市民社会、小規模企業の研究者が技術的に意味のあるAI研究を行えるようにします。AIは速すぎて複雑すぎるから、大企業だけに頼るわけにはいきません。AIを安全で信頼できるものにしたいと考える才能ある個人や機関の力を引き出し、学ぶ必要があります。
さらにNSMは、国家経済会議に対して、アメリカの民間AIエコシステムの相対的な競争優位性の経済評価を調整するよう指示してます。必要なAIチップの確保方法、AI開発を支援し基準を設定する独自の機関の設立、競争力確保のための経済評価など、包括的に取り組んでます。
NSMは単に国家安全保障のためにAIを使うだけでなく、必ず民主主義的な価値観に沿って行うことを強調してます。AGI(汎用人工知能)による専制的な支配、超知能による独裁者は、想像できる最も恐ろしいものの一つです。
NSMは、本日公開される国家安全保障におけるAIガバナンスとリスク管理を推進するための枠組みの作成を指示してます。興味深いことに、中華人民共和国も共同提案国として含まれる、AIの軍事利用と自律性に関する政治宣言やAIに関する国連総会決議にも言及してます。
本日、Bloombergからも興味深いニュースが出ました。TSMCのアリゾナ工場のチップ生産歩留まりが台湾を上回り、アメリカの取り組みが成功を収めたとのことです。
TSMCは世界最大のAIチップメーカーの一つです。台湾積体電路製造(TSMC)は、世界の最先端半導体チップの90%を生産し、世界で最も重要な企業の一つと呼ばれ、世界の半導体製造収入の約70%を占めてます。
もちろん中国は台湾を欲しがってます。TSMCはシリコン・シールドとも呼ばれ、世界にとって極めて重要な資源を生産してるため、中国の野心から台湾をある程度守ってます。でも、中国はすぐ近くにあり、これらの生産施設や企業を巡って戦争が起きる可能性を心配する人も多いです。
チップス法の一部として、アメリカのサプライチェーンをより安全で多様にするため、TSMCのアリゾナでの生産施設建設を推進しました。今日の報告では、アリゾナの生産歩留まりが台湾を4ポイント上回ったそうです。
面白いのは、立ち上げ当初、アメリカ人労働者と台湾人管理者との文化の違いに関するニュースです。工場での対応の仕方が異なるようで、台湾側が管理スタッフに配布したメモには「アメリカ人労働者は脅されるのを嫌がります。厳しい扱いを嫌がります」といった内容があったそうです。
Tom’s Hardwareによると、大きな問題の一つは、TSMCが台湾式のやり方をアメリカでも続けようとしたことです。台湾では、週末まで及ぶ12時間労働や、緊急時の深夜呼び出しなど、非常に厳しい労働条件が当たり前です。管理者は厳しい態度で接し、些細なミスでも解雇すると脅すことで知られてます。TSMCはすぐに、そういったやり方はアメリカでは通用しないことを学びました。
しかし、どうあれ成功してるようです。アリゾナの生産歩留まりは4ポイント高いとのこと。当初は遅延や労働争議に悩まされたプロジェクトでした。面白いことに、労働者は脅されるのを嫌がるそうです。
2024年6月、レオポルド・アッシェンブレナーは状況認識に関する論文を書き、ほぼ正確に予測しました。「10年が終わる頃には、これらの超知能マシンはあなたや私より賢くなっている」と。真の意味での超知能を持つことになると。
その部分はまだ実現してませんが、彼は「半世紀ぶりの国家安全保障の力が解き放たれる」と。「解き放たれる」という言葉が好きです。そしてマンハッタン計画のような規模とAI技術開発への集中が起こると。
「運が良ければ中国共産党との全面的な競争になり、運が悪ければ全面戦争になる」と。この論文は2024年6月10日に取り上げました。視聴してくれた皆さん、ありがとうございます。
レオポルド・アッシェンブレナーの予測について、私が冒頭で言ったのは、これから起こることを予測する上で唯一筋の通った人物だということです。
ある人々は永遠の豊かさを約束するユートピア的な宇宙共産主義を予測し、AIが全てを提供すると考え、他の人々はターミネーター的なシナリオを想像しました。
私の主張は常に、そこに至る前に、そもそもそこに至るとして、解決すべき多くの課題があるということでした。多くの政府や権力者が、ただ座って全てが発展するのを待つわけではありません。
人間の心では理解できないことができる超知能マシンを開発していると信じるなら、それについて冷静ではいられない人々がたくさんいるはずです。国々は様々な形で戦ってきました。熱戦、冷戦、経済戦争、外交戦、影響力を巡る古典的な戦い。土地、影響力、石油、香辛料などを巡って戦ってきました。今出現しつつあるものは、これまでの全てを比較にならないほど重要なものにしてしまいます。
以前、ホワイトハウスが「このAIが出てきたけど、人事部が悪用して差別したりせんように気を付けましょう」って言うてた時は、ポイントを外してました。今回の方が、「ああ、これが来るんや」という感じです。
NSMは連邦政府に衝撃を与えて、国家安全保障のためのAI採用を促すように設計されてる。これは彼らが理解し始めたことを示してます。
レオポルド・アッシェンブレナーの状況認識からの抜粋です。「今や誰もがAIについて語ってるが、何が来るのかほとんど理解してない。NVIDIAのアナリストでさえ2024年がピークに近いと考えてる」
これは投資アドバイスではありません。株価がどうなるか私には分かりません。ただ、アメリカの技術を盗もうとする試みは最優先の情報収集課題となり、AI開発者にサイバーセキュリティと防諜情報を提供すると言うてることは、NVIDIAなどから設計図を盗もうとしたら、消えてなくなって二度と誰にも会えなくなるかもしれないということです。
レオポルドは続けます。「主流のパンディットは意図的な盲目状態に陥ってる」。「AIはただのインチキや、心配すんな」という意見をよく見かけます。
もしこの人が正しくて、これが全部ただのハイプで、AIは何の価値もないのなら、ホワイトハウス、連邦政府、情報機関、軍事機関、NIST、そしてアメリカをAI超大国にするための大規模な土地開発に関わる全ての専門家、アリゾナ工場を稼働させるために数十億ドルを費やし、従業員を脅したり、情報機関、国防総省、エネルギー省、国家経済会議、全てがこのインチキAIに騙されてることになります。
あるいは、これらの人々は何を話してるか分かってないか、何らかの理由で特定のアジェンダを推進するために金を払われてるのかもしれません。
でもレオポルドが言うように、「まもなく世界は目覚める」。以前のビデオで取り上げましたが、その後も何度か言及してきました。予言された未来が現実になりつつあるように感じるからです。
これはマイクロソフトが3Mアイランドの原子力発電所を再起動する前、GPUやデータセンター、電力供給に関する大規模プロジェクトが発表される前、元NSA長官がOpenAIの理事会に加わる前のことでした。
彼は「AGIへの競争が激化するにつれ、国家安全保障機関が関与してくる」と言ってます。「歴史から一時的な休息を無意識に内面化した人々の妄想であり、より原初的な力を呼び起こさないわけにはいかない」と書いてます。
面白い書き方ですね。「私たちの前に多くの科学者がそうだったように、サンフランシスコの偉大な頭脳たちは、彼らが生み出している悪魔の運命を制御できると期待してる」。すごいですね。
「今のところ、彼らにはまだできる。状況認識を持つ数少ない人々の一人として、自分たちが何を作ってるか理解してるからだ。しかし数年のうちに世界は目覚め、国家安全保障機関も目覚める。歴史が華々しく回帰するだろう」
歴史とは、冷戦や、マンハッタン計画のような政府の全力を挙げた巨大プロジェクト、様々な安全保障機関が密かに力を振るおうとする動きなどを指してます。
どう思います?自画自賛になりますが、これは私が考えてたことでした。でもレオポルドに全ての功績があります。彼は非常に明確で分かりやすい方法でこれを書き、OpenAIの実際の研究者として、開発、成長、改善の過程を説明し、特定の閾値に達する時期についても示してます。
これは有名な図で、おそらく見たことあると思います。2027年頃に自動化されたAI研究が実現するという考えです。このチャンネルを見てる人には驚きではないでしょうが、この論文が発表されてから、そして少し前から、既にその例が見られます。
OpenAIの01モデルによる自律的な機械学習研究、既にベンチマークも出てます。専門家でさえ、実際より先のことだと考えがちです。自動化されたAI研究は2027年よりも早く実現するかもしれません。
そうなると、レオポルドが「知能爆発」と呼ぶものが起こります。賢いAIが自身の知能を改善し、さらにその改善能力自体も向上させる。いわば再帰的で複合的な知能の改善です。
そしてもちろん、安全で信頼できる…というか、AIの開発で世界をリードする国が、全てを手に入れることになります。
コメント欄で意見を聞かせてください。私の名前はウェス・ロスです。ここまで見てくれてありがとうございます。また会いましょう。

コメント

タイトルとURLをコピーしました