禁止!? DeepSeek – OpenAIがAI戦争をエスカレート

5,469 文字

DEEPSEEK to Be BANNED!? OpenAI Just Escalated the AI War!
OpenAI and Google are pushing to get DeepSeek banned, claiming the Chinese AI lab poses a national security risk due to ...

OpenAIはDeepSeekを国家安全保障上の脅威と呼び禁止を求めています。そして今やAnthropicとGoogleもその主張を支持しています。一方、Elon MuskとOpenAIの法的闘争は、両者が裁判の迅速化に同意したことでエスカレートしています。AI業界はもはや競争的であるだけでなく、完全な戦場と化しています。
OpenAIは中国のAIラボであるDeepSeekについて本当に警告フラグを上げてきました。彼らは基本的に、DeepSeekがアメリカ、そして西側のAIリーダーシップに直接的な脅威となる可能性があると言っています。彼らは、バイデン政権が輸出制限の下で「第一層」として分類した特定の地域で、少なくともDeepSeekのモデルを完全に禁止するよう米国政府に提案するところまで踏み込んでいます。これらの制限はすでに、中国と同盟国への高性能AIチップの出荷を制限していますので、OpenAIは本質的に「なぜ中国で構築されているAIモデルも禁止しないのか」と問いかけています。彼らの主張は、中国のデータ処理法の下では、中国のテクノロジー企業を通過するデータは要請に応じて政府に引き渡される可能性があるということです。
したがって、DeepSeekのようなAIモデルが国際的に運用されている場合、プライバシー、セキュリティ、そしておそらく知的財産の盗難に関する大きな懸念が生じます。OpenAIがこれを大問題と考える理由は理解できます。特に彼らはDeepSeekが過去にOpenAIの独自モデルから知識を蒸留した可能性があると主張しているからです。
注目すべきは、DeepSeekが基本的に中国政府の一部であるという直接的な決定的証拠はないということです。DeepSeekは国営研究機関ではなく、High Flyerという名のヘッジファンドからのスピンオフとして始まりました。しかし、DeepSeekの創設者である梁文峰が最近、中国の習近平国家主席と会談したとき、人々は注目しました。それは確かに、中国政府がDeepSeekを巨大な戦略的優先事項と見なしている可能性があるという憶測に拍車をかけました。
さらに興味深いのは、OpenAIもまた、米国での著作権で保護された素材に対して基本的に自由な裁量権を持つ必要がある、さもなければ中国に対して遅れをとるだろうと話していることです。彼らは政府に対して大きな提出を行い、著作権で保護された素材を、例えば広範な公正使用ポリシーの下で訓練できない場合、データへのアクセスがより容易な中国のラボが先に進む可能性があると述べています。彼らは再びDeepSeekを、中国が急速に追いついていることの兆候として指摘しています。
彼らの主張はこんな感じです:「もし本や記事、画像などのデータを採掘する能力を制限されると、基本的に手を後ろで縛られることになります。それによって中国のモデルが米国を飛び越える可能性があります」。OpenAIは、米国で非常に厳しい著作権法を乗り切らなければならないとしたら、大きな不利益を被る可能性があるとも述べています。彼らは、AI企業が許可なく彼らのものを使用していると主張する写真代理店、ニュースアウトレット、アーティストからすでに出てきた訴訟に言及しています。
ちなみに、これはOpenAIだけではありません。AnthropicとGoogleも最近、アメリカのAIリードが縮小しているという独自の警告を発しています。DeepSeekはR1というモデルをリリースしましたが、Anthropicによれば、このモデルは非常に高度な推論を実証しています。DeepSeek R1は、例えば生物兵器化についてのような境界線上の悪意のある質問にも答えるとのことです。
これは明らかにAI安全性の観点からは大きな禁忌事項です。そのため、AnthropicはClaudeやChatGPTと同じガードレールを持たない可能性のある高度なAIのバイオセキュリティへの影響を懸念しています。個人的には、AI システムに制限、検閲、または構築されたバイアスがあるべきではないと考えています。AIは真に開放的で、真に検閲されておらず、物語をコントロールしたり知識へのアクセスを制限するように設計された人工的な制限から自由であるべきです。
AnthropicはまたNVIDIA H20チップについても懸念を提起しています。これらはまだ中国に輸出されていますが、興味深いことに、米国政府によって制限されている公式なパフォーマンスの閾値を下回る特定の仕様を満たしています。しかしAnthropicは、これらはまだテキスト生成において本当に優れており、大規模モデルをトレーニングするのに十分だと主張しています。そのため、彼らはその抜け穴を塞ぐために即時の規制措置を望んでいます。
一方、Googleは「国家安全保障が大きな懸念であることは理解していますが、輸出規制が厳しすぎてイノベーションを窒息させないでください」と言っています。彼らは米国のプロバイダーを強く保ち、グローバル事業を妨げない均衡のとれたアプローチを提唱しています。
基本的に、アメリカの大手3AI企業であるOpenAI、Anthropic、Googleは、米国を上位に保つための堅固な政府計画が必要だという点で一致していますが、輸出制限やデータ共有制限をどこまで進めるべきかという点で見解が異なります。AnthropicはパワフルなAIの潜在的な誤用についてより心配しており、OpenAIは民主的AIが権威主義的AIに勝つことについて、そしてGoogleはビジネス環境がオープンであり続けることを保証したいと考えています。
皮肉なことに、OpenAI自身のモデルは厳しく制限され、検閲され、ユーザーが何をできて何をできないかを決定するコンテンツフィルターで満たされています。それは民主主義を叫ぶものではありません。もしあるとすれば、真にオープンで偏りのないAI、イデオロギー的なフィルタリングなしにユーザーに完全なコントロールを与えるAIは、OpenAIが民主的と主張している厳密に規制されたシステムよりも、本物の自由の概念とはるかに良く調和するでしょう。
特にOpenAIはインフラストラクチャーにおいてもいくつかの大規模な拡張を呼びかけています。彼らは次世代のフロンティアAIモデルをトレーニングするために、2027年までに追加で50GWもの電力を必要とすると話しています。それはかなりの電力量であり、彼らは連邦政府にデータセンターや新しい送電線などの許可プロセスを迅速化するよう要請しています。Anthropicもその一般的な感情に賛同しており、米国が需要に対応できなければ、ラボが他の場所に設立される可能性があり、最終的にはアメリカのAIリーダーシップを弱める可能性があると警告しています。これは国家安全保障と高レベルのインフラ計画が出会う興味深い組み合わせです。
これらすべての懸念はアメリカをAIの最前線に保つためにトランプ政権が要請したAIアクションプランに集約されています。OpenAIの提出は、民主的AIと権威主義的AIの対立というアイデアを押し進め、中国のDeepSeekモデルは国家資金提供を受け、国家によってコントロールされ、自由に利用可能であると主張しています。彼らはこの組み合わせがリスクであると言います。OpenAIは、中国政府がDeepSeekを操作できる場合、データ収集やインフラ妨害などの深刻な脅威をもたらす可能性があると警告しています。
しかし、DeepSeekが国家によってコントロールされているか国家から資金提供を受けているという証拠は全くありません。これらの主張は具体的な証拠に裏付けられていない純粋に憶測にすぎません。
次に、Elon Muskとの別のドラマがあります。覚えておいてください、Elon Muskは2015年にOpenAIを共同設立しましたが、後に離れてX AIを設立しました。現在、Muskは営利モデルへの移行によって会社の元々の使命を裏切ったとしてOpenAIを訴えています。この動きは、企業の利益ではなく人類の利益のためにAIを開発するという会社の元々の目標に反すると彼は主張しています。
しかし、一部の人々はMuskの行動は単なる原則よりも戦略的な利益に関連している可能性があると考えています。彼自身のAI企業であるX AIがまだ追いつこうとしている段階で、OpenAIの勢いを崩すことは彼のスタートアップにより良い成長チャンスを与える可能性があります。Muskはまた、OpenAIとMicrosoftの関係について公然と批判しており、そのようなパートナーシップが彼らに不公平な優位性を与え、AI開発に対する力を企業の手に過度に集中させるリスクがあると主張しています。
一方、OpenAIは競争力を維持するために必要な膨大な資金を確保するためには営利に転換することが不可欠だと主張しています。たとえば、彼らが最近調達した66億ドルや、この構造に依存するとされるSoftBankからの400億ドルの追加投資などです。Muskは974億ドルの買収入札で彼らを出し抜こうとさえしましたが、Sam Altmanは簡単に「どうもありがとう、遠慮しておきます」と一蹴しました。両者がこの法的闘争で対立する中、迅速な裁判が行われる予定で、おそらく秋に行われる可能性があります。
OpenAIが彼らのメモで最終的に出した一連の提言はかなり広範です。彼らは、異なる州レベルの規制に対処する必要がないように、単一の連邦ルールを望んでいます。これにより、パッチワーク的な障害が作られる可能性があります。彼らは政府がAIを大規模に採用することを望んでいます。つまり、時代遅れのFedRAMPプロセスや複雑な調達ステップなどはもう必要ないということです。彼らは連邦政府との実際のパートナーシップを望んでいます。つまり、米国政府が強力なモデルを国家安全保障リスクに対して評価しテストするということです。これはすべて、新しいまたは拡張された機関の下で行われるでしょう。おそらくAI安全性研究所のような再構想されたものかもしれません。
そして彼らは輸出規制の強化についても声を大にして語ることに決して恥じることはありません。基本的に、「アメリカの価値観を共有する国々とのパートナーシップを結び、良いものを中国とその同盟国から遠ざけるべきだ」と言っています。Anthropicも精神的にはその意見に同調していますが、彼らはバイオセキュリティの角度をより強調しています。彼らは、新しいモデルであるClaude 3.7 Sonnetは、潜在的な生物兵器に関する非常に不安な洞察を提供するほど高度であることを認めています。これは明らかにそれが意図されている用途ではありませんが、正しい質問、または間違った質問が投げかけられた場合、これらのモデルがどのようにデュアルユースになりうるかを示しています。
結局のところ、これらすべては巨大な国家安全保障問題として枠組みされています。OpenAIは基本的に、データセンターからチップ製造、トレーニングセットに至るまでのAIドメイン全体が、アメリカの支配にとって極めて重要であると宣言しました。彼らは言葉を選ばず、「AIにおいてグローバルな支配力を維持しなければならない」と言い、欧州AI法を警告的な例として指摘し、それを「不必要な障害」と呼び、米国がそれをコピーすることを避けるべきだと述べています。Googleはグローバルな枠組みにもう少しオープンですが、明らかに彼らも大量の官僚主義に足を引っ張られることを望んでいません。
現在のAIの風景全体は混乱しています。巨額の投資、訴訟、政府の圧力、著作権論争、そして物事を動かし続けるためのエネルギー需要があります。その上、DeepSeekのような中国のモデルがギャップを縮めているという恐れが高まっています。
OpenAIとAnthropicは指を指し、DeepSeekが中国政府によってコントロールされる可能性があると警告しています。しかし、ここで大事なのは、それに対する証拠がまったくないということです。一方で、OpenAIとAnthropicは米国政府に接近するためにあらゆることを行い、禁止、輸出規制、そして基本的に競合するAIモデルを遅らせる可能性のあるものを推進しています。
それは少し偽善的に感じ始めています。まるで彼らがトップにいるために技術の進歩を妨げることをいとわないかのようです。より一生懸命トレーニングするのではなく、最速のランナーをつまずかせようとしているようです。しかし、彼らは自分のモデルを改善することに集中すべきかもしれません。結局のところ、OpenAIの最新のGPT-4.5は広くAI世界における大きな失望、主要な落胆と見なされています。もし彼らが自社製品の修正により多くの時間を費やし、競合他社をブロックしようとする時間を減らせば、彼らは本当の意味でリードを維持できるかもしれません。
はい、それが全てのストーリーです。下のコメントであなたの考えを教えてください。視聴ありがとうございます。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました