
4,446 文字

Googleは誰も越えないと思われていた一線を越えました。兵器や監視のためのAIを決して作らないという約束を静かに消し去り、数十億ドルがAIの軍事契約に密かに流れ込み、世界的な軍拡競争が加速する中、私たちは今、技術史上最も危険な転換点を目の当たりにしているのかもしれません。
少し巻き戻してみましょう。2018年、GoogleはプロジェクトMavenという論争の直後にAI原則の大きなリストを公開しました。プロジェクトMavenは、ドローン映像を分析するAIを使用した国防総省のプログラムでした。多くのGoogle従業員が、自分たちの仕事が人々を傷つける可能性のある兵器に貢献することを望まないと抗議しました。実際、一部の従業員は辞職し、何千人もの従業員が、自分たちのAI関連の仕事が倫理的な一線を越えていると感じて請願書に署名しました。その結果、Googleはペンタゴンとの契約を更新しないことを決定し、国際的に受け入れられた規範に違反する兵器や監視などの目的でAIを設計または展開しないことを公約しました。
2025年2月現在、その約束は消え去りました。この発表は2025年2月5日、GoogleがAI原則と呼ぶものを更新した際に行われました。新しい方針では、Googleは依然として責任を持ってAIを開発し、広く受け入れられている国際法と人権の原則に沿って開発すると述べていますが、兵器や監視のためのAIを構築しないという具体的な約束は完全に削除されました。
DeepMindのチーフであるデミス・ハサビスとGoogleリサーチラボのSVPであるジェームズ・マニカは、ブログ投稿で、地政学的な状況が increasingly複雑化しているため、民主主義国家が自由、平等、人権の尊重などに導かれてAIの競争をリードすべきだと考えていると述べました。また、人々を保護し、国家安全保障を支援するためには、企業、政府、組織間の協力が重要だとも述べています。
この方針の転換は、Googleの親会社であるAlphabetがやや期待外れの業績を報告した直後に行われました。収益は約965億ドルで、アナリストの予想である966.7億ドルをわずかに下回りました。この発表によりAlphabetの株価は、ウォール街が開場した際に約8%下落しました。
eMarketerのシニアアナリスト、エヴリン・ミッチェル・ウルフは、Google Cloudの予想を下回る成長が数字が低くなった大きな理由だと指摘しました。また、Googleのよりクローズドなモデル戦略に関する疑問が高まっていることや、世界的な舞台でGoogleのAIを困惑させたDeep seekという競合他社についても言及があり、AIによるモメンタムが失速している可能性があると示唆しました。
総じて、Alphabetは来年、AI機能とインフラを構築するために750億ドルの設備投資を行うと述べており、Googleは兵器や監視に関する当初の立場を変更してでも、AIに全面的に投資する姿勢を示しています。
より広い視点から見ると、Googleは初期からの「邪悪になるな(Don’t be evil)」というモットーと複雑な関係を持っていました。これは当初、会社の大きな道徳的基準でしたが、2009年までには単なるマントラに格下げされ、2015年にGoogleの親会社としてAlphabetが設立された際には、新しい倫理規定には含まれませんでした。
社内では、従業員たちがmimanと呼ばれるメッセージボードでリアルタイムに反応しています。ナチスのコメディスケッチ「私たちが悪者なの?」を参照したミームや、新しい軍事的なパートナーシップの報告を見て「あぁ、そういうことか」というビッグバン・セオリーのシェルドンのミーム、そしてスンダル・ピチャイCEOが「兵器請負業者になる方法」をグーグル検索しているというジョークのミームが出回っています。
もちろん、一部の従業員は、国家安全保障の強化や地上の軍隊の保護などについて、防衛や政府との仕事との連携を必要不可欠、あるいは愛国的なものとして受け入れているかもしれません。Googleには18万人以上の従業員がいるため、様々な意見が存在する大きな集団となっています。
Google Brainを設立し、初期の会社のAIイニシアチブの形成に重要な役割を果たしたアンドリュー・ンは、Googleが方針を変更し、以前の約束を破棄したことを非常に喜んでいると述べています。2025年2月7日、サンフランシスコの軍事退役軍人スタートアップ会議で講演し、プロジェクトMavenのような案件で多くの従業員が動揺した理由が理解できなかったと基本的に述べました。
「軍人が我が国のために血を流す覚悟があるのに、アメリカの企業が彼らを助けることを拒否できるだろうか」と述べ、カリフォルニア州のSB 1477法案やバイデン前大統領のAI行政命令が覆されたことへの安堵も表明しました。これらの措置は他国に優位性を与えることになったであろうアメリカのAIイノベーションを遅らせていたと考えているからです。
特に中国に対して、米国がAIで優位性を維持することを望む陣営に属しており、AIドローンが戦場を変革する可能性についても言及しました。別の元Google幹部のエリック・シュミットも、中国と競争するためにAIドローンを購入するよう政府に働きかけるなど、ワシントンで同様のメッセージを発信しています。
もちろん、全員がそのように感じているわけではありません。2018年のGoogleでの抗議活動を主導したメレディス・ホイタッカーは、戦争のためのAI開発に強く反対しています。当時、「Googleは戦争ビジネスに関わるべきではない」と述べました。ノーベル賞受賞者のジェフリー・ヒントンという別の主要なAI研究者は、世界中の政府に対して兵器におけるAIの制限または禁止を呼びかけています。現在GoogleのDeepMindの主任科学者であるジェフ・ディーンは以前、致死性自律兵器機械学習の使用に反対する書簡に署名していました。
AIコミュニティ内には大きな分裂があります。それだけでも追跡するのが大変なのに、OpenAIも米国政府との大規模な新しいパートナーシップで注目を集めています。最大15,000人の科学者が核研究に取り組む国立研究所で、核兵器と核物質の安全確保を支援するためにOpenAIの最新のo1シリーズモデルを使用する計画です。
これだけでもSFのような話に聞こえますが、OpenAIのCEOであるサム・アルトマンは、核戦争のリスクを低減することに焦点を当てたいと述べています。しかし、幻覚を見たり個人情報を漏洩したりすることで知られるAIを核の機密情報の近くに置くことを懸念する人々も多くいます。映画「ターミネーター」を半ば冗談に、半ば真剣に引用する人々もいます。その映画では、AIの防衛ネットワークが基本的に人類を抹殺することを決定するからです。
議論を巻き起こしているのは、サム・アルトマンが今年1月20日のドナルド・トランプ大統領就任式に、ジェフ・ベゾスやマーク・ザッカーバーグなどのテック業界のリーダーとともに出席したことです。トランプは就任後すぐに、企業にAI安全性テストの結果を政府と共有することを義務付けた以前のバイデン大統領の行政命令を取り消しました。つまり、現在は安全装置が少なくなっています。
また、アルトマンは就任式に100万ドルを寄付し、「トランプに対する見方が本当に変わった」と公に述べました。これは、以前トランプを批判していたアルトマンだけに、多くの人々を驚かせました。トランプ政権が導入したAIインフラ構築のための5,000億ドルの新しいStargateベンチャーについて聞いたことがあるかもしれませんが、OpenAIもそこに数百億ドルを投資する予定です。
これらすべては、OpenAIが前回の評価額の2倍となる3,400億ドルの評価額で、さらなる大規模な資金調達ラウンドの交渉を行っているとされる中で起こっています。政府部門での影響力拡大を目指しているのも不思議ではありません。
また、米国政府機関向けに特化したChat GPT-Gと呼ばれるものを発表しましたが、セキュリティに焦点を当てています。これらのモデルが情報を作り出したり、ユーザーデータを意図せずに漏洩したりした実績を考えると、そのセキュリティがどれほど堅牢なものかは未だ不明です。
これらの動きの背後にある最大の理由の1つは、世界の超大国間での新しいAI軍拡競争です。中国はAIに多額の投資を行っており、Deep seekという中国のスタートアップが最高レベルのモデルと競争できることを最近実証したという話もあります。Googleのブログ投稿でさえ、AIが人権に合致した方法で発展することを確実にするために、民主主義国家がAIをリードする必要があると述べています。
これは小さな懸念ではありませんが、それが兵器AIへの取り組みを意味するのが最善の方法かどうかは、依然として激しい議論の的となっています。
新しい方針の変更前でさえ、Googleは長年にわたって複数の防衛契約に関与してきました。例えばプロジェクトNimbusは、クラウドサービスを提供するイスラエル政府とのパートナーシップです。これについても、パレスチナの権利を損なうとして従業員から内部抗議がありました。
一方、AmazonはPalantrと協力して、米軍とインテリジェンス顧客向けにClawAIを実現する何かに取り組んでいます。つまり、Googleだけではありません。Microsoft、Amazon、Meta、その他の主要企業も、AIを軍事用に販売することの倫理と格闘しています。
英国のコンピュータ科学者スチュアート・ラッセルは、自律型兵器システムについて警告するリース講演を行い、世界的な規制を求めています。しかし、この新しい環境は基本的にその正反対です。企業は制約を取り除いています。Googleは同じ息の下で責任を持って行動したいと述べていますが、多くの人々にとって、致死性のある技術を積極的に構築する、あるいは少なくともその可能性を残している場合、「責任」とは一体何を意味するのかという疑問が生じます。
Googleは兵器や監視のためのAIを使用しないという約束を静かに破棄し、様々な反応を引き起こしました。一部の人々はこれを国家安全保障のために必要不可欠なものと見なし、他の人々は倫理の裏切りと呼んでいます。AIに数十億ドルが流れ込み、軍事的なつながりが強まり、OpenAIやDeep seekなどのライバルとの激しい競争の中で、イノベーションと軍事化の境界線はかつてないほど曖昧になっています。
コメント