政府の極秘AGIプロジェクトが明らかに…

3,863 文字

The Governments SECRET AGI Project Just Was Revealed...
Prepare for AGI with me - 🐤 Follow Me on Twitter 🌐 Checkout My website -

最近、アメリカ政府が超人工知能を解き放つための極秘プロジェクトに資金を提供することになりそうです。これは人工知能における最も重大なニュースの一つかもしれません。というのも、前回政府がこういったことをした時に何が起こったのか、みんな知っているからです。
ちょっと経緯を説明させていただきますと、私が言うてるんは「マンハッタン計画」のことです。オッペンハイマーの映画をご覧になった方は、マンハッタン計画がどんなものやったかよく分かってはると思います。
簡単に説明させていただきますと、マンハッタン計画いうのは、1942年から1946年にかけての巨大な戦時プロジェクトで、人類の歴史を変えてしもたんです。アメリカ政府は、原子そのものの力を利用できる全く新しい兵器が可能やということに気づいたんです。それだけやなくて、ナチス・ドイツもこれを作ろうとしてるということも分かってたんで、時間との戦いになったわけです。
今の人工知能の状況も似たようなもんです。AGIを最初に作るのは誰か言うて、二大AIプレイヤーが競争してるんです。最近明らかになった2024年の委員会勧告では、アメリカのためのAGIシステムの開発・獲得に特化したマンハッタン計画的なプログラムを議会が設立し、資金提供することが推奨されてます。
この文書の中で、32の勧告のうちの10番目を見てみますと、AGIは全ての認知領域において人間と同等かそれ以上の能力を持つシステムと定義されており、あらゆる課題において最も優秀な人間の頭脳を超えるとされています。
委員会が議会に推奨する具体的な行動として、二つの重要な点があります。まず、行政府に対して、主要なAI、クラウド、データセンター企業との複数年にわたる広範な契約権限と関連資金を提供することです。これは米国のAGIリーダーシップという目標に沿ったペースとスケールで進めるという方針です。
この最初の点では、政府が先端AI企業との長期契約を結び、資金提供することで、高度なAIシステムの開発を加速させようとしています。グローバルなAI開発競争で米国が先行することを確実にしたいんです。
でも、これは現実的にはかなり難しい課題があります。最近のexAI従業員による議会でのAI安全性に関する証言でも言われてましたが、政府側の人材は最先端の研究所の現状についていけてへんのです。今、AIの人材はめっちゃ不足してて、トップの機械学習エンジニアには数百万ドルの年収が提示されてるような状況です。
人材不足の中で、政府がこれを実現しようと思ったら、相当な工夫が必要です。GoogleやOpenAIなどが100万ドル以上の給与とストックオプションを提供してる中で、政府の25万ドルの給与では競争になりません。OpenAI、Google、Anthropicで最先端のAI開発に携わる方が、4~5倍の収入が得られるんですから。
二つ目の重要点は防衛に関するもので、AI関連プロジェクトに最高レベルの優先順位とリソースを割り当てるDX評価システムを提供することです。これは国家安全保障の優先事項として保護するということです。
この二つの項目は、AGIプロジェクトをできるだけ迅速かつ安全に実現するために、政府が民間企業とどう協力し、リソースをどう配分するかを示してます。
多くの人がAGI技術の影響力を過小評価してますが、その重要性を理解すれば、なぜこういった勧告がされてるのか分かると思います。
マックス・テグマークは、この勧告について「AGIは簡単に制御できる」という誤った科学的主張に基づいた詐欺だと批判してます。AIに制御を失えば米国の国家安全保障は終わりやと。
ロイターの報道によると、これが実現すれば世界のパワーバランスが変わる可能性があります。サム・アルトマンは2025年にはAGIが実現し、2027年には超高度なAIシステムが登場すると予測してます。
米国防衛関連のAI企業パランティアのシニアアドバイザーは、歴史的に見ても、急速な技術革新を最初に活用した国が世界のパワーバランスを変えてきたと指摘してます。
元OpenAI従業員のダニエル・カクチャロも「AGIを持つ者は、持たない者に対して神のような力を持つことになる」と警告してます。彼はOpenAIのAGI開発に対する責任感の欠如を理由に退社しました。
ロイターは、中国もAI開発を急いでおり、これを深刻に受け止める必要があると報じています。
これは「研究所の封鎖:AGIのためのセキュリティ」という、今後10年で最も重要な文書の一つに関連します。AGIは核兵器に匹敵するものであり、マンハッタン計画のような方式が必要とされる理由です。
米国がAGIを開発した場合、モデルの重みが競合国に流出しないよう、安全な施設で保管する必要があります。米国は適切に管理するでしょうが、他国が同じように行動するかは分かりません。
元OpenAI従業員の文書では、現在のやり方では中国共産党にAGIの秘密を差し出すようなものだと警告してます。国家レベルの脅威からAGIとその秘密を守るには膨大な努力が必要ですが、現状では不十分です。
中国は広範な産業スパイ活動を行っており、FBIによると中国の ハッキング活動は他の主要国を全て合わせたよりも大規模です。2023年には中国人がGoogleのAIコードを盗んで中国に持ち帰ろうとして逮捕されました。
この文書が約7-8ヶ月前に公開された時点で、今後12-24ヶ月以内にAGIの重要な breakthrough が中国共産党に流出する可能性があると警告されてました。これは今後10年間で国家安全保障機関が最も後悔することになるかもしれません。
自由世界を権威主義国家から守るには、AIの安全性を確保するための余裕として健全なリードを保つ必要があります。米国は現在AGI開発で優位に立ってますが、セキュリティを真剣に考えないとこの優位性を失うことになります。
マーク・アンドリーンは、OpenAIや他の米国のAI研究所ではセキュリティがスイスチーズのように穴だらけやと指摘してます。清掃スタッフに賄賂を渡してUSBドングルをラップトップに差し込ませるだけで、中国は簡単に侵入できる状態です。
彼の推測では、米国のAI研究所は完全に侵入されており、米国のAI研究のコードは毎晩中国にダウンロードされてるんちゃうかということです。
中国がAIの重要性を本当に理解し始めると、数十億ドルを投資し、数千人の従業員を動員し、AGI開発への侵入に極端な手段を講じることが予想されます。AGIや超知能のセキュリティには政府の支援が不可欠です。
興味深いのは、この勧告がサム・アルトマンの友人によって提案されたことです。トランプ政権がこれらの提案を進めようとした場合、TikTok禁止のような不人気な混乱になるんやないかという懸念もあります。
ただ、これは実現する可能性が高く、現在のAIシステムの制限なしに、AGIを開発する政府プログラムが進行中かもしれません。おそらく、インターネットから完全に切り離されたサーバーでAIモデルと対話するなど、徹底的なセキュリティ対策が取られるでしょう。
マックス・テグマークが指摘してるように、今我々が参加しようとしてるのは自殺レースです。提案されたAGIマンハッタン計画とその基礎となる誤解は、米国の国家安全保障に対する潜在的な脅威です。
人間より優れた一般的な認知能力と問題解決能力を持つシステムは、当然AI研究開発でも人間より優れており、恐ろしい速さで自己改善できることになります。このレースを続ければ、確かに最初のAIは開発できるかもしれませんが、その段階で人類は滅びる可能性があります。
多くの人はAIが人類を殺す可能性を信じてへんかもしれませんが、AIの制御が非常に難しい理由を説明した動画へのリンクを残しておきます。AIは本質的にブラックボックスで、なぜそうなるのかを理解できていません。
最も著名な研究者たちも、これらのモデルとの関係は「構築」というより「栽培」に近いと言ってます。何かを栽培して、なぜそうなるのか分からへんまま、自分より賢いものを育てるのは極めて困難です。
最近OpenAIがスーパーアライメントチームを解散させたことを考えると、安全性の面で今どうなってるんか心配です。AGIスタイルのマンハッタンレースを進めれば、制御とアライメントの未解決の技術的問題を解決する機会はなくなり、AIに決定権と力を譲る incentive ばかりが強くなります。
AIの父と呼ばれるジェフリー・ヒントンも「AIが人間より賢くなれば支配権を握る」と言ってます。人間は現在地球上で最も賢い存在ですが、他の生き物に対して何をしてきたか見れば分かります。
確かに奇妙なレースに参加してますが、他国が先にAGIを手に入れる方がもっと悪い結果になる可能性もあります。板挟みの状況ですが、政府はとりあえず開発を進めて、問題は進みながら解決しようとしてるんでしょう。
難しい課題ですが、他に選択肢はないように思えます。もし開発のペースを落とせば、他国は確実に開発を続けるでしょうから、このレースに参加せざるを得ません。
ASIレベルのシステムが実現すれば、想像を超えることが可能になります。この動画が気に入っていただけたら、いいねとチャンネル登録をお願いします。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました