Anthropic CEOがAIに関する政策対応を呼びかける

9,525 文字

Anthropic CEO Calls for Policy Action on AI
Anthropic CEO and Co-Founder Dario Amodei addressed the threat of autonomous AI and said he will work with the Trump adm...

なぜあなたの以前の会社は、革新的なものを追求するためにそれほど巨額の資金調達が必要なのですか?
はい。個別のニュース記事についてはコメントできませんが、確かに過去には、GoogleやAmazon、そして他の投資家からも複数回、数十億ドル規模の資金調達を行ってきました。
その理由は単純に、この技術の開発には非常にコストがかかるからです。私とAnthropicの共同創業者たちは、AIシステムのスケーリング則と呼ばれるものを最初に文書化した人々の中にいました。このシステムのスケーリング則は、AIシステムにより多くの計算リソースを投入すると、幅広い認知タスクにおいてより良いパフォーマンスが得られることを示しています。
それは2019年の頃には本当に単純で原始的なものと言えるものから、今日では、モデルがコーディングをどれだけうまくできるかという曲線を上っているところまで来ています。
そして新しいモデルはそれぞれ、様々な面で以前のモデルよりもコストがかかります。これらのモデルの開発コストは数十億ドルの規模に達しています。そのため資本が必要なのです。もちろん、モデルが良くなるにつれて、リターンもどんどん良くなっています。
新しいモデルはそれぞれコストが増加していますが、前のモデルよりもはるかに多くの収益を生み出しています。
OpenAI、Oracle、ソフトバンクがトランプ政権の支援を受けて「プロジェクト・スターゲート」という5,000億ドル規模の合弁事業を発表しましたが、あなたはその発表をどう解釈しますか? また、サム・アルトマンやラリー・エリソンがドナルド・トランプの後ろに立っているという視覚的な演出については? そして将来的に、トランプ抜きでANTHROPICから同様の発表があると期待してよいでしょうか?
はい。政策面について言えば、私が言い続けてきたこと、そしてここでも申し上げたいのは、Anthropicは政治的なアクターというよりも、政策的なアクターとして自身を位置づけているということです。それはどういう意味かというと、パブリックベネフィット企業として、この国が何をすべきか、企業が何をすべきか、私たちが直面しているこの移行期をうまく乗り切るために何が必要かという視点を持っているということです。
AIシステムの力が増大し、それは大きな可能性を秘めていますが、同時にリスクをもたらす可能性もあります。そして私たちには、提唱してきた多くのアイデアがあります。私は議会にも行き、前政権にも、そして次期政権にも行って、その重要性について話をしています。その分野には多くのトピックがありますが、
その一つは確かにエネルギー供給に関するものでした。特にアメリカ国内でのエネルギー供給についてです。AIシステムに関する重要なセキュリティインフラストラクチャについて、私たちがあまり信頼していない国々に頼る必要がないようにすること、そして十分な規制上の障壁や許認可の障壁を取り除いて、このエネルギーを構築することが可能になるようにすることです。
そして一般的な意味で、私たちは長い間これを提唱してきました。そういう意味で、より多くのエネルギーを供給することは、その観点からは確かに良いことだと思います。具体的なプロジェクトについては、頭も尻尾もつかめないような状況でした。
少し混沱としているように見えました。実際にどれだけの資金が関係しているのか、そしてそのうちどれだけがコミットされているのかは明確ではありません。異なる数字が飛び交っていました。どの企業が実際にお金を持っているのか、それがどのように適用されるのかも明確ではありません。トランプ政権と一緒に発表されましたが、
政府が実際にどのような役割を果たすのか、もしあるとしても、それは明確ではありません。そのため、より詳細な情報がない限り、コメントするのは難しいと思います。
ただ、フォローアップとして、政府がここで勝者を選び、オープンに有利になる可能性を懸念していますか?
はい、これは繰り返しになりますが、これは常に私たちの視点でした。私たちの目標は、特定の政府や別の特定の政府との内々の関係を得ようとすることではなく、政策プラットフォームを提示し、何が必要かを述べることです。そして私たちの見方は、確信はできませんが、おそらく正しいと証明されるでしょう。もし私たちがそうすれば、正しいものは十分にあるはずだと。
もし私たちが実質的に役立つものを作れば、物事は自然と解決されるでしょう。一部のプレイヤーは他より派手かもしれませんし、より政治的なものとして見るかもしれません。しかし私たちはクラウドパートナーと協力しています。私たちは長年、スケーリングについて考えてきました。
何年も前から私は、2023年に1億ドル、2024年に230億ドル、100億ドル、1000億ドルと言ってきました。そういうわけで、私たちはそれに応じて計画を立ててきました。
政策についてもう少し話を続けましょう。なぜなら、トランプ大統領が最初にしたことの一つは、安全性の強化、バイアスの防止、プライバシーの保護を目的としたバイデン大統領のAIに関する大統領令を取り消したことですから。あなたは安全なAIの開発のためのこれらの価値観の信じられないほどの伝道者でした。これについてどう思いますか? そしてトランプ政権はそれに何を代わりに置くのですか?
はい、まず事実関係を正しく理解しましょう。この大統領令について、多くの象徴的な議論がありました。実際、この大統領令は比較的単純なもので、多くのことはしていませんでした。実際に行ったことは良いと思いましたが、大したことはありませんでした。フロンティアモデル開発の観点から導入された主なものは、一定規模以上のモデルに対する報告要件でした。
基本的に、どれだけの計算リソースを投入したか、どのような種類のテストを行ったかを言うだけです。全て完全に自主的なものでした。おそらくAnthropicの1人の人間の1年間の1日分程度の時間しか使わなかったと思います。この大統領令を遵守するのに。そのため、良いことだとは思いますが、それが取り消されたことも大きな問題ではありません。
私が考える、はるかに重要なことは、バイデン政権に提唱し、トランプ政権にも同じように提唱していることです。少し立ち戻って、私が考えるこれらの政策の大部分を動機づけているスケーリング則について説明させてください。私の見解は、ここ数日で確信を深めていますが、AIシステムがほぼすべてのタスクで人間より優れるようになるまでに、おそらくあと2、3年しかないかもしれないということです。
私のエッセイ「Machines of Loving Grace」で、これをデータセンター内の天才の国と呼びました。もちろん、そのデータセンター内の天才の国があれば、病気の治療や人間の寿命の延長など、非常にポジティブなことができます。
そのエッセイで私は、これらのモデルを数年持った後には、人間の寿命を倍にできるかもしれないと驚かないと書きました。極端に聞こえるかもしれませんが、私は生物学者として、それは可能性の範囲内だと思います。そういった素晴らしいことがあります。しかし、基本的に数万人のノーベル賞受賞者より賢い天才たちを、多くの分野でコンピュータ上で何でもできる人々を空輸やヘリコプターで投下するようなものを想像してみてください。
そして最終的には、自分たちのためにロボットを作り、物理的な世界に自分たちを投影することさえできるかもしれません。パワーバランスに関する様々な疑問があります。私たちの経済システム、軍事システム、セキュリティシステムは、パワーがどのようにバランスを取っているかについての前提に基づいています。
そして私が見るリスクは、そのバランスが乱される可能性のある方法すべてに関するものです。私はAIシステムの自律的なリスクを懸念しています。つまり、ノーベル賞受賞者より賢く、数日間にわたってタスクを実行する高度に自律的なシステムを作った場合、それらは本当に私たちが望むことを行っているのでしょうか? それは、彼らが意志や本質を持っているということではありません。
私はそういった言葉では語りません。しかし、彼らは言語を与えられ、多くの自律性を持っています。物事が間違った方向に進む可能性が多くあります。1000万人か1億人の天才を新しい国に投下した場合、一つの疑問は、彼らは何をするのかということです。彼らは現在地球上にいる全ての人々にとって脅威となるのでしょうか? そして、私たちの世界の個人が危険なことをするために彼らを利用できるのかということも問えます。
テロリズムのアプローチです。そして国々、特に私たちの敵対国、特に権威主義国家が、それらを使って特に危険なことをできるのでしょうか? そのため、私たちの政策に関する見解は、そこから導き出されています。私たちは中国へのチップの輸出規制に大きく賛成してきました。なぜなら、私は権威主義国家がそのような力を持った場合に何をするかについて非常に懸念しているからです。
私は1984年的なシナリオ、あるいはそれ以上のことを非常に懸念しています。そしてもし私たちがこれを正しく行わなければ、21世紀がアメリカの世紀ではなくなるということが、非常に素早く起こるでしょう。そのため、私はトランプの主要副国家安全保障顧問だったマット・ポッティンガーと一緒に、ウォール・ストリート・ジャーナルで、これの重要性を強調する論説を書きました。
前に話した通り、エネルギー供給はその反対側です。私たちはチップが中国や他の権威主義国家に行くことを望みませんが、ここでできる限り多くのエネルギーを構築できるようにしたいのです。これを正しく進めたいのです。そうすれば、これらのリソースをアメリカに持つことができます。
もう一つの側面は、権威主義国家の危険性に対して警戒を続けながら、私たち自身が構築するシステムが危険をもたらす可能性を懸念しなければならないということです。もし私たちがこれらのシステムの一つを展開したり、誰かがそれを盗んだりした場合。一人の人間がより多くの害を及ぼすことができるでしょうか? 私は2000年に読んだビル・ジョイの「なぜ未来は私たちを必要としないのか」というエッセイを思い出します。
そこで彼は、技術が進歩するにつれて、個人がより多くの害を及ぼす可能性が高まるという考えについて語っていました。そして私は、AIにおいてそれが当てはまる可能性を懸念しています。必ずしも他のAIがそれに対抗できるとは限りません。そのため、私たちは常にAIシステムの国家安全保障リスクに関するテストと測定を提唱してきました。
これは米国航空安全研究所で行われている作業です。そして私たちはそれを強く支持してきました。
あなたが言及した中国について、そしてアメリカと同じ価値観を共有していない可能性のある国々のリスクについて。世界を驚かせている最新のDeep Seekモデルを見ましたか? 非常に競争力のあるモデルですよね。
中国の企業から出てきたものですが、これについてどう思いますか? 中国の状況について何を物語っていますか?
はい。報告によれば、Deep Seekは約50,000のH100を持っているとされています。何が真実かは確実には分かりません。これらはNVIDIAのチップです。参考までに言えば、これはイーロンの報告されたコロッサスクラスターの半分のサイズですが、私たちや他のプレイヤーが来年構築を計画しているチップの量よりもはるかに少ないです。2026年には数十万個に達し、2027年には各プレイヤーから数百万個になると思われます。昨日見たように、潜在的に数千万個のチップに達する可能性もあります。
実際、この新しいタイプのスケール、つまり口頭や推論モデルでは、パラダイムが切り替わる転換点にあります。新しいパラダイムでは、大量の計算リソースがなくても強力なモデルを作ることが可能です。同時に、中国は数万個のチップを密輸することができています。
そのため、輸出規制は中国がこれらの数万個のチップから数十万個、数百万個のチップへと移行できないようにすることが重要になってきます。もしそうなれば、私たちは対等か、彼らが先行する可能性もあります。もしそれが起こり、避けられないのであれば、私たちは別の戦略を考えなければなりません。
複数のプレイヤーが対等な世界でセキュリティの均衡をどのように保つかについて考える必要があります。しかし、私は強力な輸出規制によってそれを避けられることを期待しています。そしてこれは超党派の問題であってほしいと思います。
正直に言って、トランプ政権がこれを継続することを望んでいます。トランプ政権にはこの論理を理解し、支持している人々が多くいることを知っています。
ところで、その議論であなたは発言力があると感じていますか? デイビッド・サックスやイーロン・マスクと連絡を取っていますか?
はい。ここで私は、私たちが政策アクターであり、非政治的ではないという考えに立ち返りたいと思います。しかし政治的なゲームは仕事の一部です。
私にできることは、耳を傾けてくれる人に私たちの見解を提供することだけです。
彼らはあなたの話を聞いていますか?
はい、聞いています。同じ見解です。私たちはバイデン政権にもこれらのことを伝え、トランプ政権にもこれらのことを伝えました。新しく入ってくる人々の中には、より同意する人もいれば、そうでない人もいます。
しかし、私たちは多くの異なるプレイヤーと話をしてきました。そして私たちがここでの賭け金が何であるかを説明すると、人々は理解し始めます。人々はデフォルトでは、これをただのインターネット政策のように考えます。規制を緩和すべきで、邪魔をすべきではないと。
AIの多くの分野でも私はそれに同意します。しかし、これは何か異なるものです。そして私は、私たちが話をする人が増えれば増えるほど、より多くの人々が理解し始めると思います。そしてこの高まるセキュリティリスクのために、現在あなたが資金を調達しない政府系ファンドはありますか? 他の国々の資本を断ってきましたか?
はい。私の懸念は、議決権を持つ投資よりも、これらの国々のデータセンターや投資についてです。しかし、私はここには懸念のスペクトラムがあると思います。信頼できない国でインフラを全て構築することは最も懸念が高く、次に議決権による支配があり、そして受動的な投資が最も低いでしょう。
これらのリスクについて、合理的に分析し、トレードオフを理解する必要があります。
地政学的なリスクについて話しましたが、プラスの面に焦点を当てましょう。あなたは寿命延長や、より高度なAIがもたらす可能性のある信じられないような進歩についての楽観的な見方を新たにされましたね。
私たちが最後に話をしてから2ヶ月の間に、あなたが言及したエッセイを書いてから、今後数年、2027年までにこの種の潜在的な超知能に到達するという確信をさらに強めるようなものを見ましたか? もしそうなら、何があなたをより確信させたのですか?
はい。私たちが使用する計算リソースの大部分を事前学習に使用する従来型の大規模言語モデルから、様々な形での大規模な強化学習への移行は確実に言えます。各企業が異なるバージョンを出しています。私たちも独自のバージョンを持つことになるでしょうが、他のプレイヤーとは少し異なるやり方をするでしょう。しかし、そこでのスケーリング則は継続しており、強力です。
事前学習のスケーリング則も実際には継続していますが、今では二つの源があります。そのため、トレンドはより堅固になっています。それを止めるのは難しくなっています。スケールアップできる方向性が増えているのです。そのため、私はより楽観的になっています。
また、私たちがQuadを使用した応用例について話をする中で、製薬会社との対話でより楽観的になりました。臨床試験などでの使用について話をしました。通常9週間ほどかかる臨床研究レポートを、Quadを使用した製薬会社は10分で生成し、数日で確認することができました。
そして今では、創薬の本質的な部分にどのように進むかについてますます考えています。ある製薬会社の幹部と話をしました。どの会社かは言えませんが、その会社のCEOが私のエッセイを幹部チーム全員に回覧し、これが来るものだからみんな読むべきだと言ったそうです。
古参の人々の中には、進歩の速度について少し懐疑的な人もいるように感じます。昨日METIでジョン・ラクーナとのパネルディスカッションをモデレートしていましたが、彼はまだ、あなたの猫は何年もの間AIよりも賢いだろうと言っています。彼らは用語を異なって定義しているのでしょうか?
それは本当に興味深いです。なぜなら、懐疑派の意味が、ラインが移動するにつれて変化してきているからです。
ジョン・ラクーナ、このエッセイについては知りませんが、彼はこれに関する懐疑論を投稿する際に、いや、いや、これらのことは5年間は起こらないと言っています。それが懐疑的な見方なのです。2〜3年というのは早く起こるということです。懐疑派はかつて、2100年までこれらのものは持てないと言っていました。
ちなみに、私にもまだ不確実性はあります。おそらく5%の確率で、2100年になっても技術は現在からあまり進歩していないかもしれないと思っています。みんな私を笑いますが、20年前を振り返ってみると、「ハハハ」と思います。世界が変わると思い、対処しなければならない巨大な新しい冷戦があるだろうと考えた時のことを。
また舞台でお会いしましょう。
はい、まさにその通りです。技術はまだ有用でしょうが、私たちがみんなどれだけクレイジーだったか、そして私が他の誰よりもクレイジーだったかを笑うでしょう。そのため、5%の確率、おそらく10%の確率はあります。それでも私はそのリスクを取る覚悟があり、愚かに見える覚悟もあります。
しかし、懐疑的な立場は、これは5年間は起こらない、おそらく10年間は起こらないというものです。そして懐疑派は、それが何をしたのかを認めることなく、本当にゴールポストを動かしてきました。
健康支援のような潜在的な巨大なポジティブな影響について話しましたが、これは同時に多くの仕事を置き換える可能性がありますよね。そしてあなたが言及した、特にこれらのシステムが人間の制御を超えた場合の大きなリスクもあります。世界は今後2、3年で起こると思われることに対して準備ができていると思いますか?
はい。私の懸念の一つは、実際に世界は準備ができていないと思うことです。
Anthropicは長い間これらのことを懸念してきました。そして私たちの多くの仕事は、この種の自律性、安全性、セキュリティのリスクに焦点を当ててきました。そしてそれらは非常に重要です。私たちの見方は非常にテクノクラティックでした。
これらのリスクを軽減するために必要な研究に焦点を当ててきました。しかし、ここ数ヶ月で、私はますます別の課題があることに気づくようになりました。それは、世界全体が何が来るのかを知る権利があるということです。
それは各個人に影響を与えるでしょう。これらの仕事の置き換えについては別のトピックです。私たちはそれについてかなり考え始めています。短期的にそれにどう対処し、長期的にどう対処して、私たちが全員良い場所に辿り着けるようにするかについて考えています。
しかし私が印象的だと思うのは、研究コミュニティの一部では、これが常識になり始めているということです。2〜3年というのは、誰も驚かないでしょう。この部屋を特定の種類の人々で満たしたとしても、全く驚かないでしょう。
サンフランシスコの通りで言ったとしても、人々を全く驚かせないかもしれません。しかし、外の世界に行くと、それは全く異なります。私は、人々が突然一斉に、おそらく製品に対する反応として、あるいはセキュリティ災害に対する反応として知ることになる世界を少し心配しています。
それは誰にとっても良いことではないと思いますし、思慮深い対応にもつながらないでしょう。そのため、このインタビューや他のインタビューで、はい、確実ではありませんが、私たちは実際にあと2〜3年しかないと思うと今より多く言っている理由の一つは、人々に警告したいからです。人々にこれを知ってほしいのです。
そしてそれは、あなたの経済的混乱に対する計画は何ですか? 世界の残りの部分に対する計画は何ですか? という質問につながるでしょう。これらの一部については長い間取り組んできましたが、規模が限られた企業であるため、他のものについては取り組み始めたばかりです。
しかし、これらの質問に対して可能な限り良い答えを持とうとすることは、本当に私たちの信念です。もちろん、その一部は世界で起こっていることです。市場の均衡があり、私たちにできることには限りがあります。
しかし私たちは本当に、ここでリードしようとベストを尽くすつもりです。模範を示し、プラスの面を最大化し、企業のエコシステムと政府の制約の中で可能な限りマイナスの面を軽減していきます。
さて、ダリオ。この部屋にいる人々、リモートで視聴している人々のために、残り2分で実践的な準備について話しましょう。
はい。昨日、もし子供を育てているとしたら、何を教えるべきかという質問を受けました。二つの答えを出しました。一つは明白な答えで、AIの使い方を教えるということです。これらのものに適応する方法を教え、より広い社会的な答えが得られるところまで私たちを導くということです。
二つ目は批判的思考スキルです。AIによってより多くの理由付けや思考がなされるようになるにつれて、非常に説得力があるけれども、本当に微妙な欠陥があるような推論をますます目にすることになるでしょう。科学者でさえ、科学者が行うことと同じくらい良いAIが生成したものを読まなければならなくなりますが、検出が難しい多くの微妙な欠陥があるかもしれません。
そのため、人々にこの種の批判的思考を育むことです。大人が何をすべきか、あるいは組織のCEOならば何をすべきかという点については。
はい。AIを意識し、AIに適応することですが、同時に労働の置き換えの問題についても考える必要があります。純粋な市場資本主義はここでかなり残酷になる可能性があります。繰り返しになりますが、ある時点でAIは誰よりも何においても優れるようになり、その時には私たちは全員でどう対処するかという幅広い社会的な会話をしなければなりません。
しかし、その間、完全に自由市場的な方法で行われた場合にかなり残酷になる可能性のあるこの状況を、少し和らげることができるでしょうか? 私たちは製品をより補完的なものにして、置き換えるのではなく、人々により多くの反応時間を与えられるような方法で設計できるでしょうか? 企業はそのように行動できるでしょうか? これについて良い政府の政策を持つことができるでしょうか?

コメント

タイトルとURLをコピーしました