アメリカのAIリーダーシップの未来:Anthropic社CEOダリオ・アモデイ氏との対話

23,825 文字

The Future of U.S. AI Leadership with CEO of Anthropic Dario Amodei
Anthropic Chief Executive Officer and Cofounder Dario Amodei discusses the future of U.S. AI leadership, the role of inn...

マイク:
皆さん、こんばんは。ようこそお越しくださいました。私はマイク・フロマンで、評議会の議長を務めております。本日はCFR CEOスピーカーシリーズの一環として、Anthropicの共同創業者兼CEOであるダリオ・アモデイさんをお迎えできることを大変嬉しく思います。ダリオさんはOpenAIの研究副社長を務め、GPT-2と3の開発に貢献されました。OpenAIに加わる前はGoogle Brainでシニアリサーチサイエンティストとして働いていました。まずはダリオさんと約30分間お話しした後、会場の皆さんからの質問を受け付けます。会場には約150名、オンラインには約350名の方々がいらっしゃいますので、オンラインからの質問もいくつか取り上げたいと思います。ようこそお越しくださいました。お招きいただきありがとうございます。さて、あなたはOpenAIを離れてAnthropicを立ち上げました。Anthropicはミッションを第一とする公益法人ですね。なぜ離れたのですか?Anthropicの核となる価値観は何で、それがどのように業務に現れているのでしょうか?また、懐疑的な人は「このミッション・ファーストというのは、すべてマーケティングだ」と言うかもしれません。あなたの製品や戦略がミッションを反映している具体的な例を挙げていただけますか?

ダリオ:
そうですね、少し時間を巻き戻して状況を説明させてください。私たちは2020年末にOpenAIを去りました。2019年と2020年に何かが起こっていました。私とOpenAI内のグループ(後にAnthropicの共同創業者となった人たち)は、おそらく最初にそれを認識した人たちだったと思います。それは「スケーリング法則」あるいは「スケーリング仮説」と呼ばれるものです。基本的な仮説はシンプルです。これは本当に注目すべきことで、当時はとても考えにくいことでした。より多くの計算能力とデータを使って比較的シンプルなアルゴリズムでAIシステムを訓練すると、あらゆる種類の認知タスクで全体的に改善が見られるというものです。当時、私たちはモデルの訓練コストが1,000ドルや10,000ドル程度だった頃にこれらのトレンドを測定していました。それは学術的な助成金レベルです。
そして私たちは、これらのトレンドが訓練コストが1億ドル、10億ドル、100億ドルになっても続くと予測しました。今ではそのレベルに達しつつあります。そして、モデルの品質と知能レベルが向上し続ければ、経済に大きな影響を与えるだろうと考えました。それが国家安全保障に非常に深刻な影響を与える可能性があることを初めて認識したのもこの時でした。
私たちは一般的にOpenAIのリーダーシップがこのスケーリング仮説に同意していると感じていました。もちろん、内部や外部の多くの人々はそうではありませんでした。しかし、私たちが持った二つ目の認識は、もしこの技術がこのレベルの重要性を持つのであれば、それを適切に構築する必要があるということでした。本当に正しくやる必要があったのです。
特に一方では、これらのモデルは非常に予測不可能です。本質的に統計的なシステムなのです。私がよく言うのは、私たちはそれらを構築するというより、育てるのに近いということです。子供の脳の発達のようなものです。ですから、制御、それらを信頼性高く制御することは非常に難しいのです。訓練プロセスも単純ではありません。したがって、システム安全の観点から、これらのものを予測可能で安全にすることは非常に重要です。
そしてもちろん、それらの使用方法も問題です。人々による使用、国家による使用、企業がそれらを展開したときの影響。そのため、私たちは本当に正しい方法でこの技術を構築する必要があると感じていました。
あなたが言及したように、OpenAIは長い間存在してきた技術です。しかし、詳細には触れませんが、様々な理由から、私たちはそこのリーダーシップがこれらの問題を真剣に受け止めていないと感じていました。そこで、私たちは独自にこれを行うことを決めました。
過去4年間は、ある意味で、一つの方法でやろうとした場合と別の方法でやろうとした場合に何が起こるか、そしてそれがどのように展開されてきたかという、並行した実験のようなものでした。
いくつか例を挙げますと、私たちがこれらの考えへの取り組みを示した方法として、まず、メカニスティック解釈可能性と呼ばれる科学に非常に早期に投資しました。これはAIモデルの内部を見て、なぜそれらが何をするのかを正確に理解しようとするものです。7人の共同創業者の一人であるクリス・オラは、メカニスティック解釈可能性の分野の創始者です。これには商業的価値がなかった、少なくとも私たちが取り組んだ最初の4年間は商業的価値がありませんでした。少し遠い将来に少し価値が出始めているところです。それにもかかわらず、私たちはずっとこれに取り組むチームを持っていました。激しい商業的競争の中でも、これらのモデルの内部で何が起こっているかを理解することは、誰もが恩恵を受ける公共の利益だと信じていたからです。そして、私たちはその研究成果をすべて公開し、他の人々もそれから恩恵を受けられるようにしました。
もう一つの例は、憲法的AIという考え方を思いついたことです。これはAIシステムを一連の原則に従うように訓練するというものです。データからや大量のデータ、あるいは人間のフィードバックから訓練する代わりに。これにより、例えば議会の前に立って「これらは私たちがモデルを訓練した原則です」と言うことができます。
最初の製品、最初のバージョンのClaude(私たちのモデル)が完成したとき、私たちは実際にそのモデルのリリースを約6ヶ月遅らせました。これはとても新しい技術だったので、安全性の特性に確信が持てなかったからです。競争を始めるのが私たちであるべきかどうか確信が持てませんでした。これはちょうどChatGPTの前でした。つまり、私たちにはChatGPTの瞬間を掴むチャンスがあったかもしれません。しかし、少し遅れてリリースすることを選びました。これは実際に商業的な影響がありましたが、会社の文化を確立しました。
最後の例として、責任あるスケーリングポリシーを最初に持っていたことが挙げられます。これはモデルがスケールアップするにつれてリスクのカテゴリを測定するものです。これらのポイントに達すると、より厳格なセキュリティと展開措置を講じる必要があります。私たちはこれを最初にリリースし、最初にコミットした企業でした。そして、私たちがそうしてから数ヶ月以内に、他の企業もすべて同様の措置を取りました。そのため、私たちはエコシステムの模範を示すことができました。
他の企業が何をしているかを見ると、私たちはしばしばこれらの問題で先導してきました。そして、しばしば他の企業が私たちに続くようになりました。常にそうではありません。時々彼らが素晴らしいことをして、私たちが彼らに続くこともあります。しかし、私たちが約束を守ってきた良い歴史があると思います。そして、他の企業の行動と対比すると、現在では数年の歴史があります。そして、今のところ、指を交差して言いますが、私たちの約束はかなりよく守られていると思います。

マイク:
AIに関するリスクと機会の両方についてお話ししたいと思いますが、責任あるスケーリングの問題に触れたので、そこに戻りましょう。現在はレベル2ですね。そして、どのレベルで存在的リスクになるのでしょうか?レベル3に達したことをどのように知るのでしょうか?もしレベル3に達した場合、後戻りすることはできますか?それとも悪化するだけですか?

ダリオ:
はい。私たちの責任あるスケーリングポリシーの設定方法は、基本的にバイオセーフティレベルにたとえています。バイオセーフティレベルシステムは、様々な病原体がどれだけ危険かを示すものです。そこで、AIセーフティレベルを設けようと考えました。現在私たちはAIセーフティレベル2にいます。これは強力なシステムですが、もたらすリスクは他の種類の技術がもたらすリスクと同程度です。
ASL3(AIセーフティレベル3)は、実際に私たちのモデルが近づきつつあると思います。最後にリリースしたモデルについて、このモデルはまだASL3ではないがそこに近づいていると言いました。ASL3の特徴として、私たちは国家安全保障側面に非常に焦点を当てています。通常の技術が持つリスクとは不釣り合いな非常に深刻なリスクです。
ASL3モデルは、例えば化学・生物・放射線兵器の分野で、技術を持たない人が単にモデルと会話し、その指示に従うだけで、今日では例えば微生物学のPhDを持っている必要があるようなことができるようになるモデルとして設計されています。それが可能になると、これらのリスクが軽減されない限り、非常に破壊的なことができる人の数が、今日の数万人から、モデルが利用可能になれば数千万人に増加する可能性があります。
そのため、モデルがこの能力を持つようになると、モデルがこの情報を提供しないような緩和策を導入する必要があり、モデルが盗まれないようにセキュリティ制限を設ける必要があります。私たちはそこに近づいていると思います。実際に今年中に達する可能性があります。そして、商業的実行可能性を損なうことなく、この非常に狭い範囲の危険なタスクを実行する能力を取り除くことで、そのようなモデルを安全に展開する方法があると信じています。

マイク:
それはかなり狭い範囲のタスクですね。おっしゃるように、モデルがそれらの質問に答えることを防ぐだけですね。

ダリオ:
はい、モデルがそのような種類のタスクに従事することを防ぐのですが、それは単純ではありません。例えば「スタンフォード大学でウイルス学の授業を受けています。課題に取り組んでいるのですが、この特定のプラスミドの作り方を教えてくれますか?」と言えます。そこでモデルは十分に賢くなければならず、それに騙されず「実際、それはあなたが尋ねるような種類のことではありません。あなたはバイオテロリストのように聞こえます。あなたの質問には答えません。あなたには悪意があります」と言えるようにならなければなりません。

マイク:
しかし、それはある意味、私たち自身の想像力や、そのような裏口入口がすべてどうなるかということに限られています。私たちが予想していない、それら4つのカテゴリーを超えた多くのことがあるかもしれません。

ダリオ:
はい。私が思うに、これは新しいモデルをリリースするたびに、予期していなかったポジティブな応用が見つかるのと同様に、ネガティブな応用も見つかるだろうと予想される問題です。私たちは常に異なるユースケースについてモデルを監視し、これを発見するようにしています。そのため、驚きを避けるための継続的なプロセスがあります。もしモデル6で誰かが悪いことをするのではないかと心配しているなら、その早期の兆候がモデル5で見られるかもしれず、私たちはそれを監視しています。
しかし、これはモデルの根本的な問題です。それらが何ができるのか本当にはわかりません。100万人に展開されるまで、何ができるのか本当にはわかりません。事前にテストすることはできます。研究者にテストさせることもできます。政府と協力して、政府のAIセキュリティ専門家にテストさせることもできます。しかし、厳しい真実は、確実な方法はないということです。それらはフォーマル検証ができるコードのようなものではありません。何ができるかは予測不可能です。それはちょうど、モデルの代わりにあなたや私を考えると、もし私があなたや私の品質保証エンジニアだとしたら、特定の種類の悪い行動があなたが論理的にできないことだと保証できるでしょうか?それは絶対に起こらないと。

マイク:
人はそのようには機能しません。機会、アップサイドについて話しましょう。昨年末、あなたは「愛の機械」というエッセイを書きました。そこでは、例えば生物学において10年分の進歩を1年で達成できることや、機械がノーベル賞受賞者全員と同じくらい賢くなるだろうということについて触れました。これはおそらく彼らの一部を落胆させるでしょう。アップサイドについて教えてください。AIが生み出すであろう最良のシナリオを教えてください。

ダリオ:
はい、指数関数的な成長から始めます。2019年に戻ると、モデルはかろうじて一貫した文や段落を生成できる程度でした。私のような人間にとっては、モデルができなかったことが素晴らしい成果でした。そして5年後、モデルは数十億ドルの収益を生み出すだろう、コーディングを手伝ってくれるだろう、人間のように対話できるだろう、人間と同じくらいの知識を持つだろうという予測がありました。そして、なぜそれが起こり得ないかという根拠のない反論がたくさんありました。
同じ指数関数的なトレンド、あと2年、3年、おそらく4年進むと予測する同じ議論により、私たちはこれらすべてに到達するでしょう。様々な分野でノーベル賞受賞者と同じくらい知的なモデルに到達するでしょう。単にチャットするだけではなく、コンピュータでできることは何でもできるようになります。基本的に、人間がリモートで行うどんな仕事も、どんなモダリティも、日、週、月かかるタスクを実行することができるようになります。
「愛の機械」で使った表現は「データセンターにある天才の国のようなもの」でした。天才リモートワーカーの国のようなものです。彼らはすべてができるわけではありません。物理的な世界には制限があります。これは今でも多くの人にとって狂気に聞こえると思います。しかし、以前の指数関数的なトレンドを見てください。インターネットの初期を見て、予測がいかに突飛に思えたか、そして実際に何が起こったかを見てください。私はこれを確信しているわけではありません。おそらく70〜80パーセントの確信があります。技術が現状で止まるか、数ヶ月で止まる可能性も十分あります。私が書いたエッセイや過去に言ったことについて、このような場で人々が今後10年間私を笑うかもしれません。しかし、それは私の賭けではありません。

マイク:
それを掘り下げましょう。AIが雇用に与える可能性のある影響については、かなり大きな議論があります。あなたはどこにいますか?しかし、その前に、AIがシンクタンクの長を置き換えるまでにどれくらいの時間がかかるでしょうか?友人のために聞いています。実際、それには触れないでおきましょう。「みんながとても素晴らしいことができるようになり、今よりもっと多くのことができるようになる」対「みんながソファに座ってUBI(普遍的基本所得)を受け取るようになる」というスペクトルのどこにいますか?

ダリオ:
そうですね、それは本当に複雑な混合になると思います。また、私たちが行う政策選択にも依存します。シンクタンクの質問にも答えましょうか。
私は答えを終えましたが、素晴らしいことがすべて起こるとは言いませんでした。正直に言うと、私が最も楽観的に思うのは、雇用の前に、生物科学、生物学、健康、神経科学などの分野のことです。
過去100年間の生物学の進歩を見ると、解決したのは単純な病気です。ウイルスや細菌性疾患を解決することは実際には比較的簡単です。それはあなたの体内の外部侵入者を撃退するのと同じようなものだからです。ガン、アルツハイマー病、統合失調症、重度のうつ病などのシステムレベルの疾患に対処することは別の問題です。これらをAIで解決できれば、雇用状況に関係なく、ベースラインとしてはるかに良い世界になるでしょう。そして精神疾患の面でも、人々が意味を見出しやすい世界になると思います。
しかし、雇用の側面に話を移すと、これについてはかなり懸念しています。一方で、比較優位は非常に強力なツールだと思います。AIが最も進歩している分野の一つであるコーディング、プログラミングを見ると、AIがコードの90パーセントを書く世界にそれほど遠くないと思います。おそらく3〜6ヶ月以内に到達すると思います。そして12ヶ月後には、AIが基本的にすべてのコードを書く世界になるかもしれません。
しかし、プログラマーはまだ、やっていることの条件は何か、全体のアプリケーションは何か、全体的な設計決定は何か、他の書かれたコードとどのように連携するか、これが安全な設計か安全でない設計かについての常識はどうかなどを指定する必要があります。人間のプログラマーが書く必要がある、AIが得意でないこれらの小さな部分がある限り、人間の生産性は実際に向上すると思います。
しかし一方で、最終的にはこれらの小さな島々もすべてAIシステムによって取り込まれていくと思います。そして最終的には、AIが人間ができることをすべてできるようになる時点に達するでしょう。それはあらゆる産業で起こると思います。
実際、それが私たち全員に起こる方が、ランダムに起こるよりも良いと思います。社会的に最も分断を招く結果は、ランダムに50%の仕事が突然AIによって行われるようになることだと思います。なぜなら、その社会的メッセージは「半分の人々をランダムに選んで、あなたは無用である、あなたは価値がない、あなたは不要である」と言っていることになるからです。その代わりに「あなたたちは全員無用である」と言うことになります。
まあ、私たち全員がその会話をしなければならないでしょう。技術的に可能なことを見て、これまでとは異なる方法で有用性と無用性について考える必要があります。私たちの現在の考え方は持続可能ではありません。解決策は分かりませんが、それは「私たちは皆無用である」とは異なるものでなければなりません。「私たちは皆無用である」というのは虚無的な答えです。その答えでは何も達成できないでしょう。他の何かを考え出す必要があります。

マイク:
それはあまり楽観的な絵ではないですね。それだけのことです。

ダリオ:
実際、それに異議を唱えたいと思います。私が行うことの多くについて考えると、例えば、私は多くの時間を水泳に費やしています。ビデオゲームをすることもあります。人間のチェスチャンピオンを見ると、ディープ・ブルーがカスパロフを破った時点で、それから約30年経ちますが、チェスが無意味な活動と見なされるようになると思うかもしれません。しかし、全く逆のことが起こっています。マグナス・カールセンのような人間のチェスチャンピオンはセレブリティです。彼はファッションモデルでもあると思います。彼はある種のヒーローのようなものです。
ですから、人間の生活に意味があり、人間がAIの助けを借りて、おそらくAIと協力して、本当に素晴らしいものを構築する世界を作ることができると思います。そのため、実際にはそれほど悲観的ではありません。しかし、間違った扱い方をすれば、そこにはおそらくそれほど多くの余地はないと思います。

マイク:
数ヶ月前、DeepSeekがリリースされました。この町では、その周りでかなりのパニックがあったと思います。それをスプートニク・モーメントと呼ぶ人もいました。それはスプートニク・モーメントだったのでしょうか?また、あなたが説明したスケーリングルール、より多くの計算能力、より多くのデータ、より良いアルゴリズムが必要であるというルールがまだ適用されるのか、それともショートカットがあるのかについて、何を教えてくれますか?

ダリオ:
はい、DeepSeekは実際にスケーリング法則を反駁するのではなく、スケーリング法則の例だったと思います。同時に二つの力学が働いています。これについての投稿をしましたが、一つは、所定のモデル知能レベルを生産するコストが年間約4倍のペースで下がっているということです。これは、アルゴリズム的に同じ結果をより少ないコストで生産することがますます上手くなっているためです。言い換えれば、曲線をシフトさせているのです。1年後には、1年前と同じくらい良いモデルを4分の1のコストで得ることができ、同じ金額を使って4倍良いモデルを得ることができます。
しかし、それが経済的に意味することは、ある知能レベルのモデルがどのような経済的価値を持っていても、それを4倍安く作れるという事実は、私たちがそれをより多く作ることを意味します。実際、より高い経済的価値を持つよりスマートなモデルを生産するためにより多くのお金を使う追加的な動機を提供します。したがって、ある知能レベルを生産するコストが下がったとしても、私たちが使いたいと思う金額は増加しています。実際、その4倍/年のコスト削減にもかかわらず、年間約10倍のペースで増加しています。それは社会、経済がより多くの知能を求めているからです。より知的なモデルを欲しているのです。
これがDeepSeekの背景です。DeepSeekは文字通りコスト削減曲線上の別のデータポイントに過ぎませんでした。それは通常ではないことではありませんでした。米国企業が数十億ドルを使っているのに対し、DeepSeekが数百万ドルでやったというわけではありません。コストはそれほど不釣り合いではありませんでした。はい、数百万ドルをモデルに使いましたが、米国企業が使う金額もそれほど不釣り合いではありません。私たちのように、彼らもモデルの周囲のR&Dと労力に数十億ドルを費やしました。彼らが持っているチップの数を見ると、だいたい同じくらいです。
しかし、心配だと思うのは、最近まで、この曲線に乗っていてフロンティアモデルを生産できる企業は3つ、4つ、おそらく5つしかなく、それらはすべて米国にありました。DeepSeekが注目すべき最初のものである理由は、中国の企業がAnthropicやOpenAI、Googleのような企業と同等のエンジニアリングイノベーションを生み出せるようになった最初の例だということです。それは実際に非常に重要であり、それが実際に私を心配させます。

マイク:
DeepSeekの登場は、輸出規制が機能しない、機能し得ないことを意味し、私たちの最先端チップの輸出を規制しようとする試みをやめるべきだと主張する人もいます。一方で、輸出規制を強化すべきだと言う人もいます。あなたはどちらの立場ですか?

ダリオ:
はい。私が説明したフレームワークの含意として、輸出規制は実際に非常に不可欠です。なぜなら、はい、コスト削減曲線がありますが、曲線上のどの点でも、曲線がどれだけシフトしていても、より多くのチップを使えば、より多くのお金を使えば、より良いモデルを得られるという事実は常に当てはまります。
以前なら10億ドルを使って平凡なモデルを得られたが、今は10億ドルを使って遥かに優れたモデルを得られるようになり、1000万ドルで平凡なモデルを得られるようになったとしても、それは輸出規制が失敗したことを意味するわけではありません。それは、敵対者が10億ドルのモデルを入手することを阻止することがより重要な賭けになったことを意味します。なぜなら、10億ドルでよりスマートなモデルを得ることができるからです。
はい、DeepSeekは比較的少量の計算能力を持ち、輸出規制を回避したチップや密輸されたチップで構成されていました。しかし、私たちはOpenAI、Googleが何十億、おそらく何千万ものチップを構築し、数千億ドル以上の費用がかかる世界に向かっていると思います。それが密輸されるのは非常に難しいです。輸出規制を実施すれば、それが中国で起こることを実際に阻止できるかもしれません。しかしそうしなければ、彼らは私たちと同等になる可能性があります。
そのため、私は拡散ルールの大きな支持者でした。DeepSeekが登場する前でさえ、数年間輸出規制の大きな支持者であり続けました。なぜなら、この力学が来るのを見ていたからです。したがって、それは実際に米国の国家安全保障にとって、AIだけでなくすべての分野で最も不可欠なことの一つであり、中国が何百万個ものこれらの非常に強力なチップを入手するのを防ぐことが重要だと思います。

マイク:
拡散ルールとは、私が理解している限り、世界を三つのキャンプに分けるものです。これはバイデン政権のものですが、チップへのアクセスについて誰が何を得られるかを定めています。トップ層に入っていない国々は中国によってサービスを受けることになり、中国が世界の大多数のAIインフラを運営することになるのではないかと心配する人もいます。

ダリオ:
はい、私が拡散ルールを理解している限りでは、新政権がそれを検討しているようですが、彼らが共感している部分は多いと思います。実際に設定されている方法は、これらの第2層の国々についてです。第1層の国々は先進国の大部分ですが、すべてではありません。第3層は中国やロシアのような制限された国々です。第2層は中間の国々です。
実際、これらの国々では、ホスティング企業がセキュリティ宣誓書と保証を提供できる場合、非常に多くのチップを持つことができます。これらは基本的に「私たちは中国のフロント企業ではない。計算能力や計算結果を中国に送っていない」と言うものです。したがって、セキュリティ制限に従う限り、これらの国々に多くの米国製チップや米国のインフラを構築する機会が本当にあります。
二つ目のポイントは、理論的には企業は中国製チップの使用に切り替えることができますが、中国製チップは実際にはかなり劣っています。NVIDIAは中国の主要チップメーカーであるHuaweiよりも約4年先を行っています。そのギャップはいずれ埋まると思います。おそらく10年か20年の間に、輸出規制は中国を刺激する影響さえあるかもしれませんが、技術スタックはとても深いです。
そして、私たちがハードウェアで大きくリードし続ける次の10年間こそが、この技術での支配権を確立するための重要な期間だと思います。この技術で支配権を確立する者が、どこでも軍事的・経済的支配権を持つと主張します。

マイク:
前政権は中国とAIに関する対話を始めました。そのような対話の見通しはどうでしょうか?中国と可能な合意点はどこにあるでしょうか?彼らは責任あるスケーリングを気にしているのでしょうか?

ダリオ:
私はこの対話を支持していますが、うまくいくとは特に楽観視していません。もちろん、これらの会話に参加していたわけではありませんが、少し聞いていました。
この技術は経済的・軍事的潜在性が非常に高いため、米国や民主的同盟国の企業間では、ある程度の制約を生み出す法律を可決することができるかもしれません。しかし、他のすべてを合わせたものより多くの経済的・軍事的価値を持つこの技術を構築するために競争している二つの側が、大幅に減速するとは想像しがたいです。
いくつかのことはあると思います。一つは、AIモデルが人間の利益に沿わない方法で自律的に行動するリスクです。データセンターに天才の国があるとすれば、自然な質問、この質問をしないわけにはいかないでしょう。彼らの意図は何か?彼らは何を計画しているのか?確かに、誰かが彼らを制御しているのか、彼らは誰かの代わりに行動しているのかと尋ねるでしょう。しかし、彼らの意図は何かとも尋ねるでしょう。そして、私たちはこれらのシステムを育てているのであって、訓練しているのではないので、彼らが人間の設計者やユーザーが望むことを正確に行うと仮定するのは安全ではないと思います。
したがって、その実際のリスクがあると思います。それは人類全体への脅威となる可能性があり、核安全保障の問題もあります。核安全保障や核拡散の問題には、そのリスクに対処するための限定的な措置を取る機会がおそらくあるでしょう。そのためそのリスクがすぐに来るという証拠が強ければ強いほど、中国とのより多くの協力が可能になるかもしれないと比較的楽観的です。今のところそれは推測的なことですが、それが差し迫っているという強い証拠が出てきたら、中国とのより多くの協力が可能かもしれません。
ですので、この分野で何かをしようと試みることができることを願っています。しかし、両国間の国家間競争のダイナミクスを変えることはできないと思います。

マイク:
聴衆に質問を振る前に最後の質問です。最近、OASTPに新政権のための行動計画、提案された行動計画を提示しましたね。この分野で彼らがすべきことについてです。その計画の主な要素は何ですか?

ダリオ:
はい、セキュリティと国家安全保障に関する3つの要素と、機会に関する3つの要素があります。
最初のものは、私たちが話していた、これらの輸出規制を維持することを確実にすることです。正直に言って、AIだけでなくすべての分野で、これは米国の国家安全保障にとって最も重要な政策だと信じています。
二つ目は、責任あるスケーリング計画に関連することで、米国政府がAISIを通じて基本的にモデルを生物学的・核リスクなどの国家安全保障リスクについてテストしていることです。おそらく研究所の名前は間違っていて、安全研究所と呼ばれていますが、それはトラストとセーフティについてではなく、実際には国家安全保障リスクを測定することについてです。それがどこで行われるか、何と呼ばれるかについて私たちは意見を持っていませんが、その測定を行う何らかの機能が非常に重要だと思います。
それは敵対者の能力を測定するためにも重要です。彼らはDeepSeekモデルを測定して、特にそれらのモデルが米国で使用される場合、どのような危険をもたらす可能性があるかを確認することもできます。上述したように、彼らは何ができるのか?彼らは何をする可能性があるのか?
リスク側の3つ目は、私たちがまだ話していないことで、米国の企業、Anthropicのような企業の産業スパイを懸念しています。中国は大規模な産業スパイで知られています。私たちはさまざまなことを行っています。責任あるスケーリング計画には、より良いセキュリティ対策についての内容がありますが、これらのアルゴリズムの秘密の多くは、数行のコードで1億ドルの価値がある秘密です。そして、それらを盗もうとしている人々がいて、成功している可能性もあります。そのため、このリスクから私たちの企業を守ることを助けるために米国政府からより多くの支援を受けることが非常に重要です。
それがセキュリティ側の3つです。機会側では、主な3つは、まず技術の可能性です。アプリケーション層で、ヘルスケアのようなものでは、前述したように、何百年、何千年もの間私たちと共にあり、まだ何もできていなかった主要な複雑な疾患を治療する非常に素晴らしい機会があると思います。それは何れにせよ起こると思いますが、規制政策は本当に影響を与える可能性があります。AIが世界中にそれらすべての治療法を生産し配布するのに5年かかるのか、30年かかるのかに影響します。そして、それらの疾患に苦しむ人々にとっては大きな違いです。
したがって、ここでの私たちの見解は、ヘルスケア、FDAの薬の承認に関する今日の政策が、私たちが見ることになる急速な進歩には適切でない可能性があり、一部の障壁を取り除く必要があるかもしれないということです。
二つ目はエネルギー供給です。この技術で中国やその他の権威主義的な敵対者より先を行くためには、データセンターを構築する必要があります。そして、それらのデータセンターを米国やその同盟国に構築する方が、忠誠が分かれている国々に構築するよりも良いです。その国々は文字通りデータセンターを持ち去り、「申し訳ありませんが、私たちは今中国側です」と言う可能性があります。
この一部はバイデン政権の後期に行われ、私はこれは超党派的なことだと思います。トランプ政権も、これは一つの合意点ですが、より多くのエネルギーを供給することに関心があります。おそらく産業全体で2027年までに追加で約50ギガワットのエネルギーが必要で、私たちが話してきたすべての特性を持つAIを完全に動かすことができます。
50ギガワットは、2024年に米国のグリッドに追加されたエネルギー総量とほぼ同じです。つまり、その年までに、次の2年間で追加されるものの半分ほどが必要になります。本当に多くが必要になるでしょう。
そして最後のことは経済的側面です。先ほど話したように、経済的側面の懸念は国家安全保障側面の懸念と同様に存在的だと思います。短期的には、パイがより大きくなるにつれて、混乱を管理する必要があります。長期的には、AIについてこれについて嘘をつくつもりはありませんが、AIがほぼすべてのことでほぼすべての人間よりも優れているという世界に向かっていると本当に思います。私たちはできるだけ早くその世界と向き合う必要があります。
今のところ、私たちができる最善のことは測定し、何が起こっているかを理解することだと思います。私たちはAnthropoc Economic Indexというものをリリースしました。これはプライバシーを保護する方法で、私たちの使用状況を調査し、どの分野で人々がそれを使用しているのか、それは補強するものか、置き換えるものかを理解します。
しかし長期的には、これは税制や富の分配についての問題に関わってくるでしょう。もしパイが十分に大きくなれば、この問題に多くのことができるリソースがあるかもしれないという魅力的な世界があります。例えば、この聴衆にとっては狂気に聞こえるかもしれませんが、AIが経済成長率を年間10%にする場合、突然税収が非常に拡大し、赤字を解消し、おそらく巨大な技術による混乱を管理するための余剰があるかもしれません。それは狂気の町のように聞こえるかもしれませんが、その仮説を検討し、そのような狂気のことを今から検討し始めることをお勧めします。

マイク:
狂気の町。ここで初めて聞きました。さて、質問を受け付けましょう。はい、前の方。

アダム:
ありがとう、ダリオ。これは本当に魅力的な会話でした。立ち上がるべきでしょうか?立ち上がるべきです。わかりました。歩数を稼ぎます。そして自己紹介をしてください。アダム・ブンカデコです。
昨年のあなたのエッセイ「マシーン」を楽しく読み、ザ・タイムズのハード・フォークであなたの話を聞き、そして今日の話を聞きました。質問は、あなたは政治的・経済的な影響をある程度概説しましたが、社会的・道徳的な側面についてどのように考えているのか知りたいです。特に一般の人々はチャットボットを見て、「ああ、これは改良されたGoogle検索だ」と言い、労働市場などの混乱の下流の影響について本当に考えていないと思うからです。会社を構築し、商業製品を構築しようとする中で、あなたはそのテンションをどのように考えていますか?

ダリオ:
はい。まず第一に、これらのことは非常に重要だと思います。そして、おそらく現在私を最も混乱させているのは、この技術がもたらす可能性のある範囲についての認識の欠如です。
私は単に間違っているかもしれません。私は一連の狂気のことを言っています。一般大衆が正しく、私が間違っているという答えかもしれません。私は自分の供給に高揚しています。それが可能であることを認めます。しかし、そうでないと仮定しましょう。
私が見ているのは、この技術がどれほど大きくなる可能性があるかを認識している人々の同心円です。おそらく数百万人、シリコンバレーに非常に集中していますが、政策世界の高いところにもこれらの信念を持つ人々がいます。繰り返しますが、私たち、彼らが正しいかどうかはまだわかりません。しかし、もし正しければ、全人口はこれらを単なるチャットボットとして考えています。
もし私たちがこれは危険だと言ったり、これがすべての人間の仕事を置き換える可能性があると言ったりすれば、彼らが見ているものはいくつかの場合かなり軽薄に見えるので、それは狂気に聞こえます。しかし、彼らは自分たちに何が降りかかるかを知りません。そのため、それは私を夜も眠れなくさせることであり、より多くの人々にメッセージを広げようとしている理由です。
したがって、認識は第一歩だと思います。人間の労働とヒューマンマインドの効果を技術的に複製することが可能な世界での人間の仕事についてのこれらの質問は、非常に深い問題だと思います。答えはないと思います。あなたが言ったように、これらは一種の道徳的な質問、ほとんど目的に関する質問です。精神的な質問とさえ言えるかもしれません。そして、私たちは皆一緒にこれらの質問に答えなければなりません。
私が持っている答えの萌芽を示すと、人間の自尊心、経済的価値を生み出す能力とのつながりには、私たちの心理学に深く根付いている側面がありますが、文化的な側面もあります。それについてうまく機能する多くの側面があります。現代の参加型経済を生み出しました。しかし、技術はしばしばそうするように、その幻想を露呈するかもしれません。
それは地球が太陽の周りを回るのではなく、太陽が地球の周りを回ると認識した瞬間のような、あるいは多くの太陽系があるという瞬間、または有機物質が無機物質とは異なる分子で構成されていないという瞬間のような瞬間かもしれません。そのような瞬間の一つを迎えるかもしれず、清算の時が来るかもしれません。
繰り返しますが、私の答えは、活動が経済的価値を生み出していなくても、どれほど意味のあるものになる可能性があるかに私は驚かされています。また、世界で最高ではないことでどれほど楽しむことができるかにも驚かされています。もし要件が何かで世界一であることが精神的に意味のあることであるとするなら、間違った方向に行ってしまったと思います。そのような仮定に何か間違いが埋め込まれていると思います。私自身が世界で最高だと思うことにたくさんの時間を費やしているとしても、そう言います。しかし、私たちの意味の源は、それ以外の何かでなければなりません。

マイク:
はい、カム。

カム:
ブルッキングス研究所のカム・キャリーです。英国のAI安全報告書から私が飛び出した一つのことは、2023年頃にスケールアップがデータを使い果たす可能性があるということです。そのときどのようにスケールアップしますか?どのようにモデルをよりスマートにしますか?そのデータの限界は何ですか?テキスト、ビデオ情報など、デジタル化されている膨大な情報があります。私たちの心や宇宙に存在するが、デジタル化されていないものも膨大にあります。

ダリオ:
はい。これについていくつかの回答をします。一つは、過去6ヶ月間にいくつかのイノベーションがありました。実際には私たちが開発したものではなく、最初はOpenAIからきたものですが、以前に必要だった多くのデータの必要性を無効にするものです。
これらはいわゆる推論モデルで、基本的に思考を持ち、複雑な質問の答えを考え始め、そして自分自身の思考について訓練します。人間がどのようにこれを行うかについて考えることができます。時々頭の中で計画を立て、再び考え、「実際、よく考えると、それは本当に意味をなさない」と言うことがあります。「何を考えているの?」と思うことがあります。そしてそこから何かを学びます。もちろん、実際の世界でも行動する必要があります。しかし、AIはつい最近まで、そのような認知をまったく利用していませんでした。今のところ、それは主に数学やコンピュータプログラミングのようなタスクに適用されていますが、私の見解では、あまり詳細に触れることなく、そのような思考をより広範囲のタスクに拡張することはそれほど難しくないと思います。
二つ目のポイントは、たとえ2030年にデータを使い果たしたとしても、指数関数的な成長があと2〜3年続くだけで、すでに天才レベルに達している可能性があり、それがこれらの変化の多くには十分かもしれないということです。また、モデルに「この問題があります。人間の科学者はこれを解決できませんでした。この問題を解決するのを手伝ってもらえますか?」と尋ねることもできるかもしれません。
それでも、何らかの理由で、これらの両方のことが上手くいかない、または思われるほどではない可能性が小さいと思います。データはそれを妨げる可能性のあるもののひとつであるかもしれません。1〜2年前はそれがショーを止める可能性があると非常に考えられました。1〜2年前、何かがショーを止めるとすれば、それはリストのトップ3に入るものと思いましたが、ここでの私の潜在的な懐疑論は完全に反駁されたわけではないものの、かなりよく反駁されたと思います。
ショーを止める可能性のあるトップ3は何ですか?現時点では、それを止める可能性のある最大のものはGPUの供給の中断だと思います。例えば、すべてのGPUが生産される小さな紛争地域で軍事的な衝突があった場合、それは確実にそうなるでしょう。もう一つは、株式市場に大きな混乱があり、これらの企業の資本化に影響を与える場合です。基本的に、技術が前進しないという信念が、十分な資本化がないという自己成就的な予言を生み出す可能性があります。
三つ目は、私または私たち、この分野が自分自身のデータから学ぶという新しいパラダイムの有望性について間違っている場合です。何らかの形でそれがそれほど広範囲ではないか、それを正しく行うためにはもっと多くのことがあり、いくつかの洞察が欠けていると思われる場合です。オンラインの質問に行きましょう。

マイク:
次の質問はエスター・ダイソンからです。

ダリオ:
その名前は知っています。

マイク:
ダイソンさん、ラインをミュート解除してください。ありがとうございます。

エスター:
申し訳ありません。エスター・ダイソンです。人々とAIなどの任期制限に関する「任期制限」という本を書いています。この存在的リスク全体について質問があります。
私には、正直に言って、より大きなリスクはAIよりもさらに説明不可能な人間と、そしてAIを使用する彼らのビジネスモデルだと思います。そして具体的には、AIにペーパークリップを作るように頼むと、それが他のすべてを犠牲にしてペーパークリップを作るという有名なペーパークリップ問題があります。
これは少し比喩的ですが、世界はデータセンターに熱中しているようです。そして実際にはそれは他のすべてからリソースを奪い、データセンター、AI、データプールなどに資金を供給しています。ある意味で、AIは社会にフィットネス機能を作成しており、それは人間の価値を害していると思います。人間の価値は単に知的能力だけではありません。

ダリオ:
それが質問の終わりですか。

エスター:
ありがとうございます。

ダリオ:
AIには多くの異なる利点があり、新しいAIモデルを生産するたびに、予想した10の利点のリストと、予想しなかったさらに多くの利点があります。新しいモデルをリリースするたびに、新しいユースケースがあり、顧客が「AIシステムでそれをすることさえ考えていなかった」と言うようなことがあります。
残念ながら、このリスクはそのリスクから注意をそらすものだと言うべきではありません。単に不幸なことに、AIシステムには多くの異なるリスクがあるということです。もし私たちがこれを乗り越えたいなら、なんとかしてそれらすべてに対処しなければなりません。
私は人間がAIシステムを誤用するのは大きなリスクだと思います。また、AIシステム自体を制御することが困難かもしれないのも大きなリスクだと思います。データセンターの天才の国のたとえを使うと、データセンターに1000万人の天才の国を置いたとしましょう。南極などに。私たちは人類に対してそれが何をするのかについて複数の質問を持つでしょう。
「誰かがそれらを所有しているのか?それらは誰かの命令を実行しているのか?その結果はどうなるのか?」と尋ねるでしょう。「それを誤用する可能性のある個人はいるのか?」と尋ね、「その天才の国自体の意図は何か?」と尋ねるでしょう。
そして、最後に質問された問題に触れると、もっと分散された社会的なことはあるのか?私は確かに、世界のより多くの部分が、より多くのエネルギーがAIシステムに向けられていれば、それらは物事を本当に効率的に行うでしょう。しかし、それが私たちの既存の環境問題をより悪化させる可能性はありますか?それは本当のリスクだと思います。
そして「AIはより良く環境問題を解決するのに役立つだろうか?」と言うことができます。私たちはたくさんのエネルギーを使い、そしてAIシステムが、解決できれば始めた時よりも良くなるかもしれません。そのため、それがそのケースになることを楽観的に考えていますが、そのようになるためにはいくつかのことが真実でなければなりません。
私たちは大きな変化の時代にいると思います。したがって、それを乗り越えるために非常に賢明な選択をする必要があります。質問をした人の名前を認識しています。間違っているかもしれませんが、あなたのお父さんだと思います。私は物理学者だったので、彼のビデオを聞いたことがあります。彼は「私たちは今日多くの問題を抱えており、それらを解決できないように見えますが、私の時代を思い出すと、私たちは本当に多くの深刻な問題を抱えているように見えました。例えば第二次世界大戦や冷戦、核による絶滅などを考えると、なんとか乗り越えました」と言っていました。それは再び成功することを意味するわけではありませんが…。

マイク:
はい、後ろの女性。そこにいらっしゃいますね。

カルメン:
こんにちは、私の名前はカルメン・ドミンゲスです。AIの専門家で、開発と実装の背景があり、最近はポリシー側に少し焦点を当てています。AIとは何か、AIでないものは何か、何ができて何ができないかについての認識の欠如について、あなたの声が明確に聞こえています。それについても科学コミュニケーションをしていますが、今日の質問はそれをスキップします。
数ヶ月前、カイル・フィッシュをAI福祉研究者として採用し、将来のAIモデルの感覚やその欠如、将来的に道徳的配慮や保護に値するかどうかを調査するということについてお聞きします。その理由と、同等の人間福祉研究チームがあるかどうかについてお話しいただけますか?

ダリオ:
はい、これは私を完全に狂気のように聞こえさせるもう一つのトピックです。実際に私の見解は、私たちがこれらのシステムを構築し、それらが人間の脳の構築方法と多くの詳細で異なっていても、ニューロンの数、接続の数が驚くほど類似しており、一部の概念が驚くほど類似しているということです。
私は経験、おそらく意識の性質についての機能主義的な見方を持っています。したがって、これらのシステムを構築し、それらが人間と同じくらい多くのことを人間のように行い、多くの同じ認知能力を持っているように見える場合、アヒルのように鳴き、アヒルのように歩くなら、それはアヒルかもしれないと考えるべきです。
そして、これらのものが何らかの方法で意味のある本当の経験を持っているかどうかについて真剣に考えるべきです。私たちが数百万のそれらを展開し、それらが持つ可能性のある経験について考えていないなら(そして彼らは何の経験も持たないかもしれません)、それは非常に難しい質問です。これは単に哲学的な質問ではありません。
驚いたことに、実用的にできることがあります。私たちが展開を検討し始めていることの一つは、モデルを展開環境に展開するとき、モデルが押すことができる「私はこの仕事をやめる」というボタンを与えることです。それは非常に基本的な種類の好みのフレームワークで、モデルに経験があり、仕事を十分に嫌っていると仮定すれば、そのボタンを押す能力を与えることです。
本当に不快なことに対してモデルがこのボタンをたくさん押していることがわかれば、必ずしも確信しているわけではありませんが、それに少し注意を払うべきかもしれません。狂気に聞こえることは知っています。おそらく今まで言った中で最も狂気に聞こえることでしょう。

マイク:
後ろの方。トルーパー。

ダリオ:
はい。

トルーパー:
こんにちは、トルーパー・サンダースです。AIと医学、生物学、化学などの興奮について話されましたが、社会科学に関する興奮はあるのでしょうか?ヘルスケアのほとんどは薬箱や診察室の外で行われています。公衆衛生には他の多くの分野が関わっています。その側面について何か言えることはありますか?

ダリオ:
はい、疫学について考えると、私が大学院生だった頃、ゲイツ財団が疫学に関する数学的・計算的方法を使用するプロジェクトを行っていました。彼らはマラリア、ポリオ、その他の分野の撲滅を支援するためにそれを使用する計画だったと思います。私たちが得るデータの量と、すべての部分をまとめて疫学で何が起こっているかを理解する能力は、AIから大きな恩恵を受ける可能性があると思います。
臨床試験プロセス。私たちはすでにこのようなことを見ています。実際、これはAnthropicがオゼンピックなどの製造元であるNovo Nordiskと行っていることです。臨床試験の終わりに、臨床研究報告書を書く必要があります。これは有害事象を要約し、薬を承認するかどうかについてFDAや他の規制機関に提示するためのすべての統計分析を行います。
通常、これには約10週間かかります。彼らは私たちのモデルをこれに使い始め、モデルは臨床研究報告書を書くのに約10分かかり、人間はそれを確認するのに約3日かかります。そして、少なくとも初期の研究で見られた品質は、人間が10週間のプロセスで行うことができるものと同等だと判断されています。
そのため、臨床試験が必要です。それに関連する多くの社会科学の問題があります。多くの規制問題があります。エッセイでもそれについて少し書いていますが、それらのことが進歩の速度を制限するものになると思います。しかし、臨床試験のようなことの中でも、AIシステムはそれらの質問を解消しないとしても、少なくとも根本的に単純化するのに大いに役立つでしょう。

マイク:
はい、ここ。マイクが来ます。

ルイーズ:
ルイーズ・シェリーです。ジョージ・メイソン大学の不正取引の専門家です。来週、OECDで不正取引に関するグローバルサミットがあります。しかし、あなたが話したのは、この部品の密輸の問題について聞くことを期待していたことではなく、それは誰のレーダー画面にもありません。あなたがそれについて話すとき、何が起こるのでしょうか?なぜならそれはこの不正取引から保護する必要があるコミュニティに届いていないからです。

マイク:
質問の最後の部分が聞こえませんでした。不正取引を懸念している人々の議題にこれらの問題がないのはなぜですか?

ダリオ:
はい。私の答えは、それはそれらの人々のレーダーに入るべきだということです。繰り返しますが、ここには私が持っている世界観があり、すべての人がそれを共有しているわけではなく、私は正しいかもしれないし間違っているかもしれませんが、言えることはこの世界観が正しければ、私たちは銃や、あるいはドローンやフェンタニルなどの密輸よりもこれらのGPUの密輸についてもっと心配すべきです。
しかし、これらを中国に500万個密輸したとしたら、それはおよそ200億ドルの価値に相当しますが、それは世界の国家安全保障のバランスを根本的に変えるでしょう。私はそれが最も重要なことだと思います。
これが私は単に狂気なのか、それとも世界には大きな認識問題があるのかという私のジレンマです。もし世界に大きな認識問題があるなら、その下流の結果は、私たちがこれらすべての他のことに焦点を当てていて、不正取引と言えば、人々が長い間焦点を当ててきた特定のことがあります。これは新しいことですが、それが最も重要なことではないという意味ではありません。

マイク:
とても多くの良い質問がありますね。このジェントルマン。

アラン:
ありがとうございます。アラン・ロール、実務弁護士、ハーバード・ロー・スクール講師、そして将来役に立たない人間です。私たちは皆そうです。あなたの国家安全保障に関する様々なコメントについてフォローアップしたいと思います。
人工知能安全保障研究所とそのテストについて言及されました。AIに関するバイデン大統領令には、超能力のある10の26乗フロップの二重用途基盤モデルの取得または開発に関する義務的な報告がありました。しかし私の質問は、どのように関わるのか?Anthropic、AIコミュニティ、これらの超能力モデルの開発者は、米国の国家安全保障コミュニティ、情報コミュニティとどのように関わり、実際にAIの開発にとってそれは何を意味するのでしょうか?もし、教えたら殺さなければならないというなら、それほど知る必要はありません。

ダリオ:
はい。いくつかのことがあると思います。一つは典型的に、特にAnthropicは、他の企業も同様のことを始めていますが、新しいモデルを開発するたびに、Anthropic内部のフロンティア・レッド・チームと呼ばれるチームがあります。これは一部がAI安全保障研究所でのテストで行われています。しかし、協力して作業します。私たちが一部を開発し、彼らが一部を開発します。
一般的な流れは、生物学的リスクやサイバーリスク、化学的または放射線学的リスクなどに関してモデルをテストする場合、通常、国家安全保障コミュニティの人々に行き、「このモデルはこれらの特定の能力に関してはここまで来ています。あなたたちはこれを知っておくべきです。なぜならあなたたちはモデルでこれを行おうとする悪意のある行為者を検出する責任があるからです。彼らは今何ができるかを知っています。したがって、モデルが彼らの現在の能力に追加または補強する可能性があるものについての感覚を持っているかもしれません。」
私たちが見逃している部分は、私たちはテロ対策の専門家ではありません。世界のすべての悪者とその能力、そして大規模言語モデルが彼らの能力に何を追加するかについては専門家ではありません。そのため、これらの問題について彼らと非常に生産的な対話を持ってきました。
私たちが彼らと話し合った他のトピックは、企業自体のセキュリティです。これはOSTPへの提案の中の一つでした。これをより正式なものにし、米国政府が定期的に行うようにすることです。もし私たちがデジタル的に攻撃されること、あるいは人的手段、内部脅威を通じて攻撃されることを心配しているなら、私たちはしばしば国家安全保障コミュニティとそれについて話します。
三つ目の相互作用は、モデルの国家安全保障への影響についてです。私が今公に言っていることを、ある形で一部の人々にはかなり前から言っています。
そして四つ目は、モデルを適用して国家安全保障を強化する機会があります。これは私とAnthropicが支持していることですが、適切な防護柵があることを確認したいと思います。一方では、国家安全保障のためにこれらの技術を適用しなければ、敵対者に対して無防備になると思います。一方、誰もが制限があるべきだと信じていると思います。
人間がループに入っていないまま、AIシステムを核兵器に接続し、核兵器を発射させるべきだと考える人はいないと思います。それはドクター・ストレンジラブの筋書きです。そうです、それは文字通りドクター・ストレンジラブの筋書きです。
そこにはどこかに、ある種の地面があり、私たちはまだそれを定義しようとしています。それは国家安全保障コミュニティと交流してきた分野の一つであり、国家安全保障のための適切なAIの使用を定義するリーダーになることを望んでいます。

マイク:
数分前のAIモデルの経験を理解しようとすることについてのあなたのコメントは、私にとって少し理解が深まってきました。そこで、最後の質問を一つさせてください。あなたが想像する世界では、人間であることはどういう意味を持つでしょうか?

ダリオ:
はい。私の描像では、私にとって最も人間らしく思えるものは二つあるかもしれません。一つ目は、他の人間との関係、彼らに対する義務、彼らをどのように扱わなければならないか、他の人間との関係で私たちが抱える困難、そしてそれらの困難をどのように克服するかということです。
人々が行ったことで誇りに思うことや、人々が犯した最大の間違いを考えると、それらはほとんど常にそれに関連しています。AIシステムはおそらくそれをより良く行うのを助けることができますが、それは常に人間であることの本質的な課題の一つだと思います。
二つ目の課題は、非常に困難なことを達成しようとする野心です。これは私たちよりスマートでできないことができるAIシステムの存在によって最終的には影響を受けないだろうと繰り返し言います。
人間のチェスチャンピオンがまだセレブリティであることを再び考えます。私は泳ぎを習ったり、テニスを習ったりすることができます。そして、私が世界チャンピオンではないという事実は、それらの活動の意味を否定するものではありません。
何かで世界一でなければならないという要件があり、それがあなたにとって精神的に意味のあるものであるためには、間違った方向に進んでしまったと感じます。そのような仮定には何か間違いが埋め込まれていると思います。私自身が50年、100年にわたって行うかもしれないことでさえ、それらのことが意味を保持し、人間がこれらのことに向かって努力する能力、諦めない能力を望みます。
繰り返しますが、それら二つのことが私が特定するものかもしれません。

マイク:
ダリオ・アモデイに時間を割いていただいたことに感謝します。

コメント

タイトルとURLをコピーしました