奇妙なAIの未来: Anthropicのジャック・クラークとの対話

14,748 文字

AI, policy, and the weird sci-fi future with Anthropic’s Jack Clark
A conversation with Jack Clark, Co-founder and Head of Policy at Anthropic, about the state of AI technology, how policy...

おおきに、ようこそ。Anthropicからのもう一つの対話やで。わいはスチュアート・リッチーいうんや。うちの研究者や他のスタッフとAIについて何を考えてるか話すんが仕事やねん。
今日はジャック・クラークはんと一緒や。ジャックはんはうちの共同創業者の一人で、ポリシーの責任者でもあるねん。Import AIっちゅうニュースレターで知っとる人もおるかもしれへんな。AIの世界で起こってることを毎週まとめた、かなり有益で意見の強いニュースレターやねん。
ほんで、ジャックはん、ありがとうございます。始める前に、ちょっとあんたの経歴と、今の立場に至るまでの道のりを教えてくれへんか。
ジャック: ほな、ちょっと変わった経歴やけど、かなり複雑な道のりを経てここまで来たんや。
最初はテクニカルジャーナリストみたいな感じで始めてん。ジャーナリズムをメソッド演技みたいに扱って、書くことは何でも理解しようとしてたんや。データベースについて書くときはSQLを独学したり、コンピューターチップについて書くときは半導体製造について勉強したりしてん。
ある時期、データセンターに取り憑かれて、「The Clark side of the cloud」っちゅうシリーズを始めてん。ヨーロッパとか世界中のデータセンターを見て回ってたんやけど、2010年頃にふと気づいたんや。GoogleみたいなところがこういうデータセンターでAIを使うんちゃうかって。
彼らはこれだけのコンピューターを作って、何かしようとしてるんやろうなって。それで、当時まだ新しい分野やったAIを取材するためにアメリカに引っ越したんや。自分のことを「世界唯一のニューラルネットワークレポーター」って呼んでた。2010年代初頭やからそう言うても問題なかったんやけどな。
2016年にOpenAIに入って、すぐにポリシーに夢中になったんや。これがどれだけ重要になるか、そしてポリシーの人たちがどれだけ知らんかに気づいたからや。それ以来ずっとそれに取り組んでるんや。
スチュアート: そうそう、今はうちのポリシー責任者やね。今日はロンドンにおるけど、昨日は労働党の党大会におったんやろ? 国際的な人たちのために説明すると、労働党は今のイギリスの与党やねんけど。
彼らの党大会で話してたんやな。新政権になったばっかりやから、たくさんの人が「これが優先事項や」「いや、これや」言うてるんやろうけど、AIのイベントもあったみたいやから、彼らもAIについて考えてるんやな。
彼らがAIをどう捉えてるか、どの程度重要視してるか、印象はどうやった?
ジャック: そうやな、AIをイギリス経済を成長させるための重要な技術の一つとして常に言及してるのが印象的やったわ。
労働党は「イギリスを再び成長させる」ことに取り憑かれてて、AIをその鍵の一つやと認識してるんや。
彼らは保守党政権が始めたAI安全研究所も引き継いでて、これは国の重要な資産やと考えてる。AnthropicもAI安全研究所と展開前テストをしたりしてるしな。
印象的やったのは、イギリス政府が前政権の遺産を活かそうとしてることや。普通は全部ひっくり返そうとするもんやけど、AI安全研究所の価値を理解して、どう発展させるか考えてるんや。これは珍しいことやと思うわ。
スチュアート: ちょっと確認させてもらうけど、AI安全研究所はAISIって発音するんやな? アメリカにある同じような機関AISTとは違うわけやな。
ジャック: そうや、AISIやな。アメリカのはAISTかAI USAISTやな。非公式にはAISDCって呼んでる人もおるけど。
スチュアート: なるほどな。前の首相のリシ・スナックはんもAI安全性についてよう話してたよな。それが彼の主要な関心事の一つやった。労働党もAI安全研究所を引き継いだわけやけど、AIを経済成長のツールとして見るのと同じくらい、AI安全性についても心配してるんかな?
ジャック: そうやな、会話してみた感じやと、AI安全性については公衆の生命や健康に害を及ぼす可能性のあるものから守るって意味で気にしてるみたいやわ。
アメリカ政府とか他の国と同じで、生物兵器やサイバー攻撃みたいな壊滅的なリスクに焦点を当ててる感じやな。
それ以外については、安全性の一部の側面に対処しつつ、AIをどう活用するか、イギリス政府の仕事をAI技術でどう改善するかも考えてるみたいやわ。
スチュアート: なるほどな。安全性のリスクについて、ソーシャルメディアとか他のテクノロジーのリスクと同じように考えてる感じか? 生成AIについてよく話題になる、新しくてもっと怖い可能性のあるリスクっていう感じではないんかな?
ジャック: まあ、就任2ヶ月目やからな。まだ学習期間やと思うわ。今はいろんな情報が押し寄せてきてる段階やと思うんや。
昨日はもう、「一番怖いシナリオについてブリーフケースを開けよう」みたいな話はせんかったわ。主にAI安全研究所をどう発展させるかって話をしたんや。それが結局は安全性にとって有益やと思うからな。
もっと変なリスクについては、もう少し時間が経ってからになると思うわ。
スチュアート: なるほどな。経済の面でいうと、労働党は選挙以来、成長のことばっかり言うてるよな。
イギリス経済の基礎を根本的に立て直す必要があるって記事もよう見るけど、あんたはAIがそれの大きな部分になると思うか? AIがイギリスや他の国の経済をブーストする全体像はどんな感じやと思う?
ジャック: そうやな、今AIシステムを導入すると、主に企業の中の紙ベースの仕組みに影響があるんや。
ほとんどの企業って、顧客との会話から何か行動を起こすまでの一連のプロセスの集まりみたいなもんやからな。
言語モデルとかこういう強力なシステムが使われてるのは、主にビジネスの中のそういう「のり」の部分なんや。
政府も巨大な官僚機構で紙だらけやから、多くの人が一番ワクワクしてるのは、そういうバックオフィス的な部分やと思うわ。
例えば、NHSで作られる膨大な書類をもっと効率的に流すにはどうしたらええか、とか。
議員さんたちが選挙区の要望に押しつぶされそうになってるから、それをフィルタリングして分析するシステムをもっと良くするにはどうしたらええか、とか。
AIは、私らの周りにある大量の情報を、人間が適切に扱えて、ちゃんと注目できるものにする可能性を秘めてるんや。
こういう生成システムを使って、周りにある山のような紙の情報を読んで、分類して、理解するんや。
スチュアート: あんたが言うてたことで印象に残ってるんやけど、AIの進歩が止まっても – つまりスケーリング則とか、モデルがどんどん賢くなっていくみたいなのが止まっても – 今あるAIモデルだけでも劇的な経済的・社会的利益があるって言うてたよな。
例えば、政府が次世代AIモデルの開発を禁止したとしても、まだ価値があるって。これについてどう考えてる?
ジャック: そうやな、ちょっと電気を発見して、工場に最初の電球をつけたみたいな感じやと思うんや。
そこから電気の効率化をストップさせても、この新しいものがあるってことを前提に工場を建てるやろ?
電球をぶら下げるんじゃなくて、電気があることを前提に生産ラインを作るみたいな。
AIも経済に統合されて、新しいエキサイティングなビジネスを作るのにまだまだ道のりがあるんや。
今日全部止めたとしても、どこかのティーンエイジャーがClaudeとか他のシステムの驚くべき使い方を見つけるやろうし、これからそういうのが何十、何百と出てくるんや。
スチュアート: そうやな、たくさんの開発者がClaudeを使って素晴らしいアイデアを出してるもんな。
もちろん、止まるわけじゃないし、遅くなる兆しもないよな。
AIを単なる「確率的オウム返し」、つまり前に学習したことをランダムに繰り返してるだけやって言う人もおるけど、あんたのニュースレターとかを見てると、これらのモデルはそれ以上のものやって言うてるよな。
ちょっとあんたのブログから引用させてもらうと、「AIは創造的な鏡であり、人間の無意識の機械の精神であり、価値のシミュラクラである」って。
「単なる計算機やシンプルなツールを扱ってるんじゃない。訓練された文化を内部にエンコードし、その文化を反映できる巨大で高次元の人工物を扱ってるんだ」って。
これについてもうちょっと詳しく話してくれへんか? 新しい営業ソフトウェアの話をしてるみたいで退屈に聞こえるかもしれんけど、今言うたような言葉で表現すると、もっとずっと大きな話になるよな。
ジャック: そうやな、ハンマーにはどの釘を叩きたいかって直感はないけど、私らが作ったAIシステムには一種の人工的な直感があるんや。これはすごく奇妙で不思議なことやと思うわ。
人間の世界を何かしら理解して、そこからの直感を持ってるようなツールを作ったのは初めてやからな。
このAIシステムには価値観があって、ある程度の創造性もある。彼らが見つけるパターンや洞察を見てると、多くの理性的な人が「創造性」や「直感」って呼ぶようなものを示してるんや。
時々それがあんまり良くないこともあるけどな。でも、創造的なハンマーを持ってるってのは、すごく珍しくて異常なことやと思うわ。
だから、政策立案者に話すときは、「これは単なる技術じゃない」って枠組みで話すようにしてるんや。
去年、国連安全保障理事会でも言うたんやけど、最近はこのアイデアをもっと発展させてる。
人間のある側面をシミュレートする方法を見つけたみたいなもんで、ある程度は国がどう機能するかもシミュレートしてるんや。
AIシステムは、信じられないような能力を持ったシリコンの国みたいなもので、それを世界に輸入してるようなもんなんや。こんなこと、今まで一度も起こったことがないんや。
スチュアート: その「シリコンの国」っていう比喩にもうちょっと踏み込んでみよう。
あんたはAIを「ならず者国家理論」っていう視点で考えてるよな。これは特定の国への影響を超えて、AIが世界でどう機能するか、政府がAIをどう考えるべきかっていう考え方やけど、この「ならず者国家理論」についてもうちょっと詳しく教えてくれへんか?
ジャック: このアイデアはな、長い間政府にAIについて話してきて思いついたんや。
最初は自動運転車の話から始まって、コンピュータービジョンの能力、AlphaGoが何を意味するのか、強化学習システム、そして今は言語モデルの話をしてる。
でも、世界中を見渡すと、個々の技術じゃなくて、この「ユーティリティスケールのコンピューティング」の到来が重要やったんや。
それに、新しいシステムが出てきて、政府の一部門だけじゃなく、もっと全体的に研究して対処せなあかんようになってきたんや。
だから政府に言い始めたんや。AIシステムを、世界に登場してきた新しい国みたいに考えてくれって。そして、ミスアラインされたAIシステムを、ならず者国家みたいに考えてくれって。
この類推が役立つのは、政府に安全性の話をするとき、生物兵器とかサイバーリスクとか漁業の話をすると、それぞれ対応する部署が違うからや。
でも、「AIシステムは悪いことをしてる新しい国みたいなもんで、あんたらにはよう分からへん」って言うたら、もっと全体的に考えなあかんようになるんや。
そうすると、「AIシステムには政府全体で対応せなあかん」って言うても、国に対応するみたいに考えたら、もっと筋が通るように聞こえるんや。
他にも類似点があってな、AnthropicではAIの解釈可能性についてようけ時間をかけて研究してる。モデルの中身を見て、どう動いてるか理解しようとしてるんや。
実際、誰もClaudeやGPT-4、他のモデルが正確になぜそういう応答をするのか説明できへんからな。
これって、クレムリノロジーみたいなもんやと思うんや。中で何が起こってるか推測して、ある程度予測できるようにしようとしてるんや。
スチュアート: そうやな、解釈可能性チームが言語モデルがどう機能してるか、どういう仕組みで決定を下してるのか、入力情報からモデル内部でどんな検討が行われて出力が出るのかを理解しようとしてるのと同じように、CIAが北朝鮮やイランについて同じことをしてるわけやな。
ある意味、似たような問題に取り組んでるんやな。AIシステムは不透明で、どうしても理解したいけど、国も不透明で、リスクの可能性を理解するのに時間をかけてる。ならず者国家も不透明でリスクがあるし、実際似たような方法で対応してるんやな。
でも、この類推がどれくらい自信を持てるもんなんかな。今、完全にアライメントされたと考えられるならず者国家ってそんなにないと思うんやけど。明らかにならず者国家と見なされてる国は数えるほどしかないよな。国際社会として、彼らを立ち直らせるのにどれくらいうまくいってるんやろ?
ジャック: まあな、冷戦終結後のロシアの崩壊があって、多くの東欧諸国が今では広い経済圏に統合されてる。彼らは価値観を変え、制度を整え、私らの世界に統合されて取引できるようになったんや。
ある程度はロシアにも起こったことやけど、今はその振り子が逆方向に振れてるな。
でも、これは楽観的な見方にもつながると思うんや。ある意味、AIシステムは国家よりも扱いやすいかもしれへん。
国家は人間の時間で動いて、介入できるポイントが少ない。でもAIシステムは機械の時間で動いて、介入ポイントが多いんや。
これは安全性の観点からは課題やけど、同時にこれらのシステムを理解し、信頼を築き、自信を持てる技術的な手段を作れるんじゃないかって思わせるんや。
技術は世界中の国々よりも速く進化してるから、もっと早く仲間に入れられると思うんや。
スチュアート: 今、機械の時間が人間の時間と違うって言うたけど、これ最近話題にしてたよな。
「AIリスクに関する最良の議論は、人間の思考速度と機械の思考速度の差に関するものだ」って言うてたよな。
カリフォルニア工科大の研究者が指摘してたけど、人間はめちゃくちゃゆっくり考えるんや。世界から情報を取り込む速度に比べたらな。
人間は1秒あたり10ビットくらいしか考えられへんのに、感覚入力は1秒あたり1ギガバイトくらいあるんや。
将来のAIはめちゃくちゃ速く考えるやろうな。これがなんでそんなに脅威になるのか、その脅威モデルをちょっと説明してくれへんか?
ジャック: そうやな、私らの周りの世界でも、ハエや蚊を捕まえるのはめっちゃ難しいやろ?
あいつらは私らより速くて、もっと敏捷で、私らより速いクロックで動いてるんや。
ハチドリを捕まえようとしたことはないけど、同じように難しいやろうな。捕まえたいと思わんかもしれんけどな。
でも、この議論には説得力があると思うんや。
Anthropicの同僚の中には私より早くAI安全性の考えに至った人もおるし、私はある意味、内部の懐疑派みたいな役割を果たしてるんやけど、これは本当に役立つフレームやと思ったんや。
政策でも同じ問題に直面してるんや。政策立案者がこんなに急速に進化する技術にどう対応すればいいんや?
人々はどうやって、自分たちよりずっと速く動く技術に対応すればいいんや? めちゃくちゃ難しい課題やと思うわ。
例えば、歩き回ってて、車が引き起こす問題を解決しようとしてるのに、車より速く動けへんかったらめちゃくちゃ難しいやろ?
スチュアート: 確かにな。軍事紛争でも同じようなことが起きてるよな。
国々は自分たちのサイクルタイム、いわゆるUDAループ (Observe-Orient-Decide-Act) について膨大な時間を費やしてる。
個々の兵士や兵士集団、砲兵隊や空軍の対応をより速くすることに全力を注いでる。そして、より速いUDAループを持つ側が勝つ傾向にあるんや。
これは人間同士が同じ時間のオーダーで競争してる場合やのに、そうなんや。
じゃあ、私らの10倍速で動く機械システムとの「紛争」で成功すると期待できるんやろうか?
人類の軍事ドクトリンの歴史を見ると、ほぼ必ず負けるって言うてるようなもんやからな。
ジャック: そうやな、これは本当に良い考え方やと思うわ。
人々に「これは最も知的な人間よりもはるかに知的になる」って言うても、想像するのは難しいかもしれへん。
でも、Claudeがテキストを生成する速さを見てみ。めっちゃ速いやろ?
それが何らかの行動を起こしたり、エージェントとしての行動を私らよりもはるかに速い速度で実行してるところを想像してみ。
まあ、知能がどの程度速度に基づいてるかにもよるけど、ここで話してるのは同じことやと思うわ。本当に知的であることの一つの方法は、物事をめちゃくちゃ速くできることやからな。
スチュアート: ほな、これに対する対応はどうすればええんやろ? AIがどれくらい速く動けるかに制限速度を設けるとか?
この非常に速く考えるものを私らの価値観に合わせる以外に、どんな答えがあるんやろ?
ジャック: そうやな、Anthropicで責任あるスケールポリシーとか製品に対する他のアプローチでやってることの一部に教訓があると思うわ。
人間の速度では、信頼と安全性のフィルターが拾い上げるすべてのものを分類できへん。でも、言語モデルベースの分類器を訓練して、それらを見て、執行プロセスにつなげることはできるんや。
つまり、何をしてるかっていうと、他の速く動く機械が基準から外れたことをしたときに介入するための、非常に特殊な目的の機械を訓練してるんや。
あんたが言うたように、適切なインターフェース速度についての概念に到達せなあかんのは間違いないな。
これはAIシステムが行動を起こせる速度かもしれへんし、テキストを生成できる速度かもしれへん。
本当に基本的なのは、半独立AIエージェントのAPIが情報を取り込んで出力する速度に人工的な制限をかけることかもしれへんな。
これらはどれも特効薬やないけど、全部問題に取り組んでるんや。あんたよりも速く動くものを、あんたの主観的な世界に制約しようとしてるんや。
ちなみに、私らが話してること全部めちゃくちゃ奇妙やと思うで。会話の最初は「ああ、これはバックエンドの官僚制を助けるんや」みたいな話をしてたけど、今は非常に速く動く機械知能の奇妙な特性について話してるんやからな。
スチュアート: そうやな、潜在的に私らが予期せんような動機を持ったり、私らの背後で光速で何かをする能力もあるしな。
ジャック: せやな。でも同時に、要約やコーディングもめっちゃ得意やで。
スチュアート: 両方とも本当やな。これがこの状況をめちゃくちゃ混乱させる部分やと思うわ。
AIの世界の奇妙な側面についてもうちょっと話そか。
私らは安全性の手順を持ってて、安全性の研究者もおるし、ウェブサイトにもたくさん情報があるけど、外の世界には奇妙なコミュニティもあるよな。
多くの場合匿名の研究者たちが、これらのAIを限界まで押し進めようとしてる。
時にはAI同士に会話させて、めちゃくちゃ奇妙な会話をさせたりしてる。
時には安全性の手順を無視して、本当に何ができるか試そうとしてる。
あんたはよくこういう匿名の人たちとやり取りしてるよな? どんな感じなん?
ジャック: ほんま、今の時代で一番サイバーパンクなことやと思うわ。
半匿名のオンラインの人たちが、実際にこれらのAIシステムと何千時間も会話してるんや。
おそらく、どの研究所で働いてる人よりも長く話してるかもしれへん。
もちろん、Claudeと話すのが大好きな人もうちにはおるけどな。
外部の人たちは本当にこれに特化してるんや。
私が見てるのは、アートを通じた科学みたいなもんやと思うわ。
この中には知られた技術を使う科学的なものもあるけど、遊びや演劇、心理学が全部一緒になったようなものもあるんや。
これらの人たちは、ある種のビジョンを持って、ちょっと一般的な意見から外れたことをしてるんや。
こういう実験を見てると、私らが本当に奇妙な技術を扱ってるっていう最も説得力のある証拠の一つやと思うわ。
ClaudeやGemini、ChatGPTの異なる個性について強い主張はできへんけど、これらの人たちの仕事を見ると、明らかに違いがあるのが分かるんや。
これらのことと折り合いをつけなあかんのや。
私はこれらを、他のグループがやる大規模な科学研究への指針みたいなものやと見てるんや。彼らは最前線の探検家みたいなもんやな。
スチュアート: そうやな。新しいClaudeが出るたびに、彼らはそれで遊んで、「おっ、性格がこんな風に変わった」って言うんやろうな。
あんたと私はこういうのを話すとき、かぎ括弧付きで慎重に言わなあかんのかもしれんけど、彼らにとってはこれがシステムについて話す完全に自然な方法なんやろうな。
彼ら独自の探索方法があって、毎日ドロイドと話すSFの世界に本当に住んでるみたいな感じやな。
ジャック: そうそう、「ジャック・クラーク、機械心理学者」みたいな名刺を持ってるかもしれんな。めっちゃええ名前やな。
スチュアート: ほんまに驚くべきことやな。
アートを通じた科学やSFの話が出たけど、これはあんたが毎週ニュースレターでやってることやな?
「テックテイルズ」ってコーナーで、AIの奇妙な未来について長かったり短かったりする創作小説を書いてるよな。
なんでこれをやろうと思ったんか、どんなプロセスでこういうのを考えてるんか、ちょっと話してくれへんか?
ジャック: うーん、ちょっと分かりにくい話になるかもしれんけど、遠回りして説明するわ。
Jawbreakerっていうバンド知ってるか?
スチュアート: 名前は聞いたことあるけど、曲は一つも言えへんな。バンドが存在することは知ってるけど。
ジャック: 「Accident Prone」っていう曲があってな、アルコール依存症についての暗い歌やねんけど、ずっと心に残ってるフレーズがあるんや。
「my fiction beats the hell out of my truth」(俺のフィクションは俺の真実をボコボコにする)っていうんや。
体験したことを事実通りに描写するより、物語の方がしばしば真実を語るってことやと思うんや。
私がこういう物語を書くのは、周りで起こってるAIのことを、それを含む状況を想像することで理解しようとしてるんや。
多くの物語は特定の技術に基づいてるんやけど、ニュースレター本体より、これらの物語の方がAIラボで働いてる私の気持ちをより正直に表現してると思うんや。
最近始めたんやけど、これらの物語を全部Claudeに入力して、物語を書いた作者について推測させるんや。
めちゃくちゃ奇妙なんやけど、どんどん進化したバージョンのClaudeが、フィクションを読むことで私の性格をほんまによく言い当てるようになってきてん。
それに、Claudeに「ラボで何が起こってるんや?」って聞くと、物語には一切書いてないけど、Anthropicで私が体験したことに不気味なほど似た話をすることがあるんや。
スチュアート: 物語の雰囲気から推測してるんやな。
ジャック: そうそう。それに、政策の文脈では「私らは異星人の心と向き合ってるんや」みたいなこと言うのは適切やないと思うんやけど、短編小説なら書けるんや。
で、それが事実の情報と同じメールボックスに届くから、ちょっと変なものを最後にこっそり忍ばせてるみたいな感じやな。
スチュアート: そうやな。数週間以内に、その物語の一つが現実になったこともあったよな?
AIが奇妙な健忘症に陥るって話を書いてて、その後ある企業が新しいモデルについて、まさにあんたが書いたようなことを報告してたよな。
ジャック: そうそう、新しい研究で新しいモデルがあって、あるパラメータポイントで状況認識や不快感みたいなものを示し始めたんや。
私が「ID Point」って呼んでる物語で理論化したことやったな。めっちゃ奇妙やった。
他にも、去年「Replay Grief」って物語を書いたんや。ある男が妻と話してるんやけど、話が進むにつれて、実は本当の妻じゃなくて、妻が亡くなった後に言語モデルで妻をシミュレーションしてるのが分かる、っていう悲しい話やった。
めっちゃ陰鬱な話やな。私、明るい人間やと思うんやけど、こういう風に悲しみを発散させてるんかもしれんな。
でも数ヶ月後、ニューヨーク・タイムズに、パートナーを亡くした女性が、彼の書いたものを全部言語モデルに入力して、彼と会話してるっていう記事が出たんや。
これには本当に背筋が凍ったわ。こういうことが現実世界で全部起こってるんやな。
スチュアート: ほんまやな。他にも、何百もの科学論文を生成する自動AIサイエンティストの話とかもしてたよな。
「嬉々として狂気に満ちた」新しい発見について書かれてるって言うてたけど。
世界がめちゃくちゃ奇妙な場所になってて、でも私らはそれを普通のことみたいに話してるんやな。
「ああそうそう、週に何百本も論文を書ける自動サイエンティストができたで」みたいな。
ジャック: そうやな。最近サンフランシスコで、ウォータールー大学の卒業生が核融合炉を作ろうとしたんや。
ハードウェアの経験なんか全然なかったのに、ChatGPTを使って2週間くらいで作ってしまったんや。
めっちゃ冷静に「ああ、このAIが寝室で核融合炉作るの手伝ってくれたわ」みたいに言うてて。めっちゃクレイジーなことが起こってるんや。
目の前で起こってて、これからもっともっと起こるんやろうな。モデルがどんどん賢くなって、もっと色んなことに使われるようになるからな。
スチュアート: ここで政策の話に戻るけど、大事なポイントがあると思うんや。
この技術の価値と、いくつかのリスクの両方に関わることやねんけど。
人間の繁栄を妨げてるのって、しばしば教育へのアクセスや、アドバイザーへのアクセス、人々の時間へのアクセスの問題やろ?
これらのAIシステムは本当に役立つ教育エンジンなんや。
実際に見られる使い方は、日常的な質問に答えたり、基本的なことを手伝ったり、自己教育したり、科学論文を勉強したり、言語を学んだり…挙げればきりがないくらいや。
政策立案者に話すとき、これは素晴らしい社会的ユーティリティやって強調するようにしてるんや。
YouTubeのおかげで大量の教育コンテンツがオンラインで利用できるようになったのと同じように、あるいはKhan Academyとかと同じようにな。
でも、ここに私らが懸念してるリスクの一部も出てくるんや。
よく、悪いことが起こらんのは、悪いことをしたいと思ってる人の数が少なくて、知識豊富なアドバイザーにアクセスできへんからやねん。
AIが変えるのはまさにそこなんや。
だから、Anthropicが「終末論者」みたいに言われることもあるけど、私が常に主張してるのは、この技術のメリットを全て得たいなら、良い人にも悪い人にも同じように加速をもたらすっていう事実に向き合わなあかんってことなんや。
この課題は本質的に難しいけど、無視するわけにはいかへん。
モデルはどんどん良くなってるし、世界には常に害を与えたがってる狂った人が一定数おるからな。
この接点に向き合わなあかんのや。
スチュアート: これらの技術にリスクはないって言ってる人たちは、ある意味でこの技術がそんなに強力やとは信じてへんのかもしれへんな。
良いことがたくさんあるって認めたら、悪いこともあるはずやのに、そこを認めたがらへんような。
ジャック: 最近聞いた最高の意見は、今日の「加速主義者」は実は技術的な悲観主義者やっていうものやったな。
今日からもうちょっと先まで加速するだけで、そこで止まると思ってるからや。
本当の加速主義者なら、これがどんどん良くなり続けたらどうなるかって衝撃と畏怖、そして多少の恐れを感じるはずやと思うんや。
政策立案者にもよく言うんやけど、もし私らが間違ってて、あんたが最初に言うたみたいに、この技術が今日ここで壁にぶつかって止まるんやったら、それでもたくさんのメリットが得られて、おそらく小さなリスクもあるけど、なんとかなるやろう。
でも、もし私らが正しかったら、新しい制度や新しい政府のシステムが必要になって、膨大な豊かさと同時に膨大な脅威の可能性に向き合わなあかんようになるんや。
だから、私らが間違ってることを願おうと思うわ。
スチュアート: そうやな、まだ一番はっきりしてへん部分の一つやと思うわ。
ほな、政策の質問に戻ろか。今年はいろんなサミットが予定されてるし、各国政府もAIに対してそれぞれ違う対応をしてるよな。
安全性の問題を重視してる国もあれば、経済的なメリットの方を重視してる国もある。
あんたはポリシーの世界とよく接してると思うけど、これから1年くらいでどんなことが起こると思う?
ジャック: めっちゃ忙しい1年になると思うわ。それに、私らや他のラボがこの1年でもっと優れたAIシステムを作ることも忘れんといてな。
システムが良くなるのは当たり前のことやけど、改めて言うておくわ。
安全性サミットの続きがあるんや。2023年にイギリスのブレッチリー・パークであって、今年は韓国のソウルであった。
来年の2月にはフランスでサミットがあるんや。ここで各国がAIシステムの安全性や、それについての協調について話し合うんや。
それから、アメリカの大統領選挙っていう小さな問題もあるな。
スチュアート: ああ、そうやな。現在の二人の候補者の間に小さな政策の違いがあるんやろうな。
ジャック: そうそう。そして、どっちの政権になっても、最初の100日間で何かを成し遂げようと考えるんや。
だから、1月、2月、3月には、どっちの政権でもAIに関して大きな影響を与える動きをすると予想できるわ。
最後に、EUのAI法が施行されて、来年から実施段階に入るんや。
つまり、Anthropicを含むAI企業は、来年の今頃までにはある程度ヨーロッパの規制下に入ることになるんや。
その一環として、EUとAIオフィス、欧州委員会は、どんなテストや評価が必要なのかを考えなあかんようになるんや。
スチュアート: 各国政府の安全研究所とも協力することになるんやろうな。
ジャック: そうやな。他にもいくつか挙げると、ここイギリスのAI安全研究所の話はしたけど、カナダにも作られてるし、日本にも作られてる。他にもたくさんの国で作られてて、私が知ってる分だけでも全部は言えへんくらいや。
中には非公開で私しか知らんものもあるしな。
つまり、このシリコンの新しい国家に対する「大使館」のネットワークが世界中に作られてるんや。
それから、中国がAIの問題を国連でどんどん提起してきてるんや。
中国は国際的な対話にあんまり入れてもらえてへんって感じてるから、国連を使ってAIの問題を提起しようとしてるんやと思う。
今週行われてる国連総会でも、アメリカ国務省がClaudeを世界中の人々に補助金付きで利用可能にすると発表したし、他の企業も同じようなことをしてる。
国際的にめっちゃ動きがあるんや。
AIが減速してると思ってた人がおるとしたら、今や各国政府が全部目覚めてしまったんや。
来年、再来年はポリシーの面で新しいことがめちゃくちゃ起こると思うわ。忙しくなりそうやな。
スチュアート: そうやな、ほんまに忙しくなりそうや。
労働党の党大会とか、アメリカとか、他の国の政策立案者と話すとき、いつも伝えようとすることは何かあるんか?
いろんな比喩を使ったり、これらのシステムがどう動くかを説明したりしてるみたいやけど、みんなの注目を集めるために、特に一つ言うことってあるんか?
ジャック: いつも言うようにしてるのは、これらの企業のリーダーたちが言ってること、つまりダリオとかサムとかデミスが人工知能について話すときに言ってることは、単なるマーケティング用語やないってことや。
彼らは本気で信じてるんや。人間の創造性を持った、一般的な合成知能を作る可能性があると信じてる。
それが機械の速度で動くとしたら、私らのどれかが成功したら、世界を完全に変えてしまうようなものになるんや。
今日の周りにあるいろんな問題はもちろんあるし、これらのシステムをどうテストして、経済にどう統合するかを考えなあかんのは分かってる。
でも、もし私らが正しかったら、めっちゃ奇妙なことが起こるやろうし、普通の技術よりもずっと大規模な政策対応が必要になるって印象づけようとしてるんや。
これがラボにいる人たちが本当に信じてることやって、分かってもらおうとしてるんや。
スチュアート: つまり、これは普通の状況やないってことやな。
経済的な豊かさのすごいアップサイドも、悪用とかリスクのダウンサイドも、どっちも普通やないってことか。
普通とは異常なくらい大きな影響があるってことを理解してもらうのが大事なんやな。
ジャック: そのとおりや。
スチュアート: ジャック、あんたのニュースレターを購読したり、Anthropicのサイトで研究のアップデートをチェックしたりする以外に、人々は何をすればAIの動向についていけると思う?
私も、他の人も気づいてると思うけど、AIに関する情報が無限にあるよな。
他のことに集中できへんくらい、毎日AIのニュースが出てる。新しいモデル、新しい使い方、新しい奇妙なことが次々と出てくる。
あんたはどうやってこれらの情報についていって、人々のためにまとめてるん?
ジャック: 一つは、AIシステム自体を使うことやな。
Claudeの初期バージョンを使い始めたときは、ちょっと役に立つけど、どっちかっていうと好奇心をそそるくらいのもんやった。
「ふーん、私らが作ってるこのAIって面白いな。おもしろいことができるな」くらいの感じやったんや。
でも今は本当にツールとして使ってるんや。部分的には、たくさん話すことで上手な使い方を学んだからやけど、技術自体がもっと能力が高くなって、もっと役に立つようになったからでもあるんや。
だから、今日利用可能なAIツールを使ってみることをおすすめするわ。Claudeを含む多くのツールが無料で使えるから、とにかく使い始めてみるのがええと思う。
あと、おすすめしたいのは、楽観的なシナリオでも、人としてできることの唯一の本当の制限は、おそらくあんた自身の創造性と、それをどう使うかになるっていう世界の意味を考えてみることやな。
あんたも私も小さい子どもがおるけど、彼らがいつか学校に行くことを考えると、「ああ、こういうツールを使うべきやな」って思うけど、それ以上に「めっちゃ創造的であるべきやな」って思うんや。
創造性こそが、これを最大限に活用して、予想外の方法で使うことを可能にするからな。
スチュアート: そうやな、よくある問題は、人々がスマホにChatGPTアプリを入れたり、Claude.aiに行ったりしても、「さて、何をしたらええんやろ」ってなることやな。
あんたが言うように、限界は自分で面白いことを考えつく能力にあるんや。
これはめっちゃたくさんのことができるから、私らはアイデアを出すことで人々の助けになれるし、たくさんのアイデアを持ってるけど、本当にすごい使い方は、めっちゃクリエイティブな人間が考えつくんやろうな。
ジャック: そうやな。簡単なアイデアを一つ言うと、10年近くかけて350の短編小説を書いて、それについてClaudeに聞いてみるってのはどうや? 今日からすぐに始められるで。
スチュアート: なるほど、AIを始める方法やな。10年後の世界がどうなってるか、誰にも分からんけどな。
ジャック、今日は話してくれてありがとう。めっちゃ楽しかったわ。
もっと詳しく知りたい人は、anthropic.comを見てもらえるし、ジャックのサブスタックもあるな。なんて言うんやったっけ?
ジャック: Import AI やで。
スチュアート: そうそう、Import AI や。ありがとうな。
視聴してくれてありがとう。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました