
9,557 文字
AIを取り巻く世界に属する懐疑論者でさえ、AIによって世界が劇的に変わるまでに長くても10年か20年しかかからないと考えています。この会議で出会ったある人は、AGI(汎用人工知能)の時代には貨幣は意味を持たなくなると信じているため、退職金の積み立てを止めたと語っていました。なぜなら、25年後にロボットが私たちの物質的なニーズを全て満たしてくれるのであれば、401kなどの退職金制度に加入している意味がないからです。
ケイシー、私たち最近とても興味深いイベントに一緒に参加しましたね。そうですね。普段は主にスタジオで過ごしていますが、今回は実際に外に出て人々と出会い、少しインタビューもしました。昔のジャーナリズム学校で「シューレザー・ジャーナリズム」と呼ばれていたものですね、ケビン。でも今は誰も革靴を履かないので、「シューラバー・ジャーナリズム」とでも呼ぶべきでしょうか。
このイベントは、カリフォルニア州バークレーで開催された「カーブ」というAIカンファレンスでした。AI研究者と愛好家のグループが主催し、AIに関する様々な立場の人々が一堂に会して、その違いを乗り越え、共通の基盤を見出すことを目的としていました。AIは人類を滅ぼすと考えるAIドゥーマー(破滅論者)であれ、もっと加速すべきだと考えるアクセラレーショニスト(加速主義者)であれ、AIを巡る対立する部族を集めて、その違いを話し合い、共通点を見出そうという趣旨でした。
私はあなたの最初の印象をとても知りたかったのです。私は以前にこの会場に来たことがありました。ライトヘイブンという元ホテルで、合理主義者のグループがイベントスペースに改装したものです。でもあなたは初めてでしたし、このような種類のイベントも初めてでしたよね。どう感じましたか?
ケビン、私の主な感想は、AIの開発に携わる多くの人々が、私たちが重大な変革の瀬戸際にいると深く信じているということを、世間の人々は理解していないということです。これを言うと単にハイプ(誇大宣伝)に加担しているように聞こえてしまうかもしれませんが、この発言にもかかわらず、これはハイプのためのカンファレンスではありませんでした。超知能がもうすぐ到来し、私たちはその影響に向き合わなければならないという考えを、参加者たちは当然のこととして受け止めていました。そのような信念を持つ人々と、これほど集中的に時間を過ごしたことがない私にとって、本当に目が開かれる経験でした。
そうですね。会場に入ると、壁に大きなポスターがあり、そこには現在から2280年までのタイムラインが描かれていました。そのタイムラインには、例えば「現在の人間のリモートワークの95%がAIによってより安価に行えるようになるまでの期間」や「AIによって米国の経済成長率が10%を超える最初の年までの期間」、「人間が150歳以上生きられるような医学の進歩が実現するまでの期間」といった様々なシナリオが記されていました。
私の注目を特に引いたのは、「太陽の周りにダイソン・スフィアが作られるまでの期間」というものでした。ケイシー、ダイソン・スフィアをご存知ですか?いいえ、知りませんでした。カンファレンスの皆さんに、知らないことを笑われてしまいました。ところで、ダイソン・スフィアとは何なのでしょうか?また、いつ知ったのですか?
私は何年も前からダイソン・スフィアについて知っていました。これはSFの定番で、シンギュラリティ後の世界についての思考実験でよく出てくるものです。基本的に、ダイソン・スフィアはダイソンの掃除機とは全く関係ありません。あなたはそう思っていたでしょうが。これは、将来的に太陽の周りに多数の衛星を配置し、太陽が放出するエネルギーを収集して、私たちの目的のために利用するという考え方です。基本的に太陽を太陽電池で囲み、そのエネルギーを全て捕捉して、それによってエネルギー問題を解決するというものです。
ケビン、私の最初の疑問は、どうやってダイソン・スフィアが太陽に焼かれるのを防ぐのかということです。素晴らしい質問ですね。その段階にはまだ到達していませんが、人々はこれを遠い将来に実現可能なシナリオの一つと考えています。
このタイムラインが描かれたポスターで特に印象的だったのは、これらの出来事がいつ起こると思うかをピンで示さなければならなかったことです。最も未来的なダイソン・スフィアについてさえ、2030年代か遅くとも2040年代には実現すると予測する人が多かったことに驚きました。多くの参加者が、今後20年以内に文字通り太陽の周りに衛星の群れを配置してそのエネルギーを捕捉する世界が来ると想像していたのです。
そうですね。これは、ケビンが指摘したように、このカンファレンスの小さな欠点を示しているかもしれません。AIに関する全ての立場の人々を集めようとしたにもかかわらず、実際には超知能がまもなく到来すると考え、かつそれが何を意味するのかについて非常に不安を感じている人々が大多数を占めていました。
このカンファレンスには何種類かの異なるグループがいました。最大のグループは間違いなくAIセーフティの人々で、時にドゥーマーや合理主義者と呼ばれ、何年も前から高度なAIのリスクについて警告してきた人々です。しかし、例えば「AI Snake Oil」という本の著者の一人も参加していて、元OpenAIのダニエル・コケロ(以前のハードフォークのゲスト)と興味深い議論を交わしていました。彼の立場は、基本的にAIは普通の技術の一つに過ぎず、少なくともこのカンファレンスの多くの参加者が考えているような時間枠では、このような過度の影響を世界に及ぼすことはないというものでした。そういう見方も確かに存在しましたが、少数派でした。
私もその討論に参加しましたが、議論は「超知能は2026年に到来する」対「超知能は2028年に到来する」というような感じでした。でも、これはAIの世界にそれほど深く関わっていない人々にとって、有用な指標になると思います。AIを取り巻く世界に属する懐疑論者でさえ、AIによって世界が劇的に変わるまでに長くても10年か20年しかかからないと考えているのです。
そうですね。では、このカンファレンスで見聞きしたことの中で、何か新しい発見があったとか、この世界の見方が少し変わったというようなことについて話してみませんか?
私が特に印象に残ったのは、人々が世界は間もなく劇的に変わるという真摯な信念に基づいて、実際に生活を変え始めている証拠が見え始めていることです。このカンファレンスで出会ったある人は、AGIの時代には貨幣は意味を持たなくなると信じているため、退職金の積み立てを止めたと語っていました。なぜなら、25年後にロボットが私たちの物質的なニーズを全て満たしてくれるのであれば、401kなどの退職金制度に加入している意味がないからです。
ケビン、これは私が賭博で生涯貯金を失ったときに言い訳として使えそうですね。「ほら、AGIがもうすぐ来るんだから、関係ないでしょう」って。そうですね。私は別の人に会いましたが、その人は本当にフィットネスに励んで、健康で魅力的になろうとしているそうです。なぜなら、知性が単なる機械の中に存在するようになると、賢いということはもはやステータスの指標にならなくなり、AIが私たちよりもはるかに賢くなるので、結局あなたの「ちっぽけな人間の体」だけが重要になると考えているからです。
いや、ケビン、これは私にとって最悪のニュースです。外見で競争なんてできません。うまくいかないでしょう。まあ、たぶんAIが何らかの方法でフェイスリフトをしてくれるかもしれませんね。でも、あなたはどんな会話をしていましたか?このイベントで特に印象に残ったことは何でしょうか?
そうですね、私が興味深く感じたのは、すでに多くの人々が地政学的な対立について考え始めていることでした。私たちはこの番組で、AIががんを治療する可能性や、平均的な労働者の生産性を向上させる可能性について話すのが好きです。もちろん、彼らの仕事を奪うことなくですが。しかし、これらの人々は、もし米国が超知能に到達する瀬戸際にいるとしたら、中国はそれにどう反応するのか、そしてそれが実際の戦争を引き起こす可能性があるのかということを考えています。カンファレンスではいくつかの戦争ゲーム演習が行われ、人々はそのシナリオを検討していました。これは、皆がいかに真剣にこの問題を受け止めているかを示す一面です。
実際、これは私がこのイベントで最も気に入ったセッションでした。私は参加しませんでしたが、ほとんどの部分を観察していました。3時間にわたる「テーブルトップ演習」と呼ばれるものを行いました。学校でモデル国連をやったことはありますか?いいえ、でもモノポリーはやります。そうですね、基本的にモデル国連のようなものです。参加者にそれぞれ役割が割り当てられ、ある人は中国政府、ある人は米国政府、ある人はOpenAI、ある人はイーロン・マスク、ある人はプレスと一般市民の代表という具合です。
2027年の様々なチェックポイントを通過しながら、その時点でAIが何をできるようになっているかを確認し、それぞれの役割の立場から反応して、どう行動するかを決めていく演習でした。そこで起こった興味深い出来事の中には、国際的なスパイ活動が含まれていました。ある時点で、ロシア政府の役を演じていた人が、主要なAIモデルのウェイトを盗もうとしました。中国政府も米国のAI企業が開発しているモデルを盗むためのスパイ活動を行っていました。
国内の面では、2027年の演習で、イーロン・マスクがドナルド・トランプを説得して、アメリカの主要な3つのAIラボ(Anthropic、OpenAI、Google DeepMind)を全て国有化し、基本的に自分自身をその責任者として据えるというシナリオがありました。これは全てフィクションで、シミュレーションですが、このテーブルトップ演習に参加していたのは単なるランダムな人々ではありません。これらの問題が議論される場に実際に居合わせている人々なのです。今から2年ちょっと先にこれが起こり得る可能性があるということが、彼らにとって非現実的なことではないと感じられたという事実は、私を真剣に考えさせ、実際にワシントンでAI政策に日常的に携わっている立法者たちが、シミュレーションではなく、同じような演習を行っていることを願わずにはいられませんでした。
その通りです。私もそのシナリオは全く現実味があると思います。マスクとトランプの関係が今後2、3年同じ状態で続くと仮定すれば、イーロン・マスクほど救世主コンプレックスを持っている人はいません。そして、もし私たちが本当に超知能に到達する瀬戸際にいるのであれば、どの政権下であれ、米国政府が民間企業に「はい、好きなように超知能を扱ってください」と言うとは想像し難いです。だからこそ、政府と超強力なAIとの関係はどうあるべきかについて、数日かけて考える機会があって良かったと思います。
ケイシー、このカンファレンスで最も印象に残ったセッションは何でしたか?それは「誰かが作ったら、全員が死ぬ」というタイトルのセッションで、エリエゼル・ユドコウスキーがホストを務めていました。エリエゼルは元祖ドゥーマーで、20年以上前から超知能AIの危険性について警告してきました。彼の見方では、私たちを奴隷化したり、傷つけたり、全員を殺したりしない形で超知能を構築できるシナリオはほとんどないのです。そのため、彼は最初から「おそらくこれは作るべきではない」と人々に伝えてきました。
あなたと私は、彼と一緒に座って、人々が多くの質問を投げかける機会を得ました。彼は非常に物議を醸す人物で、この議論の一つの極端な立場にいると言えます。しかし、彼は多くの害悪について早い段階から理解していて、それらは少しずつ現実のものとなってきています。そのため、部屋に座って1時間ほど彼の主張を聞くのは、とても興味深い経験でした。
AIの世界に深く関わっていない人々にとって、私たちが描写していることの一部は非常に極端に聞こえるかもしれません。AIコミュニティの中でさえ、これらは極端な声と考えられていますが、これらの人々は非常に影響力を持ってきました。例えばエリエゼル・ユドコウスキーは、DeepMindが独立企業だった頃の最初の投資が行われた理由の一つでした。彼がデミス・ハサビスをピーター・ティールに紹介したのです。彼らの見方は物議を醸すような性質を持っていますが、長年この方面で考えてきた人々の世界の中では、かなりの影響力を持ってきた人々なのです。
ケビン、私がこれらの人々を真剣に受け止める理由は、この集団が10年以上前に多くの予測を立て、それらが基本的に的中したからです。彼らは機械学習とニューラルネットワークの進歩を見て、点と点を結び付け始め、「すぐにこれらのモデルは信じられないほど強力になるだろう」と言い始めました。そしてそれらは全て真実となったのです。だから彼らには信頼性があるのです。
もちろん、彼らが見落としていた何らかの限界に突き当たる可能性もありますし、彼らの世界観が崩壊する可能性もあります。しかし、これらの企業が進歩を遂げ、新しい製品を作り出す中で、彼らは少しずつ自分たちのモデルを更新してきました。私が言いたいのは、このモデルは今のところ基本的に持ちこたえているということです。少なくとも、私たちが次のAIの段階が私たち全員にとってどのようなものになるのかを考える際には、この集団の人々のことを念頭に置いておく必要があります。
私がこの経験から感じたのは、長年この問題について考え続け、比較的一貫した立場を保ってきた人々への敬意です。しかし同時に、時にドゥーマーと呼ばれるAIセーフティの人々には、メッセージングの問題があると感じています。彼らには説得という大きな課題が待ち受けています。これらの人々の一部のように、何年も何年もAIのリスクについて警告し続けていると、ある時点で人々はそれを無視し始めてしまうと思うのです。
いわゆる「オオカミ少年」の問題がAIセーフティにはあります。例えば、ChatGPTの前身であるGPT-2が非常に危険になると考えた人々がいましたが、GPT-2は危険ではありませんでした。GPT-3やGPT-4についても同じような懸念がありました。そしてChatGPTが登場した後、「AIの開発を一時停止すべきだ、この技術の進歩が速すぎる」という公開書簡がいくつも出されました。
私は、これらの人々は自分たちが主張していることについて、もっと良い証拠を示す必要があると思います。なぜなら、この世界に深く関わっていない人々、つまりあなたや私のようにこういったイベントに行かない人々は、周りを見回してAIによる害を確かに目にしていますが、それは実存的な害ではないからです。詐欺に遭ったり、ソーシャルメディアにディープフェイクが登場したり、仕事を奪われることへの少しの不安といった程度で、2040年までにダイソン・スフィアができるといった話ではないのです。
その通りですが、ケビン、あなたはこのグループがこの問題を解決する素晴らしいアイデアを持っていると思います。それは、AIの破滅についての本当に良いSF映画を作ることです。AIの破滅映画を作ることの意義について説明していただけますか?
これは半分冗談で提案したことですが、エリエゼルか他のAIセーフティの著名人に話したと思います。この考えは、ここ数年AIについて人々と話をして回る中で、多くの人々のAIに対する考えがハリウッドから来ているということに気付いたことに基づいています。ターミネーターやスカイネット、エクス・マキナ、ハーなどから来ているのです。
文化として、私たちは未来についての考えや、それについて興奮すべきか恐れるべきかという判断を、しばしば映画やポップカルチャーを通じて得ています。しかし、より悲観的な人々が懸念しているシナリオを、本当に魅力的なストーリーに昇華して、主流の観客を引き付けるような良い試みをあまり見たことがありません。
なぜなら、もし主流の観客をこのカンファレンスに連れて来たら、「これらの人々は一体何を話しているんだ?ダイソン・スフィアって何だ?なぜペーパークリップ・マキシマイザーについて話しているんだ?」となってしまうでしょう。長年互いに話し合ってきたこれらの人々の間には、専門用語や内輪の話が多すぎて、理解不能に感じられ、どこから手をつければいいのかさえわからないのです。
しかし、この技術の軌道と速度を本当に理解している人々によって作られた映画があれば、それはかなり説得力のあるものになると思います。あなたはどう思いますか?
その通りだと思います。SFは常にテクノロジーに関する会話を形作り、再形成しています。「ハー」という映画は10年前に公開されましたが、特にOpenAIの人々がChatGPTに取り組む際の重要な参照点であり続けています。そのため、超知能が非常に有害になり得る、まだやや空想的ながらも次第に現実味を帯びてきたシナリオを描き出す映画は、非常に有用だと思います。そしてそれは本当に面白いものになると思います。
エリエゼルの講演を聞いている時、彼はこれらのシナリオの一つを描き出していました。彼は「キャビンに逃げ込めば安全だと思っているかもしれないが、それはキャビンでも見つけることができる」と言い、「ドローン攻撃で排除されるかもしれないし、あるいはある日突然具合が悪くなって咳が出始め、数日後には死んでいるかもしれない」と語りました。彼がそれを描写している時、私の頭の中でその映画が展開されていました。それがどのような感じになるのかを。
でもケビン、今年AIの破滅に関する映画が作られたことをご存知ですか?「Afraid」という映画をご存知ですか?見てはいませんが、聞いたことはあります。というのも、私のBing Sydneyとの会話からの引用が、その映画の冒頭シーンになっていると思うからです。「これを見た?」というテキストを何人かから受け取りました。見てはいませんが、あなたの仕事が多くのホラーに影響を与えていることに感謝します。
実に素晴らしいことですね。その仕事自体がホラー映画だと言う人もいます。そう、私のエディターがよく言うんです。「Afraid」のAIは大文字で表記されていて、基本的に実験的なAIが家を乗っ取り、その後もちろん暴走して、混乱を引き起こすという内容です。まだ見ていませんが、主要なストリーミングサービスの一つで配信されているので、今週末にチェックして、これがあなたが求めていたAIの破滅映画なのかどうか見てみようと思います。
ここで一つの背景として、一般市民は実はAIについてかなり悲観的だということがあります。最近のピューの調査データによると、AIについて期待よりも懸念を感じているアメリカ人の数が、ここ数年で急激に増加しています。人々はかなり心配しているのです。しかし、AIが世界をより良くするものだと信じる楽観主義者たちが、主流のメディア消費者の間でその物語を広めたいのであれば、AIがヒーローである映画を作り始めるべきだと思います。それも人々を説得できると思います。
おそらく人々は破滅やホラー、スリルを好むので、同じように良い映画にはならないかもしれませんが、技術に対する人々の意見を形作る上で、フィクションの役割は過小評価されていると思います。
そうですね。そして、楽観的な映画は、ドラマや対立がないため、あまり魅力的に感じられないかもしれませんが、重要なのは、このカンファレンスに参加している人々が、AIについて非常に懸念を持っているにもかかわらず、それが多大な善をもたらすと信じているから、AIに取り組んでいるということです。がんや他のあらゆる人類の病気を治すことができると信じているのです。人類の課題を挙げれば、超知能がそれを解決する方法になると考えているのです。
だから、「AIを使ってがんを治療した方法とその後に起こったすべてのこと」というような映画を作ることができれば、それは良いものになるかもしれません。
このカーブ・カンファレンスの後、AIについてより楽観的になりましたか、それともより悲観的になりましたか?私たちは何年も前から警告されてきたAGI時代に向かっていると感じますか、それともこれらの懸念は多少誇張されていると思いますか?
ケビン、私の言い方としては、このカンファレンスの後、AIをより真剣に受け止めるようになったということです。これは、このポッドキャストの主要なトピックの一つとして、隔週で人々にインタビューしているにもかかわらず、奇妙に聞こえるかもしれません。しかし、私はまだ、超知能が今後5年以内に到来する可能性があるという考えに完全にコミットしていない時があります。それが何を意味するのかを考え始めることも。
そのため、このカンファレンスを通じて、この技術についてもっと学び、学んだことをもっと共有し、私のレポートの主要な焦点の一つとすることを決意しました。リスクを真剣に受け止めつつ、肯定的な結果や可能性も同様に真剣に受け止めています。あなたはどうですか?
私はAIとその軌道についての見方は特に変わりませんでしたが、このような集まりは有用だと思います。人々を直接対面させるためだけでも意味があります。しばしばこれらの会話はソーシャルメディア上で行われ、そこでは非常に苦々しく、非常に分極化した状態になってしまいます。私はAIに関する議論がここまで分極化していることが好きではありません。
これらは現実の課題であり、人々が誠意を持ってそれらを解決しようとしていると考える必要があります。カーブから得た印象、そして思い出されたのは、これらの企業で働き、この技術に取り組んでいる多くの人々がかなり誠実だということです。誠実に間違っているかもしれません。間違っている可能性はあります。これらの懸念は空想的なものかもしれず、決して現実のものとならないかもしれません。
しかし、これらの人々がこれらの見解を持つ誠実さを疑う人の意見には同意できません。これは資金を集める時だけ言うことではなく、カーブ・カンファレンスの夜の5時頃、より私的な場所で彼らが話していることなのです。彼らは本当にこれらの問題を真剣に受け止めており、多くの人々は、単に人々を驚かせるためにこのようなことを言っていると考える人々を驚かせるような方法で、それに基づいて行動し始めています。
そうですね、ケビン、私たちは2025年に大きな年を迎えることになりそうですね。そしてそれは最後の年になるかもしれません。もし愛する人に別れを告げたいのであれば、今年のクリスマスを本当に大切にしてください。
これで今回のクリップは終わりです。ご覧いただいた内容が気に入りましたら、私たちのページに行ってチャンネル登録をお願いします。このようなテクノロジーと未来に関する番組を、ほぼ毎週配信しています。今すぐ登録してください。
コメント