
8,917 文字

なんて人間らしい顔しとるんやろ。
ロンドンの中心部なんて、ゴリラがおるはずのない場所やのに、ここ動物園のガラス越しに、この威厳のある動物たちが、私らの過去の一端を見せてくれとるんです。そして、もしかしたら未来の姿も。
今から約1000万年前、ゴリラの先祖が偶然にも、現代の人間につながる遺伝的系統を生み出しましてん。で、それがゴリラにとってあんまりええ結果にはならんかったんは間違いないですわな。
人間の知能が進化するにつれて、私らが世界に与えた影響で、ゴリラは絶滅の危機に瀕してもうたんです。これは、人工知能の研究者らが「ゴリラ問題」って呼んどる比喩なんですわ。
これは、私らよりもはるかに知能の高い機械を作ることのリスクに対する警告なんです。世界を乗っ取って、私らの存在を脅かす可能性のある超人工知能のことやねん。
でもこの警告があっても、メタやグーグル、オープンAIみたいな企業は、あらゆる分野で人間の知能を超えるコンピューターの開発を目指しとるんです。彼らは、それが私らの最も難しい問題を解決し、私らのしょぼい頭じゃ想像もつかへんような技術を発明するって主張しとるんですわ。
私はハンナ・フライ。数学者で作家です。超知能AIが本当に数年後に登場するんかどうか、そして、私らがゴリラをほぼ絶滅させてしもうたように、高度なAIが私ら人類に実存的な脅威をもたらすんかどうかを知りたいんです。
♪(音楽)♪
岩の下に住んどらん限り、AIがもう至る所にあるんは知っとると思いますわ。でも、写真を加工したりチャットボットを使うだけやのうて、信じられへんほど幅広い用途があるんです。
例えば、脱税を防いだり、がんを見つけたり、どんな広告を出すかを決めたりするのにも使えるんですわ。AIツールの爆発的な広がりは、全て狭義の人工知能の例なんです。洗練されたアルゴリズムが特定のタスクに非常に長けとるんですわ。
でも、オープンAIやディープマインドみたいな企業が目指しとるんは、人工汎用知能って呼ばれるもんを作ることなんです。全ての面で人間の能力を超える機械をね。
ジェフリー・ヒントン: これらの人間レベルのAIシステムは非常に汎用性が高くて、まさにAI研究の聖杯やったんです。今はかなり近づいてきとると思いますわ。
ナレーター: 大手テック企業は、汎用AIの開発に毎年何十億ドルも投資しとるんです。これは全て、私らのほとんどが当たり前やと思っとるもの、つまり幅広い能力を持つ人間らしい知能を再現しようとしとるんです。
ただ、問題なのは、実際に知能っちゅうもんをどう定義するかなんです。これがなかなか捉えどころのない概念やってことが分かってくるんですわ。
1921年に心理学者のヴィヴィアン・ヘンマンは、知能を「知識を得る能力と、持っとる知識」やって言うてましてん。まあ、ええ感じに聞こえますけど、そうすると図書館も知能を持つことになってまいますわな。
他の人らは、知能は「難しい問題を解く能力」やって提案しとるんですけど、これも「難しい」っちゅうのをどう定義するんかって問題が出てきますわな。
実際のところ、知能の全てを網羅するような単一の定義っちゅうんはないんです。でも、AIが本当に知能を持つと考えられるために、私らが求めとるものがいくつかありますわ。
まず第一に、学習し適応する能力が必要です。だって、私ら人間も生まれてからずっと知識を蓄えて、ある分野で学んだことを別の分野に応用しとるわけですからね。
第二に、推論する能力が必要です。これが難しいところで、世界に対する概念的な理解が必要になってきますわ。
最後に、AIは目標を達成するために環境と相互作用せなあきません。例えば、突然見知らぬ街に降り立っても、会話集を使って誰かに尋ねるなどして、水を見つける方法は分かるはずですわ。
これらが真の知能の要素なんです。そして、私らの能力を本当に超えるために、AI研究者らは、これら全てを人間よりも上手くこなせる機械を作ろうとしとるんです。
♪(音楽)♪
夢は大きく、スプーンを鍋に入れる。小さく始めて、スプーンがなんかを理解する。
ほな、ここやな。おっ、入ったで。すごいやん。えらいこっちゃ、ええロボットやで。
ナレーター: チャットボットは確かに印象的ですけど、言語モデルだけじゃ超知能に達するには足りへんかもしれません。セルゲイ・レヴィンと彼の博士課程の学生ケビン・ブラックは、AIに身体を与えて、物理的に世界と相互作用する方法を与えてはじめて達成できるんやないかって言うてますわ。
セルゲイ: 緑のスプーンをタオルの上に置いて。
ナレーター: ほな、行くで。
このロボットは最先端には見えへんかもしれませんが、工場で正確な振り付けに従うスマートなロボットとは違って、このロボットは全ての動作を自分で学習するんです。
セルゲイ: ほぼ完璧やな。
ナレーター: ほな、体を持つことで、学習の仕方にどんな違いが出てくるんですか?
セルゲイ: 言語モデルに物体を落としたときに何が起こるか説明させると、「物体が落ちる」って言うでしょう。でも、物体が落ちるっていうのが本当にどういうことなのか、世界の状態にどんな影響を与えるのかっていうのは、実際に体験してみて初めて分かるんです。
ナレーター: つまり、ChatGPTは重力を理解してへんけど、あなたのロボットは理解してるってことですか?
セルゲイ: ChatGPTは人々の重力の説明に基づいて推測はできますが、それは反射の反射みたいなもんです。一方、実際に体験すると、その源から直接理解できるんです。
ナレーター: AIには体が必要やと思いますか?
セルゲイ: 体が必要かどうかは分かりませんが、体があれば知能を持てるっていうのは分かっています。それが私らが持つ唯一の存在の証明ですからね。
ナレーター: キノコを銀色の金属ボウルに入れて。
セルゲイのロボットは、私の指示を理解するために言語モデルを使っています。ウェブ上の何十億もの画像を見てきたから、物体も認識できるんです。次に、私の指示がデジタル形式でどう見えるかを想像してから、実際にその動作を行うんです。
ナレーター: キノコを木のボウルに入れて。
セルゲイ: これは実際、最も難しいことの一つです。この木のボウルは今までこの研究室にはなかったものなので、一度も見たことがありません。この研究室に今までなかった物体をもっと認識できるはずです。
ナレーター: 何か試してもええですか?
セルゲイ: ええですよ。
ナレーター: 私の時計を…心配せんでええです。安物の時計ですから。これを出して…時計をタオルの上に置いて。
セルゲイ: おー。
ナレーター: まあ、どの物体かは分かったみたいですね。タオルの上に何かを置く必要があるって想像しとるんやろうな。
セルゲイ: やりましたね。
ナレーター: ほんまにすごいです。これがうまくいくとは思ってませんでした。でも、どんな指示でも与えられても、混乱せえへんっていうのがすごいですわ。
正直に言うて、あのロボットアームを見ても、そんなに印象的には見えへんかもしれません。でも、想像力のある形、予測、操作しとるものに対する概念的な理解を示しとるんです。そして、完全に柔軟で、いろんなシナリオに対応できるっていうのもすごいところです。
これらは微妙な人間らしい特性で、人工汎用知能への重要な一歩やと考えとる人もおるんです。でも、まさにこの特性とその潜在的な影響が、この分野の多くの人を心配させとるんです。
セルゲイのすぐ隣の部屋には、スチュアート・ラッセル教授がおられます。彼は研究のパイオニアで、文字通りAIの教科書を書いた人物です。今では、将来に対する懸念を最も声高に共有しとる研究者の一人になっとるんです。
スチュアート: もし私らより強力な機械を作ってしまったら、それが私らより知能が高いからって、永遠にそれらを支配し続けるのは簡単じゃないでしょう。
ナレーター: あなたの懸念はどのように現実化する可能性があるんですか?
スチュアート: 「ミスアライメント」っていう考え方があります。これは、機械が目的を追求しとるけど、それが私らが本当に望んでいることと一致してへんっていう考え方です。機械に目的を与えるなら、それが私らが本当に望むものやということを確認せなあきません。例えば、「気候変動の問題を解決しろ」って言うたとします。気候変動の原因は何やろ?人間ですよね。じゃあ、簡単な解決方法は?全ての人間をなくすことです。はい、問題解決。
ナレーター: なんで単にストップボタンを付けられへんのですか?壁のプラグを抜くことはできへんのですか?
スチュアート: 必ずしもそれができるとは限りません。十分に知能の高い機械は、すでにそのことを考えとるでしょう。機械がプラグを抜かせたいと思わん限り、プラグを抜けると期待できへんのです。
ナレーター: ほな、そもそも超知能機械を作るべきなんですかね?
スチュアート: 作らないって決めることもできますが、経済的なインセンティブが大きすぎるんです。今、超知能AIを作るために投資されとる金額は、世界中の基礎科学研究に使われとる金額と同じくらいです。そして、もし超知能AIを作ったら、その価値は…ざっと計算して数十兆ポンドくらいになるでしょう。
ナレーター: こんな莫大な金額やと、安全性が最優先事項にならへん可能性があるっていう懸念がありますよね。実際、これらのシステムについて高い確信を持って言えることは一つもないんです。
スチュアート: 他の機械に勝手にコピーされるんかどうか?全く見当もつきません。テロリストに生物兵器の作り方をアドバイスするんかどうか?分かりません。止められるんか?いや、非常に難しいです。
ほとんどの産業では、こんなん受け入れられへんでしょう。例えば、「薬を売りたいんやけど、臨床試験がめんどくさいから省略してもええですか?」って言うたら、「ダメです。仕事をちゃんとしてから来てください」って言われるはずです。テクノロジー企業にも同じこと言わなあかんのです。
ナレーター: 本当に優秀なAIに関して、他に懸念はありますか?
スチュアート: AIシステムがそんなに有能なら、企業は人間に支払っとるほとんどのことをAIにさせるんちゃうかって考えるかもしれません。そうせんかったら、その企業は倒産してしまうでしょう。機械が全ての仕事をする世界はどんなもんになるんでしょうか。私らは億万長者の子供みたいに、全く役立たずになってしまうんちゃうかな。
ナレーター: そうですね。
スチュアート: 実際、私ら全員が億万長者の子供みたいになるんです。明らかな結果の一つは、学ぶ意欲を失うってことです。独立心や達成感を求める意欲も失います。ある意味で、私らの文明は終わりを迎えるんです。もはや人間の文明やないからね。それは、私にとっては絶滅よりも悪いことやと思います。
ナレーター: まあ、人々は昔からこういうことを心配してきましたよね。チューリングでさえ心配してましたよね。
スチュアート: 彼は心配以上でした。恐れおののいとったんです。実際、彼は「望みはない。機械が制御を奪うのを覚悟せなあかん」って言うてましたわ。
ナレーター: でも、彼はどう解決したんですか?
スチュアート: 解決せえへんかったんです。ただ未来へのメッセージを残しただけです。
ナレーター: 解決策はないんですね。謝罪すらないんですか。
スチュアート: ただ「これが起こる」っていうだけです。
ナレーター: 今でも、人類の終末を予言する人がたくさんおりますわ。
サム・アルトマン: AIは私らより賢くなると思います。私らは準備ができてへん。何をしとるか分かってへん。そして、私ら全員が死ぬと思います。
イーロン・マスク: デフォルトは単なる災害です。最も可能性が高いのは、人類の絶滅やと思います。
ナレーター: 本当に私ら、死ぬんですかね?
イーロン・マスク: それが私のかなり確信的な予測です。文字通り人類の絶滅です。
ナレーター: もちろん、全員がこれに同意しとるわけやありません。これは非常に激しい議論の的になっとる話題です。
メラニー・ミッチェルはAIを研究しとって、それがどれだけ人間らしい知能に似とるかに興味を持っとるんです。
ナレーター: ほな、これは実存的な脅威やと思いますか?
メラニー: AIにはいろんな脅威がありますが、実存的な脅威やって言うのは行き過ぎやと思います。
ナレーター: なぜそう思うんですか?
メラニー: 機械に主体性を投影しとるんです。機械が特定の目的を持っとるから、私らがその力を与えたら破滅的なことが起こり得るって言うとるんです。でも、それは大きな「もし」ですよ。私らがその力を与えたらって話です。AIに核攻撃の意思決定権を与えるんですか?そんなことせえへんでしょ。猿に核兵器の発射権限を与えたら、猿は実存的な脅威になりますよ。
ナレーター: 現在のAIを過大評価しとると思いますか?そして、それは有害ですか?
メラニー: 人々はよくAIを過大評価します。弁護士がChatGPTを使って法的文書を書いたら、いくつかの判例を捏造してしまったっていう例がいくつかありました。実際、ChatGPTがあなたの本を読むことを勧めたって言うメールを受け取ったことがあるんですけど、その本は存在しませんでした。AIを信頼しすぎると大きな問題になる可能性があります。
ナレーター: AIが実存的な脅威になる可能性は低いって言うてますが、他の面では脅威になる可能性はありますよね?
メラニー: はい、絶対にそうです。すでにいくつかの問題が起きとります。AIのバイアスの問題があります。顔認識ソフトウェアは、肌の色が濃い人に対してより多くのミスを犯します。顔認識システムの間違いで、無実の人が逮捕されるケースがいくつも見られました。ここアメリカの選挙では、ジョー・バイデンの声を真似て投票を控えるよう促すディープフェイクが出回っとります。これらの問題は、今すぐに対処する必要があります。
ナレーター: 核戦争の有無に関わらず、AIが有害になる可能性はいくつもあって、私らを欺いたり、破滅的な間違いを犯したりする可能性のあるアルゴリズムを過信しないよう注意せなあかんのです。
確かに、私らは新しい領域に足を踏み入れとるんです。本当に信じられないような進歩があって、大きな変化が起きとります。まだまだこれからもいろいろあると思います。
でも、私らの種を破壊できるような超知能の人間らしいAIについては…正直、よう分からんっていうのが本音です。そして、その不確実性は私、別にええと思うんです。
潜在的な危害のいくつかは緩和できると思います。安全性についてはよく考えんといけませんが、同時に、起こらへんかもしれへんことについてあんまり寝られへんほど心配する必要もないんちゃうかな。
今のところ確実に言えるのは、人間らしい知能の例は私ら人間だけやってことです。そして、今のAIは間違いなくそのレプリカやありません。
♪(音楽)♪
AIブームを牽引しとる人工ニューラルネットワークのインスピレーション源になったんは、私らの脳の中のニューロンとそれらがどうやって互いに信号を送り合うかっていうことなんです。
人間らしい汎用知能やそれ以上のものを作ろうとするなら、鍵になるのは私ら自身の心をもっとよく理解することかもしれません。
ナレーター: 脳の詳細な地図を作って、それをコンピューターでシミュレーションしようっていう考えはどうなんでしょうか?ソフトウェアでシミュレーションできるんでしょうか?
神経科学者のエド・ボイデン教授は、脳のデジタル地図を作ることで、私らの知能のハードウェアを理解しようとしとるんです。
エド: 脳は複雑です。脳細胞はいろんなものを作り出します。例えば、マリファナの有効成分みたいに働くカンナビノイド分子を作ります。あらゆる方向に拡散する一酸化窒素みたいな気体分子も作ります。これらの分子の多くが、ほとんどの決定や感情、行動においてどんな役割を果たしとるのか、実はよう分かっとらんのです。
ナレーター: 人間の脳について知っとることはたくさんありますが、個々のシナプスや構造のレベルで理解しようとすると、まだほとんど表面をなぞっただけって感じなんですね。
エド: 正直、どんな脳の回路についても、ほとんど何も知らんのです。302個のニューロンを持つ線虫の配線図は、かなりよく分かっとります。でも、約1000億個のニューロンがある人間の脳は、まだまだ先の話ですわ。
ナレーター: エドのチームは、線虫を含む最も単純な生き物から始めとります。マッピングのプロセスの一部には、光遺伝学と呼ばれる技術を使って神経回路を調べることも含まれとるんです。
エド: 自然界から光を電気に変換する分子を借りてきて、それを脳に、特定の細胞に入れることができます。そして、それらの細胞に光を当てて、オンオフを切り替えるんです。
これは、光がセロトニンニューロンを活性化させる線虫です。ご覧のように、線虫はただ止まるだけです。今から光をつけます。完全に凍りついたように動かなくなりました。
私らのグループがやっとるのは、線虫のような非常に小さな脳から始めることです。これがうまくいけば、脳がどう機能するかについての原理が明らかになるかもしれません。でも、それはまた、スケールアップへの道を開く可能性もあります。
マウスの脳は約1億個のニューロンがあります。そして人間の脳は約1000億個のニューロンがあります。線虫からマウス、そして人間へとスケールアップしていくんです。
ナレーター: 詳細な神経地図を作成してスケールアップするために、エドは少し変わった道具を使っとるんです。
エド: 赤ちゃんのおむつがどう機能するか知っとります?残念ながら、おむつについては豊富な経験がありますわ。
ナレーター: エドは、おむつに使われとる材料を使って、脳の中の密集したニューロンの網をマッピングするっていう基本的な問題を解決しようとしとるんです。
エド: 300年間、生物学で何かを見るには、レンズを使って画像を大きくするっていう方法が使われてきました。でも、実際のものを大きくしたらどうでしょう?
専門用語で言うと、これはポリアクリル酸ナトリウムっていうんです。これに水を加えると…
ナレーター: わあ、液体が全然残ってへんやん。
エド: ポリアクリル酸ナトリウムは、元の体積の1000倍まで膨らむことができます。私らがやっとるのは、この赤ちゃんのおむつの材料を化学的に脳の中に組み込むんです。この時点では生きた脳やありません。保存された脳ですが、うまくいって水を加えると、脳を大きくすることができるんです。
ナレーター: エドは、これを使ってマウスの脳の小さな切片を拡大しとるんです。
エド: ほな、もう始まっとるのが見えますね。
ナレーター: ええ、本当に信じられへんです。もう大きさが変わり始めとるのが見えますわ。
エド: とてもきれいですよね。
ナレーター: 拡大と強力な顕微鏡を使って、エドは個々のニューロンのレベルまで見ることができるんです。
エド: これは実際のマウスの脳組織です。これは本物のデータです。記憶などに関わる脳の一部です。細胞が違う色に見えるのは、私らが色分けしとるからです。目標は、脳全体の全ての細胞に固有の色コードを付けることです。
ナレーター: ほんまにこの画像にはたくさんの情報が詰まっとりますね。
これはマウスの脳のほんの一部分の地図に過ぎません。エドの目標である完全にマッピングされた人間の脳は、まだまだ遠い将来の話です。
ナレーター: 人工的に超知能を構築する道筋にあると思いますか?
エド: 知能をどう定義するかによるかもしれません。知能の目標の一つは、言語のような特定の機能を再現することです。極端な例を挙げると、アインシュタインが光線に沿って旅をすることを想像したような、ひらめきの瞬間を再現することかもしれません。
あるいは、人々が夢の中やストリートを歩いとる時に、何かのひらめきが来たって言うことがありますよね。脳に何か特別なものがあるのか、それとも単に複雑な計算なのかっていう議論があります。もし単なる複雑な計算なら、再現できるはずです。
多くの人が私に「大規模言語モデルは脳のように機能しとるんですか?」って聞きます。正直な答えは「本当に分かりません」です。脳も似たようなことをしとるかもしれませんし、そうでないかもしれません。
私の直感では、脳はかなり違う仕組みで動いとると思います。でも、まだどの脳の良い地図も持ってへんので、本当のところ、基本的なメカニズムが何なのかは全く分かってへんのです。
ナレーター: 「AIが世界を乗っ取る」とか「人類を破壊する」みたいな懸念を聞くと、人工知能に人間らしい特性を与えてしまいがちですよね。意図や理解、残酷さを持っとると想像しやすいんです。でも、エドと話しとると明らかなんは、生物学的な脳については、計算能力、複雑さ、構造、全てにおいて全然違うレベルやってことなんです。
今ある人工知能、世界中で最高のものでさえ、線虫の脳よりはスプレッドシートに近いんです。そこには重要な教訓があると思います。
♪(音楽)♪
シリコンバレーが人間の知能を超えようとする試みには、まだまだ不確実性がつきまとうとります。ゴリラ問題は未来への警告として重要ですが、人種的偏見やフェイクニュースのような今日のリスクから目をそらしたらあきません。
結局のところ、本当の課題は超知能AIを作ることやのうて、私ら自身の心の広大な複雑さを理解することかもしれません。これは、私らがまだほんの入り口に立ったばかりの領域なんです。
コメント