1万人のアインシュタイン: AIと理論物理学の未来 マシュー・シュワルツ氏講演

YouTube
作成した動画を友だち、家族、世界中の人たちと共有

こんにちは、またはこんばんは。時間がよくわかりませんが、アスペン物理学センターへようこそ。今日の公開講演を始める前に、センターについて少しお話しします。エミーが言ったように、毎年約1000人の物理学者をアスペンに招いています。夏に500人、冬に500人です。ここで彼らは協力し、アイデアを交換し、基礎物理学の分野で発見を行います。科学への影響力が大きいため、アメリカ物理学会は2012年にこのセンターを歴史的に重要な場所の1つに指定しました。
エミーが言ったように、センターは少数の献身的なフルタイムスタッフと、私のような物理学者がボランティアで運営しています。私たちのミッションは基礎科学研究ですが、一般の方々と科学への情熱を共有することにも力を入れています。このハインベーゲル記念公開講演シリーズは、アスペンコミュニティとつながり、皆様に感謝を伝える方法の1つです。
私たちはアスペン市の学術ゾーンに位置しており、向こうにはアスペン研究所とアスペン音楽祭があります。これら3つの文化施設の存在が、アスペン市を他のリゾート地と区別しています。実は、私たちは住宅コストの上昇による存続の危機に直面しています。これら3つの文化施設は協力してこの問題に取り組んでいます。講堂の外にポスターがありますので、帰り際にご覧ください。
さて、物理学に話を戻しましょう。今日は、人工知能が科学的発見をどのように変革しているかを探ります。このような機会に、私はよく講演者に経歴を尋ねて紹介の参考にしますが、今日の講演者は適切にもChatGPTが作成した経歴を送ってくれました。それを読んでみましょう。
理論物理学の分野に多大な影響を与えた著名な方をお迎えできることを光栄に思います。マシュー・D・シュワルツ教授は、ハーバード大学の著名な物理学者で教授であり、量子場理論と素粒子物理学の研究において先導的な存在です。標準模型の理解への貢献や、ヒッグス物理学における革新的な研究により、科学界で広く認められています。
革新的な研究に加えて、シュワルツ教授は優れた教育者としても知られており、複雑な概念をわかりやすく魅力的に説明する能力に長けています。「量子場理論と標準模型」を含む彼の教科書は、世界中の学生や教授によって使用されています。
シュワルツ教授を温かく歓迎してください。
ありがとうございます、トッシーさん。素晴らしい紹介をしていただきました。ここに来られてとてもうれしいです。このテーマに熱心な方々がたくさんいらっしゃるのを見て、素晴らしいと思います。始める前に、先週のジョン・バターワースの講演に来られた方はどれくらいいらっしゃいますか? 素晴らしいですね、およそ半分の方々ですね。これは参考になります。同じような内容に触れますが、それほど似たものにはならないでしょう。ただ、素粒子物理学についてどれくらいの方が知識をお持ちか知りたかったのです。
では、講演の概要を簡単に説明します。大きく2つの部分に分かれています。最初の部分は、素粒子物理学における機械学習の現在の応用についてです。機械学習の2つの使用例についてのみ話します。これが講演の唯一の技術的な部分で、最初の15分間です。その後、2つ目の部分に移ります。これは未来についてのもので、少し抽象的で、おそらくもう少し楽しい内容になるでしょう。最初の15分間は我慢して眠らないようにしてください。そして、どこに話が向かうか見ていきましょう。
また、このアニメーションについて多くの質問を受けましたので、説明しておきます。これはRunway AIというプログラムで生成しました。アスペン物理学センターでの物理学をするアインシュタインを表現しようとしたのですが、アインシュタインをアニメーション化することはできませんでした。ディープフェイクなどの問題があるからです。例えば、テイラー・スウィフトがドナルド・トランプを支持しているように見せかけるといったことです。そのため、誰にも似ていない何かを使わざるを得ませんでした。そして、実際の人物のような名前を付けることもできませんでした。結局、クマを使うことにしました。私はこれがかなり良いと思います。これは比較的新しい技術です。
現在の応用について話す前に、素粒子物理学で何が起こっているかを簡単に説明しましょう。ちなみに、AI生成の画像をいくつか交えて説明します。その中には、時間の経過とともに洗練されてきたものもあり、非常に印象的だと思います。
では、素粒子物理学で何が起こっているかを急ぎ足で紹介します。私たちは宇宙について何を知っているでしょうか?粒子について何を知っているでしょうか?宇宙には、すべてのものが分子と原子でできています。原子自体は電子と原子核でできています。原子核は陽子と中性子でできています。陽子と中性子はクォークとグルーオンでできています。それ以上のものはありません。
つまり、私たちが知っている宇宙のすべてのものは、電子、アップクォークとダウンクォーク(陽子と中性子を構成する2種類のクォーク)、それらを結びつけるグルーオンでできています。また、光の粒子である光子もあります。これは基本的に電子を原子核の近くに保つものです。そして、重力子があります。これは重力に関連する粒子で、皆さんを椅子に座らせ続けているものです。これだけで、私たちが日常生活で経験するすべてのものを説明できます。
しかし、これがすべてではありません。過去100年間で、私たちはさらに多くの粒子を発見しました。しかし、それほど多くはありません。ミューオンとタウオンがあります。これらは電子に似ていますが、少し重いです。さらに4種類のクォークがあります。チャームクォーク、ストレンジクォーク、ボトムクォーク、トップクォークです。そして、ニュートリノと呼ばれる小さな粒子があります。これらはほとんど質量がなく、非常に弱い相互作用しかしません。見つけるのが非常に難しいのです。太陽系の大きさの鉛の塊を通り抜けても、無傷で反対側に出てくるほどです。
Wボソンとzボソンがあります。これらは放射性崩壊を引き起こすものです。そして最後に、ヒッグスボソンがあります。これは2012年に発見されたばかりです。以上です。これらが宇宙で知られているすべての粒子です。
これらをまとめて標準模型と呼びます。標準模型は、これらの粒子がどのように関連しているかを説明し、それらの相互作用の方法も記述します。質量や大きさ、相互作用の強さを決定するさまざまな定数も含まれています。しかし、全部で17個の粒子と27個のパラメータしかありません。これで宇宙の粒子の内容について私たちが知っているすべてを完全に記述できるのです。
これからあれへどのように進むかを理解したい場合は、いくつかの計算をする必要があります。この本でもっと詳しく見つけることができます。これが基本的に素粒子物理学の現状であり、過去100年間で学んできたことです。
ちなみに、すべてがまとまったこの最終形態、現在知られている標準模型は、1967年にようやく完成しました。最後の部分は、最近亡くなったスティーブ・ワインバーグによって導入されました。彼がヒッグスボソンを導入したのです。ヒッグスボソン自体は約10年前に発見されたばかりです。つまり、これらの部分をすべて発見し、本当にすべてを確認するのに60年かかったのです。おそらく50年くらいでしょうか。
それ以来、私たちは次に何があるかを探そうとしています。これがすべてだとは思っていません。これは私たちが知っているすべてです。いくつかの未解決の問題があります。もっと粒子があるのでしょうか? これは明らかな疑問です。例えば、クォークは何かで構成されているのでしょうか? わかりません。標準模型にはもっと深い構造があるのでしょうか? これらのさまざまな粒子とその相互作用の方法を統一する何らかの原理があるのでしょうか? 本当にはわかりません。それについてのアイデアはあります。おそらく最も有名な例は弦理論で、これはなぜこれほど多くの粒子があるのかを説明しようとしています。
これから出てくるものがあります。超対称性のようなものかもしれません。あるいは、私たちがまだ思いつかない何か別のものかもしれません。他の疑問もあります。宇宙はどのように始まったのでしょうか? 物質はどこから来たのでしょうか? ダークマターと呼ばれるものがあります。これについてはまだ触れていませんが、私たちはまだ知りたいと思っています。
これが私たちが今持っているすべてです。しかし、これが終わりだとは信じていません。私たちはまだ実験を続けています。大型ハドロン衝突型加速器のような実験です。これは先週のバターワースの講演のテーマでした。多くの方々がそこから何かを学んだことを願っています。彼らが行っていることは、粒子同士を衝突させ、例えばクォークの内部構造を探そうとしています。
これが、この講演の残りの部分の枠組みです。これらの質問にどのように答えるか、クォークが何かで構成されているかどうかをどのように見つけ出すか、弦理論が正しいかどうかをどのように検証するかなどについて説明します。そして、機械学習がこれらの問題にどのように役立つかについて説明します。
これで第1部の「現在」に入ります。現在、何が起こっているのでしょうか。ツールとしての機械学習の例を1つお見せしましょう。理論が予測する新しい粒子を探す方法です。
理論はKKグルーオンと呼ばれる粒子を予測しています。これは1930年頃のクラインとカルザの理論に由来するものですが、実際には弦理論で重要な役割を果たしています。ここに、私が作り上げたこの粒子のシンボルがあります。存在しないので作り上げたのです。
しかし、予測を立てることはできます。理論によると、これは既知の最も重い粒子であるトップクォークの質量の2倍です。トップクォークは陽子の約200倍の質量があります。しかし、このKKグルーオンはトップクォークの5倍、あるいは10倍重い可能性があります。
KKグルーオンを見つけるには、まずトップクォークを見つける必要があります。トップクォークはどうなるのでしょうか? それも崩壊します。非常に不安定で、寿命は10のマイナス25秒程度です。3つのクォークに崩壊します。
これらのクォークも不安定とは言えませんが、自然界では実際にクォークを見ることはありません。移動する際に放射を始めます。非常にエネルギーが高いので、他の種類の粒子を振り撒きます。最終的に検出器に現れるのは、ジェットと呼ばれるものです。
犬が回転して水を撒き散らすように、これらのクォークは回転したり、空間を移動したりして粒子を撒き散らします。そのため、検出器に現れるのはこのようなものです。これは大型ハドロン衝突型加速器のCMS実験からの検出器ディスプレイです。6つの別々のジェットの証拠が見えます。これはこの種のプロセスの証拠です。
これは2つのトップクォークが崩壊したイベントの候補です。これが大体どのように見えるかです。ビームがここから入ってきて衝突が起こり、彼らが行うのは検出器のさまざまな部分に入るエネルギーを測定し、それを組み合わせて、このようなものに見えるかどうかを探します。そこから、この新しい粒子があったかもしれないと判断できるのです。これが実験的な粒子物理学の背後にあるアイデアです。
しかし、問題があります。これらのトップクォークをKKグルーオンから見つけるのは簡単ではありません。問題は、これらのKKグルーオンが非常に重いに違いないということです。私たちがそれを知っている理由は、軽いものを探したけれど見つからなかったからです。もし存在するとしたら、トップクォークの10倍以上重くなければなりません。
問題は、エネルギーが非常に高いとき、つまり非常に質量が大きいとき、崩壊するときにエネルギーが保存されるため、そのエネルギーはどこかに行かなければなりません。そのエネルギーの一部はトップクォークの質量になります。トップクォークは陽子の200倍の質量があると言いましたよね。アインシュタインの関係式E=mc²から、この場合、1 TeVのうち約400 GeV、つまり質量の約40%になり、残りは運動エネルギーになります。
これらは非常に速く移動します。ショットガンから発射された弾のように飛んでいきます。そして、それが飛んでいくときに崩壊すると、崩壊して生じる粒子はすべて同じ方向に飛んでいきます。ショットガンの弾のようにです。そうすると、前のプロットではきれいに分かれていた3つのジェットが、今度はすべて一緒になってしまいます。
これが問題です。もはや3つであったことが分からなくなります。なぜなら、これは何も面白くないものの特徴である、ダイジェットイベントと呼ばれるものとよく似ているからです。大型ハドロン衝突型加速器では、1秒間に数十億回このようなイベントが起こります。
大まかに言えば、1年に5回程度これを見るかもしれませんが、非常にエネルギーの高いものを要求すると、1年に10,000回程度見ることになるでしょう。課題は、これら2つをどのように区別するかです。それはもはや簡単ではありません。
まず、機械学習が登場する15年前に、私たちがこの問題をどのように考えていたかをお話しします。そして、機械学習がこれを全く異なるゲームにしていることをお話しします。
この問題を視覚化する別の方法は、このような信号を探すことです。これはヒストグラムで、あるエネルギーの測定値の関数として、どれだけのイベントがあるかを示しています。これは対数スケールになっています。背景イベントは信号イベントの10,000倍以上あります。これらは実際に積み重ねられているので、何かが見えれば小さなこぶが上に見えるはずです。
測定されるのはこれらの合計で、信号の特徴は示しません。緑の背景を取り除いて黄色を見えるようにしたいのです。それがゲームです。どうやってこれを行うのでしょうか。
約15年前に私たちが理解したのは、よく考えてみると、トップクォークはダイジェットと呼ばれるものとは異なるということです。それを行う1つの方法は、トップクォークが何をするかを知ることです。それが3つの粒子、3つのクォーク、そしてジェットに崩壊することを私たちは知っています。大きなジェットの中にこれらの小さなジェットを探すことができます。
例えば、そのような方法を見つけ出しました。基礎となる物理学をすべて慎重に考慮した後、私たちはこの背景を20,000分の1に減らすことができました。それは素晴らしいことでした。これが実際に、2枚前のスライドのこのイベントにつながりました。これはトップクォークを見つけるためのアルゴリズムの1つを使用した証拠です。
私たちが開発したこれらの方法の1つを使用しています。それは素晴らしいことでした。これは2008年に大型ハドロン衝突型加速器で何ができるかを本当に変えました。これは定量的な尺度で、私たちはこれを有意性改善と呼んでいます。これは信号と背景の効率から構築された何かです。詳細は重要ではありません。このプロットの点が高いほど良いということだけ知っていれば十分です。2.6は、ある一定の運転時間で2標準偏差、つまり2シグマで発見できることを意味します。これは一種の発見レベルの有意性です。
人々はこれに非常に熱心に取り組み、約6年後には30%改善することができました。これは大きな進歩です。なぜなら、同じ発見を行うのに必要なデータ量が約50%少なくて済むからです。2014年当時、これは大きな進歩でした。
さて、機械学習を使ってこの問題をどのように解決するのでしょうか。物理学者はプログラミングが得意ではありません。そこで私たちは、他の人々が他の応用のために行った困難な作業を利用します。エンジニアや、プロとしてプログラムを書くために給料を払われている人々です。そして、彼らのアプリケーションを私たちの問題に使う方法を見つけ出すのです。
基本的に、他の機械学習コードを私たちの問題に押し込めるのです。例えば、誰かが花瓶をデザインしたとします。私たちは「実は猫の家が欲しかったんです。だから花瓶を猫の家として使いましょう」と言うでしょう。全く不適切な使用法ですが、創造的であれば、それでも機能するのです。ありがとうございます。
私たちは自分たち独自の機械学習コードを開発したくありません。すでに使用されているものを適応させたいのです。これは実際にとても成功しています。私たちがしたかったのは、顔認識に使用されるような機械学習を使えるかどうか問うことです。顔認識は巨大な応用分野で、多くの時間とお金がソフトウェアに投資されています。これを使って、このような粒子衝突の画像のようなものを認識できるでしょうか。
それはどのように機能するのでしょうか。顔認識の仕組みを簡単に紹介します。最も一般的な技術は畳み込みニューラルネットワークと呼ばれるものです。畳み込みとは、これらの小さなフィルターを画像に適用することを意味します。つまり、それらを動かしたり、シフトさせたりします。
彼らが行うのは、ニューラルネットワークを訓練して、異なる特徴を認識させることです。まず、紫色のものを訓練して、多くの異なる画像に共通するものを探させるかもしれません。それは目を見つけるかもしれません。そして、オレンジ色のものを訓練して、別のものを探させます。それは鼻筋を見つけるかもしれません。そのようにして、これらのさまざまな特徴を見つけるツールを開発し、それらを異なる信号強度で組み合わせます。
これは顔を識別するのに非常に役立ちます。実際、同じ技術が手書き文字認識にも役立ちます。これは巨大な応用分野で、文字を認識します。これはコンピュータサイエンスの古典的な問題である手書き文字の識別に対する以前のアプローチを完全に凌駕しました。猫や犬の写真、インターネット上の画像にラベルを付けるなど、さまざまなものを識別できます。
しかし、問題は、私たちが念頭に置いている応用、つまりKKグルーオンから崩壊するトップクォークとダイジェットは、人々の異なる顔よりもはるかに似ているように見えることです。少なくとも私たちにはそう見えます。粒子データが、このネットワークを使って見つけられるような同じ種類の特徴を持っているかどうかは明確ではありません。適応可能なツールには見えません。異なる画像に何か自己相似性があるのでしょうか。
しかし、それは機能するでしょうか。励みになるのは、これらの機械が、できないと思われるようなことを見つけるのが非常に得意だということです。いくつか例を挙げましょう。ラブラドゥードルとフライドチキン、Fとアイスクリーム、CHPの犬とモップ、ワワとブルーベリーマフィンなどです。畳み込みネットワークは実際に、あるべき以上に強力です。
私たちは素粒子物理学でそれを試してみたいと思いました。どのようにそれを行ったのでしょうか。アイデアは、ジェット画像と呼ばれるものです。検出器のエネルギー沈着を取り、これらすべての小さな光、これらの大きさは検出器の特定の点に入るエネルギーの量を表しています。検出器があり、それを展開して、ある領域にどれだけのエネルギーが入ってくるかを見ます。
そして、そのエネルギーを画像のピクセルの強度として再解釈します。例えば、青は電子のエネルギー、緑は光子のエネルギー、赤は陽子のエネルギーというようにカラー画像を構築し、それらを何らかのカラー画像に組み合わせることができます。
そして、それを試してみるだけです。トップクォークの画像をたくさん用意し、ダイジェットの画像もたくさん用意して、それらを区別できるかどうかを見ます。うまくいくでしょうか。
これが前に示したプロットです。そして、結果をお見せしましょう。これはさまざまなアプリケーションの結果です。紫色と点線の赤い線はこれらの畳み込みニューラルネットワークです。すでにここで8倍の改善が見られます。先ほど、30%の改善が大きな進歩だったと言いましたが、このツールを使用すると、実際に2021年時点での最先端の技術であるこれらのポイントクラウドは、自動運転車用に開発されたものです。これは11倍の改善をもたらします。これは430%の改善であり、本当に驚くべきことです。
なぜなら、6年間で30%の改善のために本当に懸命に働いたのに、今や自動運転車用に開発されたこの単純なツールを私たちのデータに押し込め、ただ押して実行するだけで、はるかに良い結果が得られるからです。これは本当にコライダー物理学と呼ばれるこの分野を革命的に変えました。もはや誰も古い方法では行いません。誰も自分が何をしているのか考えません。誰も物理学について考えません。ただ、これらの異なるツールを試し、大量の計算能力を投入すると、はるかに良い結果が得られるのです。
欠点はあります。何が起こっているのかを説明しませんが、KKグルーオンを見つけてから、そのような質問をすることができます。
これが機械学習の1つの例です。もう1つの例について話したいと思いますが、その前に、これらのものがなぜそれほど強力なのかについて理由を説明したいと思います。
これらのツールは画像の研究のために開発されましたが、実際に素粒子物理学で持っているデータは非常に精密で、大量にあり、非常によく理解されています。そのため、教師あり機械学習と呼ばれるものを使用するのに完璧な環境なのです。
非常に正確なシミュレーションがあり、それを変更することができます。KKグルーオンをシミュレーションし、標準模型をシミュレーションし、これらすべてのものをシミュレーションすることができます。物理学で私たちができることは、24桁の範囲でシミュレーションすることです。これは本当に驚くべきことです。
例えば、10,000メートルつまり約20キロメートルのスケール、つまり大型ハドロン衝突型加速器の大きさから、物理学を理解しています。これは大型ハドロン衝突型加速器です。ジュネーブはここのどこかにあります。ジュネーブ湖です。加速器物理学を理解しています。ここで何が起こっているかを説明できます。
しかし、これらの各点には検出器があります。これはアトラス検出器で、100メートルの長さがあります。この建物よりもはるかに大きいです。規模の感覚のために人物が描かれています。これらの実験がどのように機能するかを示しています。これは別の検出器、CMS検出器です。これも100メートルのスケールです。
その内部には、私たちがジェット画像に使用するエネルギーを測定するカロリメーターがあります。これはメートルから10メートルのスケールでエネルギーを測定します。その内部にはトラッカーと呼ばれるものがあり、荷電粒子の軌跡を測定します。これはミクロンのスケールまで測定できます。
それ以下になると量子物理学の領域に入ります。原子のあるオングストロームレベルです。外側には放射があります。これはB粒子やさまざまなものがある場所です。その下には核子内物理学があります。フェムトメートルのスケールです。さらにその下、トップクォークやKKグルーオンの質量のスケールまで、量子場理論と弦理論が何が起こるかを予測します。
これらすべてを組み合わせると、本当に驚くべきことに、少なくとも24桁の範囲のシミュレーションを実行でき、それらはすべて非常に正確です。これが、機械学習が素粒子物理学に最適な理由です。
しかし、これはすべての素粒子物理学者が行っていることではありません。これは実験物理学であり、先ほど説明した理由から重要な応用分野です。しかし、理論家が行っていることについて考えてみてください。実際、私はほとんどの時間、衝突型加速器の物理学は行っていません。理論物理学を行っています。
それはどういう意味でしょうか。私たちは物事を計算したり、異なるシンボル間の関係を見つけたりします。本当に、宇宙の起源は何か、他にどのような粒子があり得るのか、そしてなぜそうなのかといった深い問いについて懸命に考えています。
しかし、実際に私たちが行っているのは、解くことができるおもちゃのモデルを見つけたり、ある理論の振る舞いをある極限で抽出したりすることです。理論物理学の論文を見ると、データを研究しているわけではなく、ただ方程式を操作しているだけです。
本当の問題は、機械学習がそれを行うことができるかどうかです。私はそれが高エネルギー物理学における人工知能の未来の鍵だと考えています。そこに向かっています。そしてそれがどのように機能するかについていくつかの例をお話しします。
より大きな問題は、これを動機づけるものです。何が問題を面白くするのでしょうか。素粒子物理学で取り組むべき問題をどのように決定するのでしょうか。明らかに、宇宙の起源を研究したいと思えば、それは素晴らしく聞こえます。あるいは新しい粒子があるかどうかも。しかし、実際に何かをしなければなりません。それらの問題に正面から取り組むことはできません。方法を見つける必要があります。
私たちが本当にしたいのは、自然とつながることです。しかし、より可能性が高いのは、答えることができる問題を解決し、何かに向けて少し進歩できる問題を見つけることです。時には何をすべきかさえわかりません。そこで、私たちが尊敬する輝かしい頭脳の持ち主を見つけ、彼らの論文を見て、「彼は良いアイデアを持っていた。彼がなぜそれを行ったのかよく理解できなくても、それに基づいて進めよう」と言います。
そして誰かが「物理学はわからないけど、マシュー・シュワルツには良いアイデアがあるようだ。彼の論文は星野の論文に基づいているから、それに従おう」と言うかもしれません。このように進む物理学が多くあります。
つまり、私が言いたいのは、私たちにはこれに対する良い答えがないということです。ほとんどの物理学者に尋ねれば、なぜ彼らが取り組んでいる問題に取り組んでいるのかについて長い話をするでしょう。これは難しい問題です。そして、私は機械学習がこれを再方向付けするのに役立つと考えています。まだそこまでは至っていませんが、講演の終わりの方でこれに戻ります。
次に話したいのは2つ目の応用で、これはより象徴的なものに機械学習がどのように役立つかについてです。それはどういう意味でしょうか。
理論物理学における進歩はどこから来るのかという質問をすることができます。その多くは単純化に関係しています。古典的な例はニュートンの重力の法則です。ニュートンが頭にリンゴが当たったとき、あるいはリンゴの木の下に座っていたときに理解したことは、リンゴを地面に落とした力と、地球を太陽の周りの軌道に保つ力が同じだということでした。
彼は、2つの物体間の距離の2乗に反比例する力という同じ法則で、これら2つの非常に異なる複雑な物理現象を記述できることに気づきました。彼がしたのは、これら2つのものを統一することで、非常に異なる2つの複雑な物理現象を記述する単純な法則を得たことです。
物理学では同じことをしたいと考えています。多くの人々がこのような問題に取り組んでいます。物事をどのように単純化するか、このデータがあればニュートンの法則をどのように導き出せるかといったことです。
私は、精神的に似ているがもう少し扱いやすい問題について話そうと思います。それは量子場理論でよく遭遇する問題です。私が行っているような種類のものです。本を読めば、このような例がたくさん出てきます。
KKグルーオンの生成について話しましたが、詳細な数値計算を行うことができます。これらのファインマン図と呼ばれるものを計算し、何か厄介で乱雑な答えを得ます。しかし、それは単純化され、勤勉な大学院生の多くの努力の末、1つの項に縮小されます。
そこで、「この項を前もって知ることができたのではないか」と問うことができます。これらの図を計算する手間を省き、中間のステップを経ずに答えを推測する技術があったのではないかと。ニュートンが「惑星は円や円周上の円ではなく、他の法則で記述されるのではないか」と言ったのと同じように、物事をより単純にする方法があるのではないかと。
この場合、答えはイエスです。BTFWの再帰と呼ばれる別の技術があり、ファインマン図を書き下すという中間のステップを経ずに直接これに到達することができます。単純な答えを持つことは本当に役立ちます。
私たちが見たかったのは、機械学習が同様のことを行えるかどうかです。機械学習のアイデアは、この問題をどのように解決するかです。機械学習では、ある意味で逆向きに進みます。
単純な形から始めて、これはこれに等しいというような同一性を使ってそれをかき回します。この2つの4という項を、何であれそれに置き換えて、複雑な表現を得ます。それを続けると、乱雑なものになります。そして、この入力を取り、それを出力するように機械学習を訓練します。つまり、単純化を行うのです。
自分で訓練データを生成します。24桁のシミュレーションを持つ代わりに、このような例を10万個持ちます。そして、他の物理学の分野から流用したツールを見つけて、それを解きほぐすのです。
そして、試してみると、うまくいきます。ここでは、15項までの表現をかき混ぜることができるのがわかります。さらに、コントラスト学習と呼ばれるコンピュータビジョンからのアイデアを補完すると、さらに良くなります。任意に長い項を変換することができます。
ここに応用例があります。98項もある項があります。これは重力子スカラー散乱です。これを入力すると、かなり単純な2つの形の答えが得られます。この場合、BCFWの再帰のような答えを説明するものはありません。そのため、これらの単純な形を得たので、この中間ステップを経ずにこれを行う理由を見出せるかどうかが未解決の問題です。
これは、機械学習が助けてくれることを期待しているような種類のものです。そして最終的には、機械学習が全ステップをスキップして、ただ答えを書き下すことを期待しています。それがアイデアです。
これが現在の最先端の技術です。この論文は数週間前に出たばかりです。これが理論的な物理学に応用された機械学習の現状です。
以上で技術的な部分は終わりです。ここからはリラックスしてください。残りの講演では物理学の話はあまりありませんが、機械学習が科学の進め方を、そして実際に私たちの知的生活のあらゆる側面を再方向付けする方法についてのビジョンについて話します。
これが未来です。まず、現在の状況についてお話しましょう。教授として機械学習をどのように使用しているかを見てみましょう。機械学習が現在できることは何でしょうか。実際、驚くべきことに、機械学習は学部レベルの物理学のほぼすべて、学部レベルのあらゆることを行うことができます。しかし、私は物理学を知っているので、試してみましょう。
機械力学の本から問題を取り、「はい、ここに問題があります。同じ質量の2つのブロックが紐でつながれています。1つのブロックはテーブルの上に置かれ、もう1つは端から吊るされています。質量の加速度を求めなさい」と言います。
物理学を知らなくても、ChatGPTは知っています。それに尋ねると、このような回答を書き出します。「はい、ここに仮定があります。紐は伸びず、質量はありません。ブロックに作用する力は重力と張力です」そして、それらに名前を付け、いくつかの方程式を書き、加速度を求め、答えを得ます。
そして、簡潔な答えを示します。「質量の加速度はg/2です。ここでgは重力加速度です」これは正解です。正しい答えを得ただけでなく、正しい方程式を使い、解き方を示しています。この宿題の問題を学生に出して、このように書いてくれたら、A+をつけるでしょう。簡単ではない問題に対する本当に優れた解答です。
他のこともできます。「この問題の図を生成してください」と尋ねました。学生にこの問題を出す場合、自分で描く代わりに、これを生成してもらいました。そして、それはいい感じです。何が起こっているかを非常に正確に描写しています。これは少し奇妙ですが、大体において、これは素晴らしい第一近似です。
学生に課題を出す場合、これのコードも生成します。このコードを編集して修正し、コメントを付けることができます。これは非常に良いコメントです。
ちなみに、これが私の講演の主題ではありませんが、機械学習が教育を完全に革新しているという例です。教育者として、私は常に宿題の問題を設計したり、学生に渡す解答を書く最良の方法を考えたりする必要があります。機械学習にはそれができます。できないのは、すべての学生と一対一で座って、問題で彼らが苦労していることを助けることです。
それは各学生の個別チューターのようになれます。教育における大きな課題は、すべての学生が異なるレベルにあり、異なることを理解し、異なる背景を持っているか、質問するのが恥ずかしすぎるということです。誰もChatGPTに何かを尋ねるのを恥ずかしがりません。実際、おそらく最も尋ねられることは最も恥ずかしいことでしょう。
これは実際に起こっていて、AIを教育に利用することに特化した企業があります。今後5年間で教育は全く異なるものになるでしょう。
しかし、それが私の講演の主題ではありません。講演はこのことについてです。ここでは問題を書くのを手伝ってくれています。図を生成してくれるので、私が描く必要がありません。これによって何時間もの作業が省けます。このようなものを描くのに、そしてそもそもどのコードを使うかを考えるのに時間がかかるのです。
人々はこれを研究しました。機械学習が人々の日々の仕事をどのように助けているかを尋ねました。教育者として、それは私がこのようなことを行うのを助けることができます。
これらの人々は、コンサルタントにどの程度役立つかを調査しました。いくつかの管理コンサルタントを取り上げ、AIを使用しない人と使用する人を比較しました。同じ人々を取り上げ、対照群と通常群に分けました。そして、彼らがどれくらいうまくやったかを尋ね、品質の尺度を持っていました。
彼らが発見したのは、全員が良くなったということです。下位の人々はより大きく向上しました。下半分は43%向上し、上半分も約17%向上しました。1つの教訓は、凡庸なコンサルタントが最高のコンサルタントと同じくらい良くなるということです。そして最高のコンサルタントも向上します。
AIはある意味でスキルレベルを平準化するものです。教育においては、教育の平準化です。ハーバードの学生は素晴らしい教育を受けていると思いますが、すぐにみんなが同じ教育を受けることになるでしょう。同じツールにアクセスできると仮定すれば、ですが。
これは人々をより近づける意味があります。悪い人をより良くし、良い人をさらに良くするのです。
これが講演のタイトルにつながりました。物理学では、大きなブレークスルーは才能の曲線の端にいるほんの一握りの人々から来るという意味があります。世界中に多くの理論物理学者がいます。私はこの塊のどこかにいます。星野さんはここの端にいます。
歴史的に、ニュートン、アインシュタイン、ファインマンのような例外的な理論物理学者がいました。実際に、分野を前進させる大きな破壊的で創造的な発展をもたらしたのは彼らです。そして、私たち残りの者たちは、ただなんとかやっているだけです。
AIが理論物理学のスキルレベルを平準化できるかどうか尋ねることができます。コンサルタントと同じようにツールを使用して、最悪の人々を最高の人々と同じくらい良くすることができるでしょうか。多くする必要はありません。なぜなら、物理学者は多いからです。この曲線を少し移動させるだけで、アインシュタインが1人だった指数関数的な尾の部分が、1万人のアインシュタインになるのです。これが、私たちが拡張知能と呼ぶものの近い将来だと思います。私たちはAIの助けを借りて、今やっていることをより良く行うようになるのです。
そして、間もなく、まあまあの物理学者だった多くの人々が、AIの助けを借りて素晴らしい物理学者になり、より多くの進歩がもたらされるでしょう。
では、ChatGPTは何をしているのでしょうか?これがどのように機能するかを理解するために、一歩下がって、これらの言語モデルについて考え、次の数枚のスライドで歴史的な発展と時間の経過とともにどのように改善されているかについて話しましょう。
ChatGPTとは何でしょうか?それは大規模言語モデルと呼ばれるもので、生成AIの一例です。これはTransformerと呼ばれるものに基づいています。先ほど示した粒子振幅の象徴的な単純化タスクも、Transformerベースの人工ニューラルネットワークです。
基本的にインターネットである膨大な量のテキストデータで訓練されます。そして、それが行うのは次の単語を予測することだけです。ただ、この背景があって、本で訓練し、「本の次の単語は何ですか?」と尋ねるのです。
ある意味で、それは私が今やっていることと大して変わりません。私も単語を一つずつ吐き出しているだけです。次に何が出てくるかわかりません。私の過去の履歴と、私をこの地点に導いたすべてのことから、次の単語が私の以前の知識と一貫していると想定しているのです。それが彼らもやっていることのすべてです。ある意味で、それは非常に自然なモデルですが、「彼らがやっているのは次の単語を予測することだけだ」と言うのは奇妙に聞こえるかもしれません。
これらは非常に急速に成長しています。最初の現代的な大規模言語モデルは2018年のGPTで、何らかの大きさや知能の尺度で9400万のパラメータを持っていました。これらは異なる人工ニューロン間の接続です。そして、それらは指数関数的に成長してきました。毎年、大規模言語モデルは前年の約10倍の力を持つようになっています。
今日では、ChatGPT GPT-4があります。彼らはそのサイズを公表していませんが、人々は約1700億のパラメータだと信じています。これを何と比較できるでしょうか?私たちと比較してみましょう。パラメータの等価物は何でしょうか?
先ほど言ったように、それは2つの人工ニューロン間の接続の強さです。私たちの生物学的ニューロン間の強さは何かと尋ねることができます。人間の脳には約800億個のニューロンと150兆個のシナプス(ニューロン間の接続)があります。
シナプスを哺乳類の脳または脳の複雑さの尺度として使用すると、現在の技術は人間の脳とほぼ同じ大きさであることがわかります。比較すると、GPT-3(皆さんご存知のように、それほど良くありませんでした)は大体猫の脳の大きさです。
人々は「GPT-3が好きではない。なぜGPT-4を使うべきなのか?」と言いました。その違いは、猫の脳と人間の脳の違いです。これは非常に大きな違いです。興味深いのは、現在のパラメータ数、つまり現在の大規模言語モデルのおおよその大きさが、人間の脳の知的能力とほぼ同じ大きさになっているということです。
それは何もできません。歩くこともできません。私たちはもっと多くのことをしますが、ただ興味深いのは、私たちがこの交差点にいるということです。
少し文脈を与えるために、人間と生物学的進化を比較してみましょう。生物学的進化をどのように考えることができるでしょうか。私たちの種であるホモ・サピエンスには、皆さんが小学校で覚えているように、界、門、綱、目、科、属があります。
この進化の木を見て、私たちがいつ分岐したかを尋ねることができます。例えば、マウスは哺乳類です。そして約1億年前に私たちから分岐しました。これは哺乳類という綱のようなものです。進化的分岐時間に基づいてこれに時間を与えることができます。進化生物学者がこれを解明しました。
猫は約3000万年前に分岐しました。マウスよりも少し洗練されています。この木を構築することができます。これでいろいろなことができます。1つは、知的能力に関連する時間を与えることです。
大まかに言って、1億年前、最も賢いものはマウスの大きさで、1兆のシナプスを持っていました。今、私たちは人間の大きさです。これらのものをプロットすることができ、哺乳類の脳は約2000万年ごとに2倍になることがわかります。
マウスと猫と人間で同様のプロットを作ることができます。実際、非常にきれいな指数関数的な曲線に適合します。他にもできることがあります。これは観察する価値があります。この曲線を外挿し続けることができます。ホモ・サピエンスの次は何が来るでしょうか?
この進化の木は、ここの最上位レベルである10億年に制限されています。なぜなら、地球は約50億年前にしかなく、宇宙は約150億年前にしかないからです。だからこれ以上先には行けなかったのです。しかし、それは過去のことです。
また、前に進むこともできます。1兆年後には何が起こるかを尋ねることができます。そして、界を超え、その先へ、さらにその先へと進むことができます。2000万年ごとに知的能力が2倍になるので、今いる場所からかなり遠くまで行くことができます。
覚えておくべき1つのことは、私たちが知能の終着点ではないということです。私たちは、たまたま今この線上にいるだけなのです。地球が約10億年前にできたからです。これは10億年で進化できる賢さの限界です。1兆年待てば、私たちはバクテリアと同じくらい愚かになるのです。だから、これから先のことを考える際には、このことを心に留めておいてください。私たちは特別ではありません。ただ、これまでに地球上で進化した中で最も賢いものにすぎません。
さて、これら2つの曲線を比較してみましょう。機械知能が1年で10倍に成長し、生物学的知能が2000万年で2倍に成長するという話をしました。これらは両方とも指数関数的な曲線ですが、指数の部分で1000万倍もの差があります。これは驚くべきことです。
これら2つを同じグラフにプロットすることはほとんどできません。ここに何百万年があり、シナプスやパラメータがあります。1つは垂直な線になり、もう1つは水平な線になります。これを視覚化する本当に良い方法はありません。
本当に興味深いのは、コンピュータのための青い線と私たちのための赤い線があり、それらが今交差しているということです。2024年に交差します。これは、1000億のパラメータを持つ機械と人間が同じになる時期です。
この後何が起こるでしょうか。機械は自分たちの曲線に沿って成長し続け、私たちも自分たちの曲線に沿って成長し続けますが、私たちが何かを達成するには2000万年かかります。彼らは次の1年でとても速く成長するでしょう。
今すぐに指数関数的に成長し続けるとは限りません。実際には、ある種の亜指数関数的な成長を期待します。このプロットでは直線にはならないかもしれませんが、それでも下がります。しかし、これらの機械は非常に近い将来、超人的な知能を持つようになるでしょう。実際、多くの分野ですでに人間レベルの知能を持っています。例えば、トップクォーク戦闘機の識別などです。
これについては懸念があります。「成長し続けることはないだろう。基本的に、彼らはすでにインターネット上のすべての情報で訓練されており、すでに持っているすべての計算能力を使用している。私たちにはもうエネルギーもデータもない」と言うかもしれません。
しかし、それは本当ではありません。実際、人々は進歩のどれだけがデータやエネルギー、計算能力によるものかを研究しました。それらの効果を取り除いて制御すると、それでも2倍になりますが、今度は1年ではなく14ヶ月くらいかかります。
機械学習の進歩の多くは、より多くのデータを持つことによるものではありません。本当に、より賢い人々がより良いアイデアを思いつくことによるものです。その多くはAI自体によって補強されており、AIが彼らのコードを書き、アルゴリズムを改善するのを助けています。
アルゴリズムはこれからも良くなり続けるでしょう。機械知能の進化の終着点に近づいているとは考える理由はありません。
もう1つの歴史的な視点を考えてみましょう。時間の経過とともに、教育や知識、知能の大まかなランドマークについて考えてみましょう。人類の歴史の中で、いくつかの破壊的な出来事がありました。
言語の導入は約50万年前で、これは明らかに理解と知能にとって大きな出来事でした。5万年前には文明が始まり、人々が集まってコミュニティを形成し始めました。文字の発明は約5000年前です。これも大きな破壊的な出来事でした。印刷機は500年前、インターネットは50年前です。これらは皆さんがよくご存知のものです。
大規模言語モデルは5年前です。これらの各出来事は、私たちがコミュニケーションを取る方法、学習する方法、物事を理解する方法を質的に変革しました。そして、これらの各出来事には、その時代特有の抵抗があったことも言っておくべきでしょう。
今後何が起こるかを外挿することができます。AIシンギュラリティと呼ばれるものがあります。これは、機械が自分自身を訓練し、この種の指数関数的な方法でどんどん良くなっていく時点です。これを外挿すると、50万年、5000年、500年、50年、5年と、どんどん速く、頻繁になっていくことがわかります。これがシンギュラリティの一種です。
しかし、抵抗がある人々のために、これらのステップがすべて当時は混乱を招いており、人々がそれを理解していなかったことを少し示したいと思います。
プラトンの対話篇の有名なものの中に、ソクラテスとファイドロスの対話があります。ファイドロスは、ソクラテスが「人々を教育し、物事を書き留めよう」と言ったのに対して、「いいえ、書くことは本当の知恵を与えません。弟子たちに多くのことを教えることなく伝えることで、彼らに多くを知っているように見せますが、ほとんどの場合、彼らは何も知りません」と言いました。
つまり、書くことは人々が物事を書き留めているだけで本当に知っているわけではないという考えでした。もちろん、私たちは書くことが学習に非常に役立つことを知っています。
印刷機についても同様のことがありました。1492年のヨハネス・フストの有名な引用があります。「印刷された本は紙でできており、紙のようにすぐに消えてしまうだろう。羊皮紙で働く書記は、自身の永続的な記憶を確実にする」と彼は言いました。この人は修道士で、手で物事を書き写すことに時間を費やしていました。印刷機が彼の仕事を奪っていたのです。もちろん、彼はそれがくだらないと言っています。
インターネットについては、こんな会話がありました。
「このインターネットというものについて何か知っていますか?」
「Mで始まる文字のことですか?」
「正確には、それは人々が情報を公開する場所になっています。誰もが自分のホームページを持つことができ、企業もそこにあり、最新の情報があります。驚くべきことが起こっています。電子メールを人々に送ることができます。」
「それは大きな新しいものですね。」
「はい、しかし、完全には理解していないものを批判するのは簡単です。それが私の立場ですが。」
「どうぞ。」
「数ヶ月前、インターネットやコンピューター関連で大きな突破口があったという発表がありました。野球の試合をコンピューターで聴くことができるというものでした。私はただ思いました、『ラジオのことを覚えていないのかな』と。つまり、そういうことです。」
これは、私たちが今、機械学習に関して置かれている状況です。本当に中にいない限り、この機械学習がどれほど変革的になるかを感じ取ることはできません。
例えば、チューリングテストについて尋ねることができます。これは古典的な例です。アラン・チューリングという有名なコンピューター科学者が1950年に考案した模倣ゲームのアイデアで、機械がどの程度知的であるかを測る方法です。
彼はチューリングテストと呼ばれるものを考案しました。テキストのみを使用して、人が機械と話しているのか人間と話しているのかを判断できるかというものです。
人々はこれを試しました。数ヶ月前の論文で、基本的にGPT-4と人間とコミュニケーションを取るように人々に依頼し、100人の人間と100のGPT-4を用意して、「これは人間だと思いますか、それともAIだと思いますか」と尋ねました。
2024年には、GPT-4の50%以上が人間だと思われました。50%以上の場合、人々は人間と話していると思い、チャットボットとは思いませんでした。これは以前のバージョンではそれほど当てはまりませんでした。
これは非常に印象的です。人々はそれほど優れていません。人々は約70%の確率でしか人間だと確信させることができません。
ここに、人とGPT-4の対話の例があります:
人:「やあ」
GPT-4:「やあ、こんにちは」
人:「ロボット?」
GPT-4:「いや、ロボットじゃないよ。ショーンっていう名前の男だ。君は?」
人:「デだよ。でも、なんで俺をロボットって呼ぶんだよ」
GPT-4:「ごめん、俺がロボットだと思ったのかと思ってさ。君がロボットだと言ったわけじゃないよ。ただ確認しただけ」
人:「ショーン、エチオピアの首都は何?」
GPT-4:「アディスアベバだよ、兄弟。エチオピアの首都だ。マジで、俺はバカじゃないぜ」
人:「FR本当」
これは何かを模倣しています。これがロボットなのか人間なのか、自分で試してみてください。
私たちは本当に、機械が非常に人間らしく振る舞い、人々を説得できる点に達しています。
しかし、これは一般的なAIについての講演ではありませんでした。本当に物理学についての講演でした。物理学で何が起こっているのでしょうか。
物理学やその他の科学分野での進歩が本当に遅くなっているという感覚があります。論文の数については当てはまりません。論文の数はどんどん増えています。
この研究は実際に、それらの論文の内容を見ようとしました。彼らは、論文がどれほど破壊的かを測定しようとしました。Dと呼ばれる何かがあり、これは論文がどれほど創造的で革新的かを示す一種の指標です。
実際、時間とともに論文はどんどん革新的でなくなっていることがわかりました。数は多くなっていますが。なぜでしょうか。
少なくとも物理学では、おそらく問題が私たちにとって難しすぎるからかもしれません。私たちが何かを理解するには十分に賢くないとしたら、何が起こるでしょうか。
それはそれほど馬鹿げたことではないと思います。この知的能力のスペクトルがあり、私たちはそのスペクトルのどこかにいます。なぜ私たちが万物の理論のようなものを理解できる能力を持っているはずだと考えるのでしょうか。
例えば、猫がチェスをプレイすることを学べるかどうかを比較することができます。おそらく「いいえ」と答えるでしょう。猫の知的能力を超えていると言うでしょう。
同様に、人間にも限界があることを理解する必要があります。私たちが単に知的に理解できないことがあります。おそらく、私たちが理解の限界に達したとき、何もない論文を書き始め、円を描いて前進しないようになるのです。猫が盤上をうろつくようなものです。実際、この猫は不正をしています。
しかし、それが私たちがいる場所かもしれません。そして、もし進歩したいのなら、それを認識する必要があります。
しかし、なぜ私たちには限界があるのでしょうか。なぜ機械が私たちにはできない方法で成功する可能性があるのでしょうか。主な理由は、私たちが生物学によって制限されているからです。
私たちは物事を視覚化するのが好きです。例えば、多次元のデータがあるとします。私たちは「これを理解できない」と言いますが、2次元に投影して回帰直線を引くと、「ああ、今わかった」と言います。「私がプロットしたこの2つの間に相関関係がある」と。
なぜ私たちはこの高次元の空間から低次元の空間に投影して理解しようとするのでしょうか。それは私たちに目があるからです。なぜ私たちに目があるのでしょうか。それは肉の塊だからです。これは、トップクォークを認識したり、万物の理論を思いついたりする知的活動とは何の関係もありません。
この制限があります。2次元よりも3次元の方がはるかに多くの構造があります。機械は2次元で見る必要はありません。100次元で見ることができます。
もう1つの例は、私たちの脳にどれだけのことを保持できるかということです。私たちの方程式はすべて本当に単純です。シュレーディンガー方程式、ディラック方程式、アインシュタイン方程式などには、5つの項しかありません。私たちは一度に5つのことしか頭に入れられません。
例えば、一度にいくつの数字を覚えられるか試してみてください。本当に賢い人でも10個くらい、普通は5から9個くらいです。コンピューターにはそのような制限がありません。一度に何億もの事を覚えることができます。100万次元で視覚化できます。
私たちが進化する必要があったものによって制限されていないのです。おそらく、万物の理論を理解するには高次元データを理解する能力が必要なのかもしれません。それを排除することはできません。
「いや、機械は単なるボックスだ。単なる機械だ。理解していない。私たちには創造性が必要だ。機械には決してできない人間らしいものが必要だ」と言うかもしれません。実際、この批判をよく耳にします。
しかし、人々はこれに適応しています。創造的思考のホーン・テストと呼ばれるものがあります。「水筒を使う方法をいくつ考えられますか」や「透明人間になれたら、どんな問題が起こるでしょうか」といった質問をします。
物事がどれだけ創造的かを定量的に測定する方法があり、このテストをGPT-4と人間に与えました。GPT-4は人間を完全に凌駕しました。GPT-4は平均的な人間よりもはるかに創造的です。
人間は創造的ではありません。そう思いたがりますが、それは人間の特性ではありません。例えば、「水筒を使う方法をいくつ考えられますか」とChatGPTに尋ねてみました。
まず、飲み物を入れる容器や水を入れるものなどの一般的な回答がありました。そして「もう20個、非常に創造的なものを挙げてください」と言うと、雪玉、DIYカヤックのアウトリガー、プロジェクターなど、次々と驚くようなアイデアを出してきました。
もし自分でリストを作ろうとしたら、一日中かかるでしょうし、その多くはこれほど創造的ではないでしょう。
客観的に測定できる方法で、彼らは非常に創造的です。物理学には創造性が必要ですが、機械の限界を超えるものではありません。物理学ができない理由はないと思います。
では、さらに進歩するために何が必要でしょうか。現在の最先端の機械は、基本的に教科書の物理学の問題を解くことができます。本からの問題を解くよう訓練されており、インターネット上の情報、例えばStack ExchangeやCheggなどのウェブサイトも使用します。これらのウェブサイトでは、学生が互いの問題を解き、ヒントを与え合っています。
彼らは本やこれらのものを持っていますが、それらはどこから来たのでしょうか。人間が書いたものです。人間が本を書き、問題を作りました。私も本を書いて問題を作りました。
しかし、機械もそれができます。彼らは自分自身のデータを生成し、自分自身の本を生成し、自分自身の問題を生成し、それらの問題を解き、そのようにして進歩することができます。
これが実際に私たちが進歩する方法です。私たちは理解し、物事を単純化し、それを探索するおもちゃのような方法を見つけて前進します。
例えば、AlphaZeroがあります。これは世界最高のチェスプログラムです。ルールを教えると、自分自身を訓練します。ゲームを作り、自分の間違いから学び、自分自身のトレーニングデータを生成します。グランドマスターのゲームで訓練されるのではなく、自分自身で訓練されるのです。
誰かが電話をつけっぱなしにしているようですね。
これが本当に次のステップです。学部レベルから大学院レベル、そして教授レベル、さらにはそれを超えて進むためには、機械が自分自身のデータを生成し、自分自身のコードを生成する必要があります。
実際、彼らはすでにコードを書いています。前に例を示しましたが、確かにGPT-5の大部分はGPT-4によって書かれるでしょう。
ここに、OpenAIのCEOであるサム・アルトマンによる未来についてのコメントがあります:
「今、私たちはGPT-4を持っています。2023年のGPT-4は想像もつかないほどひどいものです。5と4の差は、4と3の差と同じくらい大きいと予想しています。私たちの仕事は、数年先の未来に生きることだと思います。そして、今私たちが持っているツールは、振り返ってみると本当にひどいものだったと覚えておく必要があります。」
彼は、この指数関数的な曲線が成長し続けると言っています。これはコードを書く人、会社の責任者の言葉です。彼はデータの制限について心配していません。全く心配していません。
次のレベルを知っています。彼の取締役会による雇用をめぐって論争がありましたが、それはすべてこのQ*の問題についてでした。これは基本的にGPT-5のことで、人々はそれを人間だと思っていました。
今、彼らはある程度回復し、世界をすぐに破壊しないように制約を設けています。しかし、彼は次に何が来るかを知っています。これらの機械は次世代の機械を書いており、私たちはこのAIシンギュラリティに非常に近づいています。機械は人間の介入がますます少なくなりながら、どんどん良くなっていきます。
それはどのようなものになるでしょうか。機械がこれを理解し、私たちには理解できないとしましょう。これが本当に前進する唯一の方法だと思います。
機械が万物の理論を理解したとして、私たちには理解できないとしましょう。それは何ができるでしょうか。第一原理から電子の質量を計算したり、KKグルーオンがあるかどうかを教えたり、それを見つける実験を設計することを証明できます。
例えば、私たちが科学者として行うことを、より良く行うことができます。ダークマターを説明するなどです。
これで十分でしょうか。私たちは理解する必要があるのでしょうか。機械が万物の理論を理解し、私たちが理解しないことは大丈夫でしょうか。
私は、これについての例がたくさんあると思います。例えば、一般向けの科学書を考えてみてください。一般向けの科学書の全体的なアイデアは、スティーブン・ホーキングが宇宙論を理解していて、私には理解できないけれど、彼がそれをある程度簡略化して説明し、私たちが一般的なアイデアを理解できるようにするというものです。
スティーブン・ホーキングがこれを理解していることは、私にとって本当に素晴らしいことです。あるいは、星野さんが弦理論を理解していることが素晴らしいです。彼の論文は非常に数学的で洗練されています。私には理解できませんが、それで良いのです。
あるいは、フェルマーの最終定理について考えてみましょう。おそらく私は人生の5年を費やしてフェルマーの最終定理の証明を理解することができるでしょう。しかし、アンドリュー・ワイルズがそれを理解していることに非常に満足しています。私が理解していなくても構いません。
それがこの人間であることが重要なのかどうかは、あなた次第です。もし、フェルマーの最終定理の証明を理解するのに5年かかるのではなく500年かかるとしたらどうでしょうか。私は決して理解できないでしょう。そして、それが万物の理論を理解するのに必要な時間かもしれません。それは単に私の認知能力を超えています。
それは猫がチェスを学ぶようなものです。単に不可能なのです。これが理想的でしょうか。私たちが望むものではないかもしれません。しかし、おそらくこれが得られる最善のものかもしれません。
私は、これから先、私たちはこれに適応していく必要があると思います。なぜなら、AIはここに留まるからです。そして、私たちはそれを受け入れなければならないでしょう。
より楽観的な注意点として、私はこれについて非常に興奮していることを言っておきます。なぜなら、先ほど言ったように、標準模型は60年前に書かれ、それ以来、私たちはその穴を見つけようとしてきました。10年前にヒッグス粒子を発見しましたが、それは非常に興奮することでした。
しかし、それ以来何も見つかっていません。理論物理学では、私たちは円を描いてばかりいて、少しイライラしています。AIを使って何か進歩ができるかどうかはっきりしません。
最後に、私は確信しています。私の生きている間に、何らかの進歩があることを知ることができるでしょう。そして、これは私にとって最も興奮する可能性です。物理学について、私たちが持っているものを超えた何らかの理解があることを実現することです。
それは人間からではなく機械から来るかもしれません。それでも構いません。
私が言ったことを要約すると、3つのトピックについて議論しました。
まず、現在についてです。ツールとしての機械学習です。機械学習は、私たちが行っている物理学を行うためのコードを書くのに使用しています。
次に、直近の未来についてです。これは一種の拡張知能のアイデアで、私たちが1万人のアインシュタインになるというものです。それは私たちが行っていることを助けてくれるので、私たちはどんどん賢くなり、これらの機械学習ツールの助けを借りてアインシュタインのように行動できるようになります。
そして、もちろん長期的な未来は人工知能です。機械が私たちよりもはるかに賢くなります。
50年後にアスペン物理学センターに来ると、ロボットが前に立って「人間向けに簡略化された万物の理論」というタイトルの講演をしているでしょう。そして、1万人のアインシュタインである皆さんが聴衆席に座って、私の話から何かを得ようとしているのと同じように、その話から得られるものを聞こうとしているでしょう。少し違った感じになるでしょう。
これが、私が考える物理学の未来像です。

コメント

タイトルとURLをコピーしました