前準備なし 第105回 | AIセーフティーセンターのディレクター、ダン・ヘンドリックスと共に

13,371 文字

No Priors Ep. 105 | With Director of the Center of AI Safety Dan Hendrycks
This week on No Priors, Sarah is joined by Dan Hendrycks, director of the Center of AI Safety. Dan serves as an advisor ...

こんにちは、リスナーの皆さん。ノー・プライアーズに戻ってきました。今日はAI研究者でAIセーフティーセンターのディレクター、ダン・ヘンドリックスをお迎えしています。彼はMLUや最近ではHumanity’s Last Examなどの論文や広く使われている評価基準を発表しています。また、元GoogleのCEOであるエリック・シュミットやScaleの創設者アレックス・ワンなどの著者とともに「superintelligence strategy」を発表しました。私たちはAIの安全性と地政学的影響、核との類似性、コンピュート・セキュリティ、そして評価の状況について話します。ダン、参加してくれてありがとう。
よろしくお願いします。どのようにしてAIの安全性に取り組むようになったのですか?
AIが大きな存在になることは初期の段階で明らかでした。他の人々はそれが奇妙だったり考えるのが不快だったりして無視していましたが、頭を悩ませるものではありますが、今世紀で最も重要なことだと思われました。だからこそ、私はキャリアをそこに向けて発展させようと早くから考えました。
AIが非常に重要なものになるので、私たちはそれについて適切に考え、生産的な方向に導き、一般的に体系的に過小評価されているリスクに対処する必要があります。そのため、当時はあまり取り組んでいる人がいなかったので、私はこの分野に入りました。
センターの役割と大手研究所内の安全性への取り組みについてどう考えていますか?
現在でも研究所内の安全性への取り組みはそれほど多くありません。研究所は「ウイルスの作り方を教えて」といった質問に拒否するといった非常に基本的な対策に集中できますが、全体的な安全性や状況をよくすることに関して研究所が非常に大きな役割を果たすとは思いません。彼らは競争するよう予め決められており、関連する企業でなくなるつもりがない限り、競争しないという選択はできません。
彼らはテロリズムのリスクや事故などを減らすことはできますが、それ以上に結果を劇的に変えることはできないと思います。多くの部分は地政学的に決まっているからです。企業が大きく異なる行動を取れば、中国との競争の見通しもあり、おそらくロシアも後に関連してくるかもしれません。それが起こるにつれて、彼らの行動は実質的に制約されます。
私はAIに対する取り組みを複数のレベルで行うことに興味を持っています。企業が実施できる非常に基本的な対テロ対策があり、これは実装が比較的容易です。また、経済的影響にも対処する必要がありますが、企業はその進行方法を変えることはできません。デジタル労働の多くを自動化し、設計の選択を調整したりデータの拒否を追加したりしても、その事実は変わりません。
AI安全性やリスク管理を良くすることは、はるかに広範な問題です。技術的な側面もありますが、それは小さな部分だと思います。
研究所のリーダーたちは「私たちには何もできない」とは言わないでしょうが、誰もがこの方程式の中で株式を持っているのかもしれません。また「アラインメント」と「安全性」の違いについてどう考えていますか?
私は安全性をリスクへの対処の包括的な用語として使っています。非常に知的なAIシステムを手に入れられないことも、それ自体がリスクをもたらします。力の集中など、必ずしも技術的ではない他のリスクもあります。
アラインメントと安全性の区別について、アラインメントは安全性のサブセットと考えています。明らかに、AIシステムの価値観が例えば米国市民や個人として私たちと一致しているか互換性があることを望みます。しかし、それだけでは必ずしも安全とは言えません。あなたに信頼性高く従順または調整されたAIがあったとしても、すべてがうまくいくとは限りません。
中国は中国に完全に調整されたAIを持ち、米国は米国に完全に調整されたAIを持つことができます。それでも戦略的競争は続きます。軍に統合する必要があり、おそらく非常に迅速に統合する必要があるでしょう。競争によって、そのプロセスでリスク許容度が高くなります。AIが依頼主の原則に従って確実に動作していても、全体的な状況が完全に良好になるとは限りません。
信頼性の問題や望むことを実行するかどうかだけではなく、地政学のような構造的圧力によってリスクが高まります。国家安全保障の観点からAIを気にかける理由、あるいは武器として使用される最も実用的な方法は何ですか?
現在、AIは多くの点で非常に強力ではないので、現時点では国家安全保障にとって実際にはそれほど関連性がないと思います。これは1年以内に変わる可能性があります。一般的に、私は現時点で極めて懸念すべきだと言うのではなく、その軌道に焦点を当ててきました。
例えばサイバーについて、悪意ある行為者が電力網に壊滅的なサイバー攻撃を仕掛けるためにAIが現在それほど関連性があるとは思いません。とはいえ、サイバーを注視し、準備し、その戦略的影響を考えるべきです。生物学のような他の能力については、AIは理学博士レベルのトピックに非常に優れており、これには生物学も含まれます。
彼らは文献に関して専門家レベルの能力を提供したり、実際のウェットラボでの状況を手助けしたりする段階に入りつつあると思います。生物学の側面では、すでに国家安全保障の意味合いを持っていると思いますが、それはリーズニングモデルを持つ最近のことだけです。他の多くの点ではまだ関連性が低く、将来的なものです。
それは一国が別の国を支配しようとする方法や、戦争だけでなく経済安全保障のバックボーンになる可能性があります。米国と中国の船舶の数が、どの国が最も繁栄し、どの国が遅れをとるかを決定する要因になるかもしれません。これはすべて予測的なものです。投機的だとは思いますが、それはNVIDIAの評価やAI企業の評価が投機的であるのと同じ方法で投機的です。多くの人々がそれを期待していると思います、それも比較的早い段階で。
AIの時間軸を考えるのは非常に難しいです。私たちは中期的に投機的だと考えているものに投資しますが、かなり迅速に導入されています。サイバーとバイオの両方について言及したので、私たちはCulminateやCilのような企業に防御的なサイバーセキュリティ側で投資しているか、ChaiやSomiteのようなバイオテクノロジー発見側の企業や、治療に役立つさまざまなシステムをモデル化する企業に投資しています。競争と利益と安全性のバランスについてどう考えていますか?なぜなら、これらのいくつかは短期的にも積極的な面で効果的に機能していると思うからです。
私はこの安全性と革新の間の大きなトレードオフをあまり理解していません。バイオの場合、それらの能力を公開したいなら、営業に話して企業アカウントを取得すればいいのです。生物学的な拒否の小さな機能を持つことができますが、2秒前にアカウントを作成して「このウイルスを培養するにはどうすればいいですか?ここにペトリ皿の写真があります。次のステップは何ですか?」と質問している場合は、もしそのような能力へのアクセスが欲しいなら、まだ営業に話すことができます。
これは基本的にxのリスク管理フレームワークです。私たちは専門家レベルの能力を、誰かも分からない人々に公開していないだけですが、知っているなら確かに利用可能です。サイバーについても同様に、非常に簡単に利益を得ながら、これらの回避可能なリスクに対処することができると思います。
それがあれば、基本的にAPIの背後にあるモデルの悪意ある使用に対処できます。これが企業としてできる最善のことです。声を使って政策に影響を与えようとすることはできますが、企業として実質的にできることはあまり見当たりません。モデルをより制御可能にしたり、政策立案者に状況をより認識させるための研究ができます。
私は政策立案者が何が起きているのかを理解していないと思います。彼らはまだそれがハイプを売っているだけで、企業や従業員が実際には次の数年でAGIを手に入れる可能性があると信じていないと考えています。実質的なトレードオフはあまり見ていません。
本当に複雑なのは、例えば輸出規制の適切な厳しさは何かということです。中国に対する輸出規制の痛みを最大限に上げれば、AIチップが将来の経済力の通貨であれば、台湾を侵攻する可能性が高まります。彼らはすでにそれを望んでおり、AIチップが主要なものであり、何も得られず、最先端のCPUを製造するための最新の半導体製造ツールさえ得られない場合、さらに理由が増えます。
これらは対処し考え、適切に調整する必要がある他の種類の複雑な問題です。しかし、生物学的なものを軽減することについては、あなたがGenentechやバイオスタートアップなら、営業に話しかければそれらの能力にアクセスできることを約束します。
AIが生物学やセキュリティを超えて武器として使用されると予想される方法は何ですか?
私は国家からの生物兵器は予想していませんが、非国家主体からはより理にかなっています。サイバーは国家主体と非国家主体の両方から理にかなっていると思います。ドローンの応用もあり、これは他のものを混乱させ、他の種類の武器研究を支援し、エキゾチックな電磁パルス兵器を探索し、より良い種類のドローンを作成し、状況認識を大幅に支援することができます。
例えば、すべての原子力潜水艦がどこにあるかを知ることができるかもしれません。AIの何らかの進歩がそれを支援できるかもしれず、それによって第二撃能力や相互確証破壊を崩壊させる可能性があります。これらはいくつかの地政学的影響で、核抑止力に影響を与える可能性があります。
これは単なる武器の例ではなく、状況認識を高め、強化された陸上核発射施設や原子力潜水艦がどこにあるかを正確に特定できるという情報的なものです。それでも非常に破壊的で不安定化させる可能性があります。それ以外では、従来のAI兵器はドローンになるでしょう。各国がそれで競争し、米国がドローン製造にもっと力を入れないのは間違いだと思います。
最近、電子戦の会社と仕事をし始めました。自律システム、通信システム、ミサイルシステムのターゲティング通信など、基本的な概念の理解が大幅に不足していると思います。戦場認識と制御の観点から、その多くは無線、レーダー、関連システムで勝敗が決まるでしょう。AIはウクライナですでに非常に関連しており、指揮統制を支援しています。
ウォールストリートでは、各決定に対して人間がループに入っていたことを思い出します。後にその要件が削除される前は、ただ「承認、承認、承認」ボタンをクリックする人々の列があり、私たちは同様の状態になりつつあります。いくつかの意思決定をさらに自動化することになっても驚きません。これは信頼性の問題となり、信頼性研究を行うことは有用に思えます。
より大きな安全性のトレードオフについて戻ると、リスク管理を進める取り組みが何らかの一時停止を行うべきだと人々は大きく考えています。問題は、合意の背後に歯がなければ、自主的に行えば自分の力を弱め、より悪い行為者が先んじることになります。条約に署名するとしても、条約が守られるとは想定しないでしょう。それは非常に不用心です。実際には力による脅威や検証メカニズムなどでそれを裏付ける必要があります。
それがなく完全に自主的なものであれば、まったく有用なことではないように思えます。人々の安全性と「自主的に減速しなければならない」という混同は、力による脅威や非常に強力な検証メカニズムがなければ地政学的に意味をなさないと思います。サイバー攻撃や企業スパイ活動に関する条約や規範への遵守は明らかに非常に少なかったです。
企業スパイ活動は一つの戦略でした。自主的な一時停止戦略と、安全性と同等視する人々がいました。そして昨年、レオポルド・アッシェンブレアによる「人々のための状況認識」という論文がありました。彼は安全性の人物ですが、彼のアイデアは中国に対してできるだけ超知能への道を先んじようというものでした。
しかし、これには企業スパイ活動がまったく存在しないという弱点があります。これは非常に困難です。トップAI企業の従業員の30%以上が中国国籍であることを考えると、彼らを排除すれば彼らは中国に行き、おそらくあなたを打ち負かすでしょう。彼らは米国の成功にとって非常に重要だからです。
だから、彼らをここに留めておきたいのですが、それによっていくつかの情報セキュリティの問題に晒されることになります。しかし、それは仕方がないことです。これらのリスクを考えると、移民政策をどのように変更すべきだと考えますか?
もちろん、これに関する政策は南部国境政策や他のより広範な政策とは完全に別物だと主張します。AIの研究者について話すなら、彼らが非常に才能があれば、容易にすべきだと思います。現在、多くの人にとって滞在することが難しすぎると思います。この議論は南部国境政策とは完全に別に保つべきです。
大まかに言えば、自主的な遵守とそれが起こると想定することや、単なる競争などは機能しないと思うことがあります。ドローンやAIチップなどの他の分野での競争は問題ないと思います。しかし、超知能へのレースをして武器に変え、相手が同じことをしないか、アクセスを持たないか、それが起こるのを防止しないと言うのは、かなり高い主張に思えます。
もし米国がはるかに優れたAIを持っていたとしても、彼らはそれを共同利用したり、盗むことができます。情報セキュリティが非常に強く、研究者を砂漠に移すなどしない限り、しかしそうすれば多くの最高の科学者が中国に戻るので、彼らに勝つ確率が減ります。
彼らが本当に先行し、中国を打ち負かすことができる強力なAIを手に入れる兆候があれば、彼らはそのようなことをするのを抑止しようとします。彼らは「あなたの超知能を開発して、私たちを支配することを許そう」と黙って座っているわけではありません。
ここではある種の二次的な推論の失敗があったと思います。砂漠に1兆ドルのコンピュートクラスターを建設するとしたら、宇宙からでも完全に見えます。これに対する唯一の妥当な理解は、超知能の支配や独占への入札だということです。
核時代には、一部の人々が「予防的にソ連を破壊すべきだ」と言っていた短い期間がありました。通常は平和主義者であるバートランド・ラッセルのような人々でさえそれを提唱していました。その機会の窓は存在しなかったかもしれませんが、一時的に見通しがありました。しかし、ここでは複雑な相互依存性と米国内の多国籍人材への依存があるため、機会の窓は存在しないと思います。中国が私たちがここでやっていることについての認識や洞察を得たり、模倣したりする能力から完全に排除されることはないと思います。
現在、私たちはそのような現実の環境からは明らかに遠いところにいますね?
はい、それには何年もかかるでしょう。非常に強力なAIシステムのタイムラインでさえ、その安全確保を行うのに十分な時間がないかもしれません。
それに対応して、あなたはエリック・シュミットやアレックス・ワンなどの著名な著者や友人とともに、新しい抑止体制「相互確証AIの機能不全(Mutually Assured AI Malfunction)」を提案しました。MIMとは少し怖い頭字語であり、相互確証破壊(MAD)への言及でもあります。MIMを平易な言葉で説明していただけますか?
核戦略で起こったことを考えてみましょう。基本的に、多くの国家は第一撃を行うことを相互に抑止しました。なぜなら、その後報復できるからです。彼らは共有された脆弱性を持っていました。あなたを一掃しようとする非常に攻撃的な行動を取らないでしょう。なぜならそれは私たちが損害を受けることになるからです。
後にAIがより顕著になり、国家の将来に極めて重要とみなされるようになり、人々が超知能を作る寸前にあるとき、あるいはほとんどすべてのAI研究を自動化できるときに、いくらか類似した状況が生じます。
私は、各国がお互いに抑止しようとすると思います。他の国を圧倒したり、それらのAIを利用して非常に迅速な自動化されたAI研究開発ループを行い、現在のレベルから何よりも遥かに優れた超知能にブートストラップする可能性があるようなものを開発することを。
後になると、それは非常に不安定化するので、中国は「あなたのデータセンターにサイバー攻撃を仕掛ける」といった予防的なことをすると言い、米国も中国に対して同様のことをするかもしれません。ロシアはウクライナから出て状況を再評価し、「米国と中国で何が起きているのか?ああ、彼らはAIで非常に先行している。AIはソフトウェアエンジニアリングの大部分がAIの影響を受け始めている年の後半だとすると、大きな問題になるようだ」と思うでしょう。
「これは非常に関連性があるように見える。もしこれを使って私たちを打ち負かそうとするなら、サイバー攻撃を仕掛けてそれを防ぐだろう。そしてあなたのプロジェクトを監視し続ける」と。彼らがスラックにゼロデイ攻撃を行うだけで、DeepMindや、OpenAI、xAIなどが何をしているのか非常に忠実に知ることができるので、スパイ活動や妨害を行うのは彼らにとって非常に容易です。
現在、彼らはそれを脅す必要はありません。なぜなら、それは深刻さのレベルではなく、実際にそれほど潜在的に不安定化させるものではないからです。能力はまだ遠すぎます。多くの意思決定者はこのAIのことをそれほど真剣に受け止めていません。しかし、それがより強力になるにつれて変わると思います。
そして、これが彼らが最終的に対応する方法だと思います。これによって、ある国が他の国を完全に一掃することを可能にするような武器を作るなど、非常に不安定化させるようなことをしない状況になります。レオのような人々によって提案されたように。
核との類似点で意味があると思うものと、そうでないものは何ですか?
より広く言えば、二重使用技術として、民間用途と軍事用途の両方を持っています。その経済的応用はまだある意味で限られており、同様に軍事的応用もまだ限られていますが、それは急速に変化し続けると思います。
化学は経済にとって重要であり、いくつかの軍事的用途がありましたが、彼らは化学の道を進まないように調整しました。生物学も同様に、武器として使用でき、巨大な経済的応用があります。核についても同様です。
それぞれの技術について、各国は最終的に調整して、テロリストのような無法な行為者の手に渡らないようにしました。無法な行為者がそれを手に入れて彼らに対して使用しないようにするために多大な努力が払われてきました。なぜなら、それは彼らの利益にならないからです。
例えば、生物兵器や化学兵器は「貧者の原子爆弾」であり、これが化学兵器条約や生物兵器条約が存在する理由です。米国とソ連が敵対していた方法で他の意味でもライバルかもしれませんが、それは誘因互換的だったので、それについての調整はまだあります。
テロリストがこのようなものにアクセスすることは彼らにとって何の利益にもなりません。それは本質的に不安定化させるものです。これは調整の機会だと思います。彼らがすべての形態のAI開発を一時停止する誘因があるということではありませんが、特定の形態のAI開発、特に制御を失う可能性があるもの、または制御されたとしても、ある国が他の国に決定的な優位性を得て打ち負かすことを可能にするような非常に不安定化させるものを抑止される可能性があることを意味するかもしれません。
超兵器のようなものではなく、ドローンのようなより従来の戦争については、彼らは競争を続け、おそらくそのような事柄については調整さえしないだろうと予想します。それがただ進行する方法です。弓矢や核兵器のように、そのような種類の武器を開発し、お互いを脅すことは彼らにとって理にかなっていました。
もしあなた方が現政権に対して魔法のような政策や行動の採用を提案できるとしたら、ここでの最初のステップは何ですか?「私たちは超兵器を構築しないし、他の人々が構築していないか監視する」という姿勢ですか?
この会話全体で示唆してきたように、企業は何をするでしょうか?あまり多くはないと思います。基本的な対テロ対策を追加するくらいですが、これは技術的にかなり簡単です。これは他のものに対する拒否とは異なり、他のものに対する拒否の堅牢性は、犯罪や不法行為のように、日常的な相互作用と重なることが多いためより難しいです。
同様に、国家に対する要求もそれほど難しくないと思います。それはただ彼らがそれを行うかどうかの問題です。一つはCIAが他の国のAIプログラムの諜報活動を行う部門を持ち、それによって何が起きているかをより良く理解し、不意を突かれないようにすることです。
第二に、サイバーコムのような政府の一部が、多くのサイバー攻撃能力を持ち、他の国のデータセンターを無効化するためのサイバー攻撃を準備します。もし彼らが不安定化するプロジェクトを実行したり作成したりしているように見えるなら。これが抑止のためです。
無法な行為者へのAIチップの不拡散については、特に信頼性高くAIチップがどこにあるかを知るための輸出規制の調整が必要です。核物質がどこにあるか知りたいのと同じ理由で、ロシアが核物質がどこにあるか知っていることを望むのと同じ理由で、AIチップがどこにあるか知りたいのです。
これは基本的な国家技術で行うことができ、ライセンス制度を持ち、同盟国については別の場所に出荷される場合は通知するだけで、その基準でライセンス免除を得ます。そして執行官がAIチップのための基本的な検査や最終使用チェックを優先します。
これらはすべて数回のテキストや基本的な文書で解決できると思います。これはいつも変化する状況であり、安全性は技術的な問題ではなく、技術的な側面を持つより複雑な地政学的問題です。
後になってより多くのことをする必要があるかもしれませんが、現時点ではCIAへのスパイ、サイバーコムによる妨害能力の構築、オプションの購入などがリスクの多くを対処すると思います。
コンピュートセキュリティについて話しましょう。10万台のネットワーク化された最先端チップがあれば、それがどこにあるか分かります。DeepSeekと最近のリリースが、中国が輸入できるチップ上で、今日では取るに足らない規模で動作する非常にコンピュート効率の高い事前トレーニングへの革新をもたらした、輸出規制を考えると、コンピュートセキュリティに関するあなたの見解にどのように影響しますか?トレーニングが方向性として効率が悪くなることはないと私には思えますが、これはあなたの見解を変えますか?
いいえ、それはただ「人々を砂漠に移動させて大きなクラスターを作る」というマンハッタンプロジェクト型の戦略のような他の種類の戦略を弱体化させるだけだと思います。それが示しているのは、他の超大国の能力、つまりモデルを作る能力を制限することにあまり依存できないということです。
抑止力が行うように、彼らの意図を制限することはできますが、彼らの能力を確実にあるいは堅牢に制限することはできないと思います。無法な行為者の能力を制限することはできますし、それがコンピュートセキュリティや輸出規制が促進すべきものだと思います。
中国はおそらくこれらのチップの一部を継続的に入手するでしょうが、基本的にはそれらがどこにあるかをより知るようにすべきです。物事を厳しくすることもできますし、チップが無法な行為者の手に渡らないようにするために中国と調整することもできます。
また、輸出規制は私の理解によれば、BIS(産業安全保障局)のリーダーシップの間で実質的な優先事項ではなかったことを言うべきです。一部の人々にとってAIチップは重要でしたが、執行官たちにとっては、NVIDIAのチップの10%がどこに行ったのかを見るためにシンガポールに行ったでしょうか? それはすぐに中国に行っていたことがわかったと思います。
基本的な最終用途チェックでそれは解決されたでしょう。輸出規制が機能しないとは思いません。化学物質や核物質など、他の多くのものの不拡散を行ってきました。人々が気にかければそれは可能です。
それでも、輸出規制を厳しくして中国がそれらのチップをまったく手に入れられないようにし、これがあなたの最優先事項の一つだとしても、彼らはとにかく重みを盗むでしょう。彼らの能力を完全に制限するのは難しすぎると思いますが、抑止力を通じて彼らの能力を制限することはできるでしょう。
このようなものが強力であるかないかということも問題です。中国が経済的機会があると信じるような大国のリーダーシップが「私たちにはその能力は必要ない」と言うような世界のバージョンは実現不可能に思えます。
そうですね。これらの多くについて、すべてが3倍遅くなるような魔法のボタンがあればより良いかもしれませんし、そうすれば混乱が少なくなるかもしれません。それが真実かどうか実際には分かりません。立場は持っていません。
これらの企業間、国家間の構造的制約と競争圧力を考えると、リスク軽減に役立つ可能性のある多くのジェスチャーが実行不可能になります。構造的現実を考慮すると、それははるかに難しくなります。
とはいえ、特定のプロジェクト、コントロールを失う可能性があるものや、コントロールされたとしても非常に不安定化し、ある国が他の国を打ち負かすことを可能にするものについては、開発の一時停止や停止がまだあるかもしれません。
リスク管理がどのようなものかについての人々の概念は、それが平和主義的なものであるとか、構造的現実を無視する必要があるというようなものです。代わりに、正しいアプローチは核戦略のようなものだと思います。それは進化する状況であり、状況に依存します。
核兵器の備蓄が必要であり、第二撃を確保し、相手が何をしているかを監視し、能力が非常に危険なときに無法な行為者への拡散がないようにする必要があるでしょう。これは継続的な戦いですが、どんな場合でも極めて肯定的なものになるわけではなく、どんな場合でも終末の日になるわけでもありません。
核戦略については、明らかにリスクの高いビジネスでした。キューバ危機では、全面的な核戦争に非常に近づきました。私たちが何をするかによって変わります。いくつかの基本的な介入と非常に基本的な国家技術でこれらのリスクの多くを対処し、管理可能にすることができると思います。
自動化など、より国内的な問題が残されると想像しますが、ここでの地政学のいくつかを把握できるかもしれません。
最後の数分間は方向を変えて、評価について話しましょう。これは明らかに能力の面で私たちがどこにいるかを理解する安全性と非常に関連しています。「Humanity’s Last Exam」という評価と「Enigma」を出しましたが、これらはなぜ関連があり、評価においてどこにいるのでしょうか?
この文脈として、AIがどこにあるかを理解するための評価を、AIの研究を始めてからずっと作ってきました。以前は、チャットGPTの前にMLUや数学データセットなどのデータセットを作成していました。
「Humanity’s Last Exam」は基本的に、試験のような質問に基づく評価やベンチマークの道の終わりとは何かを明らかにしようとする試みでした。学術的な知識をテストするようなものです。このために、私たちは世界中の教授や研究者に非常に難しい質問を提出してもらい、それをデータセットに追加しました。
それは教授たちが研究で遭遇するような難しい問題の大きなコレクションで、明確で客観的な答えがあります。このデータセットのパフォーマンスが天井に近づいたとき、「ここに閉じられた答えがあります、それは多肢選択または単純な短答式です」というジャンルはおおよそ期限切れになると思います。
パフォーマンスが天井に近づいたとき、それは基本的に超人的な数学者や多くの面で超人的なSTEM科学者のようなものがあることを示すでしょう。数学のような閉じられた質問が非常に有用な場合です。しかし、開放型のタスクを実行する能力などの他の測定すべきものは得られません。
それはよりエージェント型の評価であり、それにはより多くの時間がかかると思います。様々なデジタルタスクを自動化する能力を直接測定し、様々なデジタルタスクを収集し、数時間それらに取り組ませ、正常に完了したかどうかを確認するようなものが近いうちに出てくるでしょう。
私たちは学術界の知識をテストするような閉じられた質問のテストを持っていますが、彼らはまだエージェントとしては非常に悪いです。これは一晩で変わる可能性がありますが、彼らはまだエージェントとしては非常に欠陥があります。
そのためにはより多くの評価が必要ですが、全体的なアプローチは何が起こっているのか、開発の速度はどのくらいかを理解しようとするものです。そうすれば、公衆は少なくとも何が起こっているのかを理解できます。
すべての評価が飽和すると、AIの状態について会話を持つことさえ難しくなります。それがどこにあるのか、どこに向かっているのか、改善の速度がどのくらいかを誰も本当に知りません。
これらのモデルやモデルシステムが人間より優れるようになったとき、つまり人間の能力を超えたとき、評価方法や評価する能力に質的に変化するものはありますか?
知能のフロンティアは非常にギザギザしていると思います。彼らが何ができて何ができないかは驚くべきことです。彼らはまだ服を畳むことができませんが、多くの難しい物理学の問題に答えることができます。なぜそうなのかは複雑な理由があります。
それはすべて均一ではないので、ある意味では人間より優れる可能性は完全に考えられます。遠くない将来、数学では人間より優れるかもしれませんが、まだフライトを予約することはできません。
その意味するところは、彼らがより優れているかもしれないが、ある限られた方法でのみ優れており、それが他の種類のことに必ずしも一般化されるわけではないということです。
しかし、彼らが推論スキルで私たちより優れる可能性はあると思います。それでも人間は確認することができます。もしAIの数学者が人間より優れていたとしても、人間はまだ証明を証明チェッカーに通し、それが正しいことを確認できます。
そのようにして、人間はまだある意味で何が起きているのかを理解できますが、他の方面では、もし彼らがものごとに対してより良い味覚を持っているとしたら、それが哲学的に意味をなすかどうかはわかりませんが、人々が確認するのは非常に難しいでしょう。
全体的に、本当に良いオラクルのようなスキルを持つAI、つまりあなたが質問すると、「ワオ、それは本当に洞察力のある、あるいは非常に非自明な回答だ」とか、「特定の方法で知識の境界を押し広げた」というようなAIに向かっていると思います。
しかし、必ずしも人々のために任務を遂行できるわけではなく、しばらくはそうでしょう。これが私たちがAIをそれほど真剣に受け止めない理由だと思います。彼らはまだ非常に些細なことの多くをできないからです。
しかし、彼らがエージェントスキルを獲得すると、経済的影響や、人々がこれを一種の興味深いものと考えることに対して、多くの障壁はないと思います。これが最も重要なことになります。エージェントスキルによって雰囲気が本当に変わり、これがアプリストアやソーシャルメディアのような以前のテクノロジーよりもはるかに大きいということが明らかになります。それは独自のカテゴリーにあります。
ダン、参加してくれてありがとう。素晴らしい会話でした。
ありがとう、招待してくれてありがとう。
TwitterではNo Prior Podをフォローしてください。YouTubeチャンネルを購読すれば私たちの顔を見ることができます。Apple Podcast、Spotify、またはあなたが聴いているどこでもショーをフォローしてください。そうすれば毎週新しいエピソードを入手できます。また、no-pri.comでメールに登録したり、すべてのエピソードのトランスクリプトを見つけたりすることができます。

コメント

タイトルとURLをコピーしました