

人工汎用知能やスーパーインテリジェンスは、AI企業が信じさせたいほど目前に迫っているわけではありません。それは、知能というものが本当に難しいからです。OpenAIやAnthropicのような主要なAI企業、そしてイリヤ・スツケバーの新会社は、人工汎用知能の創造を明確な目標として掲げています。そして、それを実現できる段階に近づいていると主張していますが、そこに到達できるとは思えない技術を使っているのです。
今日は人間の知能と人工知能の両方について話したいと思います。本題に入る前に、私は技術の可能性に対して楽観的でありながら、現在AIや汎用知能について行われている途方もない主張に対しては懐疑的であることを申し上げておきます。
AIの研究者として活動してからしばらく経っているので、現在のAIの状況について説明する際に細部で間違いがあるかもしれません。もしそうであれば、コメントや電子メールでフィードバックをいただければと思います。
なぜ私が知能について話そうと思ったのか。知能について語ることは本当に難しいのです。あなたは知能とは何か知っていますか?知能について考えたことはありますか?私はよく考えます。
人工知能とは何でしょうか。つまり、知能とは何でしょうか。私は知的なのでしょうか。AGIやスーパーインテリジェンスはすぐそこまで来ているのでしょうか。我々はテクノユートピアや何らかのシンギュラリティの瀬戸際にいるのでしょうか。これらが今日私が答えたい質問です。できるだけ非技術的でありながら、技術的に正確な動画にしたいと思います。AGIやスーパーインテリジェンスからまだ遠い理由について、素人向けの概要を提供したいと思います。ただし、正確に話したいので、微妙なバランスが必要です。これを興味深いものにし、幅広い視聴者にとって有用なものにしたいと思います。どうなるか見てみましょう。
明確にしておきたいのは、この動画では機械の感覚や意識について話すことは避けようとしています。認知的知能、あるいは少なくともそれに焦点を当てようとしているだけです。
これから話を進めていく中で、次の質問を念頭に置いてください。なぜ賢い人々は、自分たちが知能を解決したと私たちに思わせたいのでしょうか。彼らは賢いのだから、解決していないことを知っているはずなのに。
過剰な約束と期待はずれは、人工知能の伝統のようなものです。例えば、1965年にAIのパイオニアであるハーブ・サイモンは、「20年以内に、機械は人間ができるどんな仕事でもできるようになるだろう」と言いました。それは1985年のことで、明らかにそうはなりませんでした。その5年後の1970年には、コンピューター科学者のマービン・ミンスキーが「3年から8年以内に、平均的な人間の一般的知能を持つ機械ができるだろう」と予言しました。これも実現しませんでした。
2005年にはレイ・カーツワイルが、その10年の終わりまでに人間の知能をエミュレートするのに必要なハードウェアが手に入り、2020年代半ばまでに人間の知能の効果的なソフトウェアモデルができるだろうと予測しました。今ここにいる私たちにはそれがまだないことは明らかです。
実際、先週のレイは、今後5年以内にAGIが実現するという予測を支持しています。1999年に私は、30年以内の2029年までにAGI(人工汎用知能)に到達するだろうという予測をしました。2029年までの予定はまだ順調だと思いますか?それはおそらく悲観的すぎるでしょう。あなたはこの予測をどんどん前倒ししていますね。イーロン・マスクは2年後だと言っていますし、他の人々は3年か4年、5年後だと言っています。5年というのはおそらく控えめな見方でしょう。
Googleとアルファベットのグンダー・ピチャイCEOは、2018年にこう言いました。「AIは人類が取り組んでいる最も重要なことの一つです。それは、例えば電気や火よりも深遠なものです。」このような大胆な発言は、本当に知的な機械に近づいているのであれば正当化されるかもしれません。
そしてもちろん、イーロン・マスクは過去10年間毎年、完全自律走行のテスラが1年以内に来ると主張し続けていますが、まだ実現していません。
来年の車は、おそらく自動運転の90%が可能になるでしょう。つまり、あなたの走行距離の90%が自動運転になるでしょう。
高速道路や比較的単純な道路については、自動運転までおそらくあと1ヶ月ほどです。
現時点で、モデルSとモデルXは人間よりも高い安全性で自律走行できます。
今年の終わりまでに、LAからニューヨークまで自動運転で横断できるようになる予定です。
来年は間違いなく、100万台以上のロボタクシーが道路を走るでしょう。
完全自動運転を実現し、来年にはテスラの顧客に提供できると非常に自信を持っています。
テスラがレベル4のFSD(完全自動運転)を解決するのはいつだと思いますか?来年にはかなりの確率で実現しそうです。
最後に、今月初めにイリヤ・スツケバー、OpenAIの共同創業者の1人が、新しいスタートアップ「Safe Superintelligence Incorporated」を立ち上げました。これは1つの目標と1つの製品を持つスタートアップで、安全で強力なAGIシステムを作ることです。スーパーインテリジェンスを達成するまでは製品をリリースしないと彼は言っています。
知能の解決に少しずつ近づいているかもしれませんが、まだ遠い道のりです。私たちは知能を完全には理解していないと思います。それが今日話したいことの一部です。
なぜ私が懐疑的なのかおわかりいただけると思います。何十年もの空約束の後では、懐疑的になる理由があります。これは、今日話したい詳細にも触れずにそう言えるのです。
私のチャンネルを初めてご覧になる方のために、哲学者や弁護士であることに加えて、私はコンピューターエンジニアであり、元AIの研究者でもあります。ですので、ある程度深いレベルでこれらのことを理解しています。しかし、この分野で積極的に仕事をしてからしばらく経っているので、繰り返しになりますが、細部で間違いがあれば教えてください。
実際、90年代にAIの分野を離れたのは、当時の約束や誇大宣伝に応えられなかったからです。当時はAIの冬と呼ばれていました。今、何か新しくて違うことが起こっているように見えます。そう感じるので、今起こっていることに興奮していますが、同時にもっと話したいと思っています。
明確にしておきたいのは、最終的には印象的で信頼性が高く、透明性があり、偏見のない何らかの機械知能に到達すると思います。しかし、現在のアプローチでそこに到達できるとは思いません。AIの可能性が何であれ、この動画では現在の状況の正確で現実的なスナップショットを提供したいと思います。
実際、この動画シリーズ全体を使って、現在行われている大げさな主張に対してより懐疑的な視点を提供し、すべての誇大宣伝に対抗したり、少なくともそれについての明確さを提供したりしたいと思います。
アップルが数週間前に発表したApple Visionについて、ご存知だと思います。これが素晴らしいのは、AIをより控えめに美的目的や実用的な個人的用途に使用している点です。また、おそらくPerplexity以外では初めて、事実に基づく現実に回答や反応を根付かせようとする本当の試みだと思います。彼らのアプローチの良い点は、何か超知能を作ろうという野心がないことです。
さて、人工汎用知能とは何でしょうか。まずそこから始めましょう。ここでの1つの課題は、合意された定義が1つもないことです。人間ができるどんな仕事でも、以前に遭遇したことのない仕事も含めて、それを実行できることだと言えるかもしれません。それはかなり良い定義です。つまり、私たち人間のように、どんな領域でも知的に考え行動する能力です。しかし、適応し学習する能力が重要な部分であり、これは後で触れたいと思います。
これは一般知能の大まかな近似です。実際、アーティストのジェームズ・ブライドルは、AGIはすでに企業の形で存在していると主張しています。彼はこれを企業AIまたは企業知能と呼んでいます。これはかなり興味深い視点だと思います。ここにジェームズの言葉があります。
「本当のAIはいつ登場するのかと人々に聞かれたとき、私がよく答えるのは、本当のAIはすでにここにあるということです。それは企業です。企業は人々、機械、インフラの大規模な集合体であり、ネットワークにつながっています。快楽と苦痛に反応し、快楽は利益、損失は苦痛です。彼らは何をすべきかについて非常に狭い見方に基づいて行動し、他に何が起こっても、これらの非常に狭い目標にほぼ固執します。彼らには言論の自由があり、法的地位があり、法人格があり、法廷での力を持っています。彼らを殺すのは非常に難しいですが、完全に不可能というわけではありません。本質的に、私たちが作り出した生命形態であり、これらの種の生物が私たちの中で暮らしているのを認識すると、ある種のエイリアン侵略のオウムの中で暮らしているようなものです。」
ブライドルは彼の著書『Ways of Being』でさらに詳しく説明しています。
「AIの開発が主にベンチャーキャピタルの資金提供を受けた技術企業によって主導されると、どうやらこうなるようです。機械で構築され、枠付けられ、支持される知能の定義は、利益を求め、搾取的なものになります。」
彼は重要な指摘をしています。数ヶ月前にエズラ・クラインが彼のポッドキャストで行った指摘と似ていますが、AIや知能について我々が考える方法は、大部分が資本主義の中での出現によって定義されてきたということです。
私はそれに加えて、政府や軍事資金からの出現も、それがどのように考えられ、語られているかに大きな影響を与えていると言いたいと思います。
興味深い補足をもう1つ提供したいと思います。今日のAIシステムが私たちの文化や社会をどのように反映しているかについて考えていました。私たちの社会を見回すと、事実に基づく現実や独立した検証への一般的な欠如があり、誰も同じ事実セットで作業していないのは興味深くないでしょうか。そして、私たちのAIシステムがそれを反映しているのは興味深いです。彼らは幻覚を見て、事実に基づく信頼性を本当には持っていません。それは興味深いと思います。
また、私たちはノスタルジアとパスティーシュの文化的時代に生きていることを思い出させます。ある意味で、私たちのAIシステムは本質的に巨大なマッシュアップマシンです。つまり、ここで言いたいのは、マーシャル・マクルーハンのパラフレーズで、私たちは技術を形作り、それが今度は私たちを形作るということです。そこにはフィードバックループがあり、AIが現在の世界の状態を反映している方法に私は魅了されています。それは興味深いですね。
さて、知能をさらに定義しようとしてみましょう。さらに挑戦的なのは、私たちが人間の知能を再現し、それを超えようとしているなら、それはどのようなものでしょうか。知能とは正確に何を意味するのでしょうか。
最初は明白に思えますが、本当に掘り下げていくと、より捉えどころのないものになります。技術リーダーたち、特にトランスヒューマニストたちを見ると、他のすべての属性や能力を犠牲にして知能に取り憑かれているように見えます。生命、特に人間が示す能力よりも。
現代社会全体が知能に取り憑かれていると言えるかもしれません。現時点で集合的に示しているわずかな知能にもかかわらずです。つまり、社会や政府の構造を振り返ってみると、少なくとも西洋の政府は大部分が能力主義、あるいは少なくともそれを目指しているものだと主張できるでしょう。
ご存じのように、IQテストや標準化テストが人生の運命を決定します。少なくとも、inherited wealthと特権を無視すればですが。私たちの社会では、知能が過度に強調され、過大評価されていると思います。そしてそれがAIの誇大宣伝を助長し、知能についての考え方に影響を与えているのです。
知能は難しいものです。それを定義するのは難しいのです。AIの研究者や開発者が認識しているよりも、知能にはもっと多くのことが関わっています。知能は実際にかなり神秘的なものだと思います。そしてそれだけでなく、AIの開発者の中で認知科学や心の哲学の訓練を受けている人はほとんどいないと思います。そして、心を機械として捉えるこの持続的でありながら適合しない比喩は、非常に誤解を招くものだと思います。
心はアルゴリズム的なのでしょうか?そうではないと思います。初期のAI研究者たちは確かにそう考えていました。そして、それ以来のAIの発展に本当に影響を与えてきました。実際、昨年の量子意識についての私のビデオでこれに触れました。興味があればそちらをチェックしてみてください。
知能を単なる計算として定義することは、心と意識のより豊かな理解を拒否することを意味します。将来のビデオでこのトピックをより深く探求したいと思います。
しかし、実際に知能を定義してみましょう。明らかに推論、分析、論理が含まれます。これらすべてが知能であることは明白です。学習する能力、計画を立てる能力、それも明らかに知能です。ここまでは議論の余地はありません。
実際、私が好きな辞書の定義の1つは、知能とは「知識とスキルを獲得し適用する能力」というものです。非常に簡潔です。
しかし、直感や洞察力は知能に含まれるのでしょうか?おそらくそうでしょう。では、知恵はどうでしょうか?別物のように見えますが、おそらく連続体の一部なのかもしれません。
創造性についてはどうでしょうか?実際、レイ・カーツワイルは彼のAIに関する著書の中で、知能についてかなり広範な定義を持っています。彼は、人間の知能は多様で微妙だと認めています。これは素晴らしい認識です。彼にとって知能には、芸術的適性や創造性が含まれます。彼は感情的知能さえも知能の定義の一部だと言っています。これは興味深いですね。後でこれに戻ってきます。
知能には自己認識やメタ認知と呼ばれるものが必要でしょうか?感覚や意識が必要でしょうか?わかりません。
人間中心的ではありますが、私が本当に好きな知能の定義の1つは、「人間ができることすべて」というものです。しかし、そうすると今言及したすべての能力、創造性や想像力、直感を含むことになります。だから定義するのは少し難しいのです。
そこで、知能とは何かという質問に対する別の答えは、「誰も本当にはわからない」ということです。あるいは、私たちは知っていると思っていますが、それは捉えどころのないものです。
私たちが作り出しているこの機械知能は、全く新しいものである可能性があります。カテゴリー的に新しいものです。それは人間の知能とは全く異なるものになるかもしれません。それは独自の知能になるかもしれません。体の異なる部分に複数の脳を持つタコが、人間の知能とは異なる独自の種類の知能を持っているのと同じように。しかし、それは確かに何らかの種類の知能です。
だから、機械知能は私たちが作り出している全く新しい何かになる可能性があると思います。実際、コンピューター科学者のアラン・チューリング、ある意味AIの祖父とも言える人物は、70年前に機械知能は人間の知能とは種類が異なる可能性があることを認識していました。
彼は、人工知能は私たちが今日知っているどの形態の知能とも類似していない、全く新しいものになる可能性が非常に高いと考えました。そのため、AIは人間に取って代わることはないかもしれません。永遠に私たちを補完し、協力者になるだけかもしれません。それはより興奮する考えだと思います。
私が言いたいのは、知能を理解することは重要だということです。AIシステムを作るのであれば、私たちが何を作ろうとしているのかを正確に理解する必要があります。これは当たり前のように思えますが、知能とその仕組みについての私たちの理解が、今日のシステムに反映されているとは思えません。
私たちが作ろうとしているものを理解していないなら、私たちが作るものは神秘的で予測不可能なもの、偏見を持ち、調整されていないもの、不透明で、場合によっては少し恐ろしいものになるでしょう。私たちはすでにこれを見ています。多くの人がChatGPTやSoraに対してそのように感じています。
そう言いましたが、一般的な知能というものは存在するのでしょうか?不明確です。
いずれにせよ、私たちがどのように知能を定義するにしても、狭い種類の知能であっても、それを複製しようとするシステムを作ることには依然として価値があると思います。そこには確かに大きな機会があります。繰り返しますが、私はこれらのものを作ることに反対しているわけではありません。ただ、私たちが作っているものと、それを推進しているものについて、もっと思慮深く慎重であるべきだと思うのです。
さて、脳と心について話しましょう。現代では、脳と心という言葉は互換的に使われています。脳は明らかに頭蓋骨の中にある物質の塊、灰白質のことです。そして心の主流の見方は、脳のニューロンの発火から生じるというものです。心や意識は本質的に脳の副現象として現れるのです。
これは科学的に証明されたわけではありませんが、長年の仮定であり、現在の主流の見方です。このため、1940年代と50年代のコンピューター科学者たちは、人間レベルの知能、そしてそれ以上を達成するために、人間の脳のこの神経ネットワークをモデル化できるのではないかと提案しました。
実際、神経科学者のヘンリー・マークラムは2009年のTEDカンファレンスで、10年以内にコンピューター上で人間の脳全体をシミュレートすると発表しました。
「大脳新皮質の活動をシミュレートするのに必要な方程式は、文字通り数個しかありません。しかし、必要なのは非常に大きなコンピューターです。実際、1つのニューロンのすべての計算を行うのに1台のラップトップが必要です。つまり、1万台のラップトップが必要なのです。そこでIBMに行き、スーパーコンピューターを手に入れます。なぜなら彼らは1万台のラップトップを冷蔵庫サイズにまとめる方法を知っているからです。そこで、このブルージーンスーパーコンピューターを手に入れ、すべてのニューロンをそれぞれのプロセッサーにロードし、起動して何が起こるか見てみます。魔法のカーペットに乗って旅に出るようなものです。」
残念ながら、彼は決してそのプロジェクトを完成させませんでした。
心の哲学と認知科学の歴史を振り返ると、基本的に2種類の推論が認識され研究されてきました。演繹的推論と帰納的推論です。
演繹的推論は、一般的な原則を特定の事例に適用するものです。例えば、「すべての人間は死ぬ。ソクラテスは人間である。したがって、ソクラテスは死ぬ。」というようなものです。繰り返しますが、演繹的推論では一般から特殊へと進みます。
「雨が降っているなら、地面は濡れている。雨が降っているのが見える。したがって、地面は濡れている。」ただし、木や東屋や車が地面を覆っている場合は濡れていない可能性があります。
とにかく、これがAIへの最初のアプローチでした。エキスパートシステムまたは古典的AIとして知られています。この考え方は、何百万もの原則や真実の文をマシンに入力すれば、パッと知能が得られるというものでした。
しかし、雨の例でわかるように、これは脆弱で、本当に学習や適応ができません。演繹だけでは、非常にファジーで乱雑な世界に対処することはできません。また、学習や適応にも適していません。
演繹的結論は、前提が常にすべての時間とすべての状況で真実で有効であると仮定しなければなりません。また、関連性の課題にも悩まされます。特定の状況にどの格言を適用するかなど。
すでに知能には層があり、例えば演繹の前に起こるステップがあることがわかります。これについては後で触れます。
他のことの中でも、演繹的文で使用される一般的な原則は、人生の実験室でテストする必要があります。あなたの頭の中を巡る原則は常に改訂の対象です。少なくともそうあってほしいと思います。
例えば、北半球で育った場合、すべての白鳥は白いと言われたり学んだりしたかもしれません。しかし、南半球に旅行して茶色い白鳥を見たとします。これらのことは常に改訂の対象なのです。
これは実際に、私たちがよく知っているもう一つの種類の推論である帰納的推論につながります。これは、特定の観察から一般的な結論に到達するものです。データを調べ、世界を観察し、実験を行うことでパターンを識別しているのです。
白鳥に戻ると、白い白鳥を何度も見れば、おそらくすべての白鳥は白いと結論づけるでしょう。
これが機械学習の仕組みです。「猫」とラベル付けされた何百万もの写真を研究し、数学的に猫らしさを一般的に理解し始めるのです。
今日の機械学習システムの基礎は、この帰納的推論です。何百万もの サンプルを訓練して、例えば猫や犬や人間が何であるかを学習します。
帰納的推論の課題は、演繹とは異なり、帰納的知識は常に暫定的だということです。世界は常に変化し、未来は必ずしも過去と同じではありません。また、因果関係の知識も必要としません。
したがって、帰納または機械学習から学ぶシステムは本質的に脆弱です。適応できず、複雑で乱雑な世界に対処できません。
また、帰納的推論や機械学習には、訓練データに含まれていない特定の状況がシステムを混乱させるという長尾問題もあります。そのような場合、機械は帰納だけでは応答を推論することができません。
本質的に、機械学習システムだけでは、過去の経験から推論することはできません。例えば、アメリカで訓練された自動運転システムをインドで展開すると、数多くの課題に直面するでしょう。道路上の牛に遭遇し、予測不可能な反応をするでしょう。交通標識も明らかに異なります。言語の違いは置いておいても、トゥクトゥクやリキシャ、4人乗りのスクーターなどがあります。
そして、少なくとも私が行ったインドのほとんどの場所では、交通規則は本当に守られていません。つまり、訓練データが新しい状況に役立たない環境なのです。
演繹と帰納を結びつける別の種類の思考が必要なようです。後で見ていくように、これはアブダクティブ推論として知られています。
現在のAIシステムの仕組みをもう少し詳しく見てから、それを探っていきましょう。
現在のAIシステムや機械学習システムは、先ほど述べた古典的AIシステムの一種の改良版です。古典的AIシステムは演繹に似ており、真実の文や決定木などをハードコードしていたことを思い出してください。
しかし、70年前に遡ると、ニューラルネットワークを通じて脳をモデル化しようとする試みがいくつかありました。そして、それは約15年前から一種の復活を遂げています。人々は十分なデータと計算能力を持ち始め、これらをより現実的にモデル化しようとし始めました。
今日、ChatGPTなど、大衆の想像力を捉えたAIシステムは、ほとんどの場合、これらのニューラルネットワークに基づいています。知能と心が脳のニューロンの発火から生じるという認知理論に基づいています。つまり、脳をモデル化しようとする試みです。
これにはChatGPT、AnthropicのClaude、GoogleのGeminiが含まれます。画像生成AIやその他の生成AIも同様です。アップルがチップにニューラルエンジンを追加していることからも、この機械学習アプローチへの持続的なコミットメントが見られます。
これらの機械学習システムは、繰り返しますが、帰納的推論の一形態であり、より大きなデータセットと、GPUの形での特殊なコンピューター技術の組み合わせにより、数十年の失敗の後にようやく成功を収めています。
簡単に言えば、その仕組みは次のようになっています。単語や単語の一部を表すトークンに数値スコアが割り当てられ、そして文章や画像は、これらのニューラルネットワークの複数のノードを通過する確率分布の大きな数学的行列を使用して解析および生成されます。
これは、おそらく現在の機械学習システムの仕組みについての最も簡潔な説明です。多くの詳細を省略していますが、本質的には数学を使用してテキストと画像を生成しているのです。本質的に、異なる情報の断片に数値を割り当てているのです。
この種のシステムは広く使用されており、数年前から使用されています。例えば、Facebookは機械学習を使用してフィードに表示するものを決定しています。Instagramも同様です。Googleは、YouTubeの動画を推奨するのに使用しています。おそらくこの動画もそうでしょう。
これらの企業は、言語間の翻訳、広告の表示、広告のターゲティングなどに機械学習を使用しています。テキストから音声への変換や音声からテキストへの変換システムも、機械学習を使用しています。
機械学習は、ボトムアップアプローチの知能と説明できるでしょう。観察から情報を収集するボトムアップアプローチです。対して、トップダウンの知能は、世界に関する事前知識を組み込みます。繰り返しますが、演繹的ではなく帰納的なのです。
さて、本題に入りましょう。AGIに到達するために現在のシステムに欠けているものについて話したいと思います。
繰り返しますが、この動画では公平性、透明性、その他の安全性の問題については触れません。この動画では、機械に真の知能を作り出すために欠けている部分に完全に焦点を当てています。
偏見や透明性、公平性などの他の問題も重要ですが、それは別のトピックです。これはより一般的な知能の問題に焦点を当てています。
おそらく今誰にでも明らかなことは、これらのシステムにとって事実の正確性が本当の課題だということです。AIシステムは現在、事実に関して持続的で一見解決不可能な課題を抱えています。これには事実の整理や事実間の関係の理解も含まれます。
これは、それらの設計方法によるものです。機械学習は、正確な事実知識を表現することを本当には目的としていません。それはより、マッシュアップマシンやアマチュアの詩人のようなものです。
最近、Googleが人々に岩を食べるように、ピザに接着剤を付けるように言っていたのを見ました。この事実の問題に対処しようとする試みがいくつかありました。これには、検索拡張生成(RAG)と呼ばれるものが含まれます。詳細には触れませんが、基本的には機械学習システムに信頼できる事実知識の源を「ボルトオン」するというアイデアです。
そのアイデアは、LLMや機械学習システムがより信頼性を高めることができるというものです。しかし、この課題は、一般的な知能を達成するという点では、本質的に問題を先送りしているだけです。
それでも、どのソースを信頼するかを自分で決定できる信頼性のあるシステムを作る必要があります。理想的には、新しい知識領域に入るたびにハードコードする必要がないようにしたいでしょう。
現在のシステムに欠けているものを要約する1つの方法は、常識がないということです。コンピューター科学者のゲイリー・マーカスの言葉を引用すると、「常識の、そしてAI自体の大きな皮肉は、それが誰もが知っていることであるにもかかわらず、それが正確に何であるか、またはそれを持つ機械をどのように構築するかを誰も知らないように見えることだ」ということです。
これは、これらのシステムが内部に世界の作業モデルを持っていないからです。彼らは単に、どの単語が他の単語に続く傾向があるか、またはどの種類の画像の断片が他の画像の断片に続く傾向があるかなどを知っているだけです。
常識の一部は、世界を理解し、因果関係を理解することです。因果関係を理解することは、おそらく最も重要な欠けている部分であり、単なる帰納を超えた基本的な推論と深く関連しています。
おそらく私たちは幼児期にそれを学びます。そして、おそらく機械学習システムも、十分に大きな訓練セットを通じて最終的にこれを学ぶことができるかもしれません。しかし、それはありそうにありません。私はそれに批判的です。
人間に関しては、イマヌエル・カントのエコーとして、私たちは時間、空間、因果性に対する自然な直感的感覚を持っているように思えます。なぜそうなのかについて私には考えがありますが、これも別の動画で延期します。
常に将来の動画で何かを約束しているように感じますが、これらのものを比較的短くしようとしているのでそうなってしまいます。この動画はかなり長くなると知っていますが。
この欠けている部分、この常識の部分を説明するもう1つの方法は、機械学習システムが抽象的な概念を扱えないことを指摘することです。
言語レベルでの抽象的思考ができないのです。これは意味論、つまり単語の意味と、単語が世界や他の単語とどのように関連しているかということです。
ChatGPTのようなシステムは、単にシンボルを操作しているだけです。それらのシンボルや文章が実際に世界で描写していることの実際の意味、意味論的意味の理解なしに。
これは象徴的表現に関連しています。古典的AIと演繹的推論の議論を思い出してください。機械学習システムは、本当にこの問題を解決するために必要な、シンボルとシンボルのカテゴリー、関係、ドメインツリーなどのこの種のマップを持っていません。
例えば、完全に機械学習と帰納に基づいた医療診断システムがあるとします。それはおそらく、訓練データに基づいてインフルエンザの症状を認識するでしょう。おそらく99%の確率で。
しかし、より珍しい病気はどうでしょうか?または、食用マリファナがインフルエンザの万能薬だとジョークで話すRedditの投稿があったらどうでしょうか?これらのことを考え抜くシステムが欲しいのです。
医学の教科書を勉強することで様々な病気や治療法について学ぶ医療診断システムは良いでしょう。しかし、そのシステムが単に単語やフレーズのパターンマッチングをするのではなく、それから推論する関連する抽象概念のセットを開発することを望みます。
私が言いたいことがわかりますか?これらのシステムが何らかのレベルの理解と熟考の能力を持つことを望んでいるのです。
本質的に、AIシステムは帰納的推論を通じて学習する能力に加えて、抽象的な因果知識、トップダウンの知識を必要としています。
これは、トップダウンアプローチとボトムアップアプローチを組み合わせること、つまり演繹と帰納を組み合わせることで解決される可能性があります。一部のAI研究者はすでにこの可能性を探っています。
この部分を説明するもう1つの方法は、AIシステムが世界に関する理論を発展させる能力を必要としているということです。経験と反事実、テストに基づいて修正できる理論です。
ゲイリー・マーカスとアーロン・デイビスの言葉を引用すると、「どの事実も孤立していません。成功するためには、一般的な知能は獲得した事実をより豊かな包括的な理論に組み込む必要があります。これらの事実を整理するのに役立ちます。」
大規模言語モデルで見たように、彼らは言っていることを何も理解していません。ただの確率的オウムのようなもの、いわば愚かな機械です。
要するに、私たちは、相互に関連する概念で満たされた、世界の継続的なモデルを発展させている思考マシンを望んでいます。そのモデルを使って推論できるものです。
私たち人間はこれを常にしています。新しい情報や概念を、連想や類推を通じて、以前の概念や記憶と関連付けます。「これはあの他のことを思い出させる」というような感じです。
時にはそれらは私たちに起こったことであり、感情や感覚さえ含んでいます。真の知能に感情や身体性が必要だとは思いませんが、そこにもっと探求すべきものがあると思います。これも将来の動画で。
欲望についても同じことが言えます。欲望と知能の間に何かがあるかもしれないと思います。私たち人間にとっては、世界のモデルは部分的に私たちの欲望や動機によって形作られます。そして、私たちの欲望は逆に世界のモデルによって形作られます。
可能性の世界の輪郭は、可能なことについての私たちのアイデアによって形作られます。欲望と理解の周りにはもっと探求すべきものがあると思いますが、これも将来の動画で。
私が指摘したい大きなポイントは、技術は常に理論の下流にあるということです。もう一度言います。技術は理論の下流にあるのです。
コンピューター科学者のエリック・ラーソンは彼の素晴らしい本『The Myth of AI』でこのことを私たちに思い出させてくれます。
今までに見てきたように、一般的な知能を達成するための現在のアプローチは、知能の実行可能で頑健な理論に基づいていません。代わりに、研究者たちはただ、機械学習がすべて私たちが必要とするものだという一種の盲目的な信仰に基づいて、より多くのデータとより速いプロセッサーを積み重ねているだけです。
人間がニューラルネットワークを持っているので、それが私たちに必要なすべてだったように見えるという考えに基づいているのでしょう。しかし、そこには本当に一対一の対応関係はないと思います。この動画でそれについて少し説明しましたが、別の動画でもっと詳しく説明する必要があると思います。
とにかく、人間は白紙の状態で生まれてくるという考えがあります。そのため、事前知識やハードコーディングは必要ないはずだ、というわけです。彼らは非常に狭い一連のタスクで印象的なシステムを作り出し、知能の幻想を作り出すことにはまあまあうまくいっています。しかし、おそらく心の理論の1つが、これらの欠けているピースのほとんどに対処するでしょう。それがアブダクティブ推論です。
アブダクティブ推論は、あまり広く知られていない推論の形式で、100年前に哲学者チャールズ・サンダース・パースによって初めて注目されるまで、あまり研究されていませんでした。
アブダクティブ推論は、観察、経験、常識に基づいて仮説を形成することです。本質的に、教育を受けた推測をすることです。最良の説明への推論として知られています。
アブダクティブ推論は、本質的に、演繹、調査、実験などを通じて確認する推測や仮説を立てることです。
例えば、あなたが帰宅すると、到着時にリビングルームの電気がついていましたが、出かけるときに消したことを確信しています。そこで、あなたが留守の間に誰かが家に入ったのではないかという仮説を立てます。真実でないかもしれません。スマートライトシステムかもしれませんし、他の何かかもしれません。しかし、これが私が話している種類の例です。
本質的に、これは発明や探偵の仕事、科学的発見に関連する種類の思考です。閃きのようなものです。長年の問題の解決策が突然頭に浮かぶような、あの「ユーレカ」の瞬間のようなものです。昼寝から目覚めたとき、シャワーを浴びているとき、空想しているときなどに突然何かが浮かんでくるのです。
最も有名な例の1つは、アウグスト・ケクレの自分の尻尾を食べる蛇の夢想です。これがベンゼン分子の構造に関する洞察、つまりそれが環状構造であることを着想させました。このような種類の例がアブダクティブ推論の例です。
帰納的推論と対照的に、帰納的推論は事実から一般化へと移動し、反証可能な規則性の理論を提供します。一方、アブダクションは特定の観察から、それを説明するかもしれない仮説へと移動します。
これは、閃きを伴って思考のモードを移動する方法であり、演繹と帰納をつなぎ合わせるものです。いわば、演繹と帰納を結びつける接着剤のようなものです。
帰納は基本的に、最初のステップとしてアブダクションを必要とします。これが、新しいデータセットで機械学習システムを開始するには、最初に人間の監督が必要な理由です。
私たちは問題や訓練セットに対して、世界に関する一般的な知識を持ち込みます。例えば、Googleのディープマインドチームがアルファ碁を訓練する際、タスクを成功裏に達成するためにシステムを設計する際に、人間の推論、つまりアブダクティブな推論を使用しました。彼らは基本的に、彼らが構築していた帰納的フレームワークのために、外部から囲碁に関する知恵を提供したのです。
アブダクティブ推論の最良の例は、シャーロック・ホームズの物語だと思います。実際、『The Adventure of the Beryl Coronet』からの素晴らしい引用があります。シャーロック・ホームズは言います。「不可能なことを排除したら、残ったものがどんなに信じがたくても、真実に違いない。」これはアブダクションの非常に良い定義です。
シャーロック・ホームズやコロンボ、または典型的な探偵を見ると、彼らは人間の性質や行動、過去の経験、世界に関する一般的な知識を活用して、最も少ない事実の間のパターンや接続を識別し、自信を持ってテストできる仮説に到達しているのがわかります。
アブダクションは、演繹や帰納とは異なり、必ずしも線形的な思考ではありません。しばしば、これらの種の神秘的な、無意識的な飛躍があります。しばしば、一種の自発的な洞察や閃きとして現れます。
時には意識的であり、時には自動的です。そして、演繹と帰納を必要としますが、私たちの思考におけるより神秘的な現象を指摘していると思います。そこでは、問題に多くの時間を費やし、それを私たちの潜在意識かどもしれないところで熟成させた結果として、仮説や解決策が自然に浮かび上がってきます。
これらの新しいアイデア、新しい解決策や新しい思考が、完全な形で心に浮かんでくるのです。発明家や探偵、または珍しい症状を診断する医師のように。
では、アブダクティブ推論で何が起こっているのでしょうか?私たちにはわかりません。そしてこれがモデル化やコード化を難しくしています。おそらく、それは非常に深いもの、心と意識の性質を指し示すものかもしれません。しかし、再び、そのような質問は別の動画でより適切に探求されるでしょう。
いずれにせよ、この種の推論は人間であること、適応的かつ創造的に考えることの本質に迫るものだと思います。
要するに、アブダクションによって、AIシステムは不完全または矛盾する情報を使って推論することができるのです。
見てきたように、現在のAIシステムは訓練セットで見たことしか知りません。帰納は常に脆弱で、物事は常に変化や例外の対象となるため、アブダクションは特定の事例で説明を提供し、帰納的知識セットを調整し、外れ値の性質について仮説を立て、内部モデルを修正するために必要です。
ここでの教訓は、AIシステムは適応可能である必要があり、私が先ほど列挙したすべての欠けている部分に対処する必要があるということです。これらのシステムが現実世界の不正確さ、曖昧さ、ファジーさに対処できるようになることを望んでいます。それが知的であることの一部なのです。
アブダクションに対処するための学術研究はいくつかありましたが、これらのAI研究者たちは大規模言語モデルを使用してこのアイデアを探索し、テストしているように見えます。そのため、それがうまくいくかどうかはわかりません。なぜなら、基本的に帰納を使用してアブダクションを達成しようとするのは、理論の適切な応用ではないように思えるからです。
繰り返しますが、これらの欠けている部分に対処するだけでなく、アブダクションを解決しない限り、真の知能は不可能だと思います。しかし、時間が教えてくれるでしょう。
私は3つの最も人気のあるチャットボットに、彼らがアブダクティブ推論を得意としているかどうかを尋ねました。「あなたはアブダクティブ推論を行うことができますか?」と尋ねました。
ChatGPTはこう答えました:
「はい、ある程度アブダクティブ推論の一形態を行うことができます。提供された情報と2021年9月の最後の訓練データまでの知識に基づいて、仮説や説明を生成することができます。ただし、私のアブダクティブ推論能力は、その訓練データに存在するパターンと情報に限定されていることに注意してください。複雑または専門的な問題については、最新の情報と研究にアクセスできる特定の分野の専門家に相談することをお勧めします。」
ご覧のように、訓練データに存在する同じパターンにパターンマッチングする場合にのみ推論できます。
GoogleのGeminiも本質的に同じことを言いました。
そして、Claudeに尋ねたとき、Claudeはより興味深く正直でした。アブダクティブ能力を持っていないことを本当に認めた唯一のものでした。
「私にはアブダクティブ推論のための特定の能力はありませんが、その概念を説明しようと思います。アブダクティブ推論は、限られたまたは不完全な情報に基づいて、最も可能性の高い説明への推論を行うことを含みます。典型的には、観察または一連の観察から始まり、それらの観察を説明できる最も単純で可能性の高い結論を見つけようとします。
私にはアブダクティブ推論のための明示的なプログラミングはありませんが、私の機械学習能力の一部により、論理的推論を行い、限られた情報に対して可能性の高い説明を提供することができます。しかし、人間が持つような柔軟なアブダクティブ推論能力は持っていません。私の推論は、訓練データとアルゴリズムが可能にするものに限定されています。」
機械学習のもう1つの課題は、それが貪欲で大量のデータを必要とすることです。ChatGPTのようなシステムは貪欲で、すでに訓練セットを使い果たしつつあります。そのため、彼らは合成データを作成しています。これはクレイジーに思えますし、その問題を解決するための正しい道筋とは思えません。
最近、主要なAI企業がデータを使い果たしているという多くの話がニュースで報じられています。
これらは、私が言及したいと思っていた欠落のいくつかに過ぎません。確かに他の欠けている部分もあると思います。この議論の範囲を、そこに何らかの種類の知能があるかどうかに限定しようとしました。
しかし、はい、偏見や公平性の欠如、誤情報、ディープフェイク、より一般的には調整、これらのシステムをクラウドで実行することの環境への影響、そしてもちろん、雇用や経済への影響など、他の重要な問題もあります。
しかし、私がこれらすべてを提供するのは、知能が本当に難しく、ある種神秘的なものであることを強調するためです。
今日のシステムに欠けているものをまとめる別の方法は、信頼性です。ゲイリー・マーカスとアーネスト・デイビスが言ったように、「核心的な問題は信頼です。現在のシステムは重要なことに関して信頼することができません。」
Googleの実験的なAI検索の概要で、接着剤やピザ、岩などについて見てきたように。
要するに、今日欠けているのは、基本的に私たちが信頼できる広範な知能です。
別の言い方をすれば、トップダウンの知能がないということです。機械学習の短所は、それがボトムアップであり、知識が観察からのみ収集されることです。しかし、知能には世界に関する事前知識や背景知識に基づいたトップダウンの推論も必要です。
Googleの検索は長年、機械学習と記号操作を組み合わせてきました。そのため、彼らのAI検索結果がなぜそれほど信頼性がないのか、私には謎です。
では、人工汎用知能にどのようにして到達するのでしょうか?常識と真の推論を解決することは、人工知能における真の革命になるでしょう。しかし、現在のシステムでそこにたどり着く方法が見えません。
繰り返しますが、これらすべての欠けている部分を考えると、なぜ今こんなにもハイプ(誇大宣伝)があるのでしょうか?なぜAI開発者たちは、AGIがすぐそこまで来ていると自信を持っているのでしょうか?私が言ってきたことすべてを彼らは理解しているはずです。
私は、それは冷笑的な誇張と一種の集団思考の組み合わせだと思います。私たちがほぼそこに到達したと人々に思わせることは、これらの企業にとって利益になります。そして、業界の人々の中で、現在の知能へのアプローチの基礎となる理論に疑問を投げかける動機を持つ人はほとんどいません。
機械学習と大規模言語モデルを超えた何か斬新なアプローチを指摘しているAI企業がないのであれば、カーツワイルが予測するように2029年までにAGIに到達する方法が見えません。
常識と真の推論を解決することが鍵となるでしょう。私たちにはより頑健な心の理論が必要です。
実際、OpenAIはこの短所を認めています。本質的に、OpenAIのCEOであるサム・アルトマンは、現在のアプローチと大規模言語モデルで行き詰まっていると思うと述べています。
彼は、これらのモデルは限界に達しており、将来の進歩には新しいアイデアが必要になるだろうと言っています。モデルを大きくすることでは進歩は来ないだろうし、他の方法で改善する必要があるだろうと。しかし、彼は具体的にどのようにするかは言っていません。
とにかく、彼の発言は、GPT-4(OpenAIの最新モデル)が、モデルを大きくしてより多くのデータを与えるという同社の戦略から生まれる最後の主要な進歩となる可能性があることを示唆しています。
実際、OpenAIのCTOであるミラ・ムラティは今月、同様のコメントをしました。「研究所内部では、これらの優れたモデルがあります。そして、それらは一般の人々が無料でアクセスできるものからそれほど先を行っているわけではありません。」
OpenAIは、新しいアプローチを作るために彼らが使用している代替的な研究の種類について何の兆候も示していません。彼らがそれをしているとしてもです。だからもしかしたら彼らはそうしていて、私たちはそれを知ることになるかもしれません。
まとめると、カーツワイルやOpenAIの周辺にいる人々は、AGIがすぐそこまで来ていると非常に自信を持っています。
このようなハイプを助長することは明らかに企業の利益になりますが、それはまた一種の集団思考と、現実から乖離した一種の誇張された熱狂を生み出します。
おそらく私たちには新世代のAI研究者が必要です。2019年にUCLAのコンピューターサイエンス学科長であったアドナン・ダーウィッシュの言葉を引用すると:
「私たちには、古典的AI、機械学習、そしてより広くコンピューターサイエンスに精通し、それらを評価する新世代のAI研究者が必要です。同時に、AIの歴史についても知識を持っている必要があります。AI研究者は、今日のビッグデータへの熱狂の中でしばしば忘れられているコンピューターサイエンスの多くの貢献だけでなく、心理学から言語学、神経科学に至るまでの幅広い他の分野からも引き出さなければなりません。」
私はそのリストに哲学も加えたいと思います。
目標が真の汎用知能を作ることであれば、それは役立ち、適応可能で、堅牢な方法で振る舞うことができる必要があります。信頼性が必要です。
そこにたどり着いたとき、もし私たちがそこに到達したら、全く人間の知能とは似ていない、全く新しい形の知能を作り出したことに気づくかもしれません。
繰り返しますが、結局のところ、私はこれらのことについて考えるのが大好きな技術者であり未来学者です。技術の進歩に興奮していますが、AGIについて現在なされている途方もない主張には懐疑的です。
一般の人々は、今日の技術について真実を知る価値があると思います。
そして、hey、どこかの研究所で開発者やAI研究者がアブダクションや象徴的表現に取り組んでいるかもしれません。あるいは何らかの方法で常識を解決しようとしているかもしれません。私にはわかりません。そうであることを願っています。
この動画では、私たちを独特に人間たらしめているものについてさえ触れていません。それは知能を超えたものだと思います。想像力、直感、感情的知能、身体性、そして知恵を含みます。
私の次の動画では、今日のシリコンバレーでAI開発を推進しているイデオロギーに踏み込みたいと思います。それには、トランスヒューマニズム、サイボーグ主義、そしてシリコンバレーから生まれているその他の種類のテクノ・イデオロギーが含まれます。
もちろん、いくつかの技術的な詳細を間違えたり、重要なことを省略したりしたと思います。コメントで訂正していただくか、メールを送っていただければと思います。
ここまで視聴していただいた方には、本当に感謝します。お付き合いいただき、ありがとうございます。役立ち、楽しんでいただけたら嬉しいです。そしてこの動画があなたにとって啓発的だったことを願っています。
コメント