最初の強いAI | この人工知能が世界を変える

19,028 文字

Первый СИЛЬНЫЙ ИНТЕЛЛЕКТ | этот ИИ изменит мир
Тюменские умные часы тут: Промокод NAUKA2 - скидка до 500р.  Часы CaseGuru = смартфон на руке. Работают до 10 СУТОК без ...

ほな、2024年6月に、OpenAIを安全性への懸念から退社した元社員が、人工超知能の危険性についての注目を集める論文を発表しましたわ。著者はレオポルド・アッシェンブレンナーといい、その論文は現在、学術界では驚異的な数字となる1万以上の引用を集めてます。
そこで今回は皆さんと一緒に彼の論文を分析して、私たちはもう負けてしまったのか、それともまだ明るい未来が待っているのかを考えていきたいと思います。
ただし、これを本当に理解するためには、以下のようなことも知る必要がありますな:

現代の人工知能はどのように発展してきたのか
GPTは本当に賢いのか
人間の知能と人工知能の違いは何か
今後3年間で科学にどんな革命が起こるのか
そして最後に、強い人工知能をいつ、どのように実現できるのか

こんにちは、私はアンドレイ・ヴェリコハツキーです。それでは始めましょう。
レオポルドの論文は約6ページの長さですが、そこで繰り返し主張されているのは、主に以下の点です。著者は3年以内に、博士号取得者や各分野の専門家と同等の知能を持つ人工知能が登場すると予測しています。
この主張を裏付けるため、彼はGPTの時間経過による性能向上を示すグラフを提示しています。それによると、GPT-2は就学前教育レベル、GPT-3は中学校レベル、GPT-4は高校レベルで、この傾向が続けば、科学研究や工学的解決策を自律的に行える人工知能の出現につながるとしています。
基本的に私も著者の結論には同意しますが、まず批判から始めたいと思います。
第一に、このグラフは実質的に何も示していません。これは著者の主観的な感覚に基づくモデルの性能評価であり、予測の客観的な根拠とはなり得ません。
第二に、大規模言語モデルの性能を人間の教育レベルと比較することは、便利な類推ではありますが、実際には完全な的外れです。以前の人工知能に関する動画で詳しく議論したように(これからもよく参照することになりますが)、GPT-2は非常に小さなメモリ容量、より正確には非常に狭いコンテキストウィンドウのため、2-3文程度しか生成できませんでした。
一方、子供たちは魚のような短期記憶を持っているわけではありません。実際、彼らの記憶力は遥かに優れており、シナプス結合の数も博士号取得者よりもずっと多いのです。ただし、学習と発達のプロセスは主に、自分の体をどう制御し、何ができるのかを理解することに費やされています。
そして第三に、最も重要な点として、GPTのような大規模言語モデルは人工知能ではありません。少なくとも、これは議論の余地のある問題です。
再び以前の動画で議論したように、これらのモデルは人工知能として我々が想定する全体構造の一部に過ぎず、深層学習という手法の一部に過ぎません。つまり、動物に関するあらゆる事実を豚の手羽先のレシピと同じように出力できるGPTを本物の人工知能と呼ぶのは、DOTAで人を圧倒できるのに鼻くそも取れない小学生を天才と呼ぶようなものです。
実際のところ、人間の知能についてさえ、厳密な定義や根本的な理解は存在しません。そのため、人工知能の定義は非常に抽象的なものとなっています。これは別の哲学的な流れとなりますが、例えば、汎用人工知能や強い人工知能は人間と同等かそれ以上の知的能力を持つべきとされますが、具体的にどのような能力かについては議論が分かれるところです。
つまり、論理的推論ができ、学生と同じレベルで物理学の論文を書けるような仮想的な将来モデルが、実際の確認実験を行えず、現実世界への影響を理解できない場合、それを強い人工知能と見なせるかどうかは、やはり議論の余地がある問題です。
現時点では、鼻くそを取るような問題は人工知能には当面関係ないことは明らかです。ただし、ここにも疑問はあります。というのも、最近の最も画期的な研究の1つは、Googleのディープマインドによる仮想ラットのシミュレーションです。これは実際の脳を基に学習した仮想脳に基づいて動きが生成されるもので、実質的に革命的なものです。
なぜなら、このモデルは単なる生成結果ではなく、動機や欲求、因果関係を持っているからです。
いずれにせよ、GPTやその他の言語モデルのスケーリングが性能に影響を与えるという点は正しく、ここでは著者に完全に同意します。
それはすべて、あらゆる言語モデル、そして実際にはディープラーニングの他のアルゴリズムの基礎にあるのがデータの分類だからです。これについても、人工知能に関する動画で詳しく説明しましたが、簡単に言えば、大量のテキストをモデルに読み込ませて学習させる、つまり次の単語を予測するように訓練すると、モデルは自然に意味によって全ての単語を分類します。
これを視覚化するために少し幾何学を使うと、数字は一箇所に、惑星は別の場所に、ハスビクのミームは第三の場所にあるような、意味の雲として表現できます。重要なのは、モデルはこれらの単語の意味を理解しているわけではなく、ミームなどはなおさらということです。
モデルにとって、これらはすべて行列と数字の羅列に過ぎません。単に、数字は数字と一緒によく出現し、惑星は惑星と一緒によく出現する、というだけなのです。
したがって、計算能力を増やし、より多くのテキストを処理し、より多くの単語間の関連性を構築できれば、量子力学から釣りのルアーの使い方まで、モデルはより多くの個別の意味を区別できるようになることは明らかです。つまり、モデルは引用符付きで「賢く」なるわけです。
しかし、魔法のような革命が起こるのは、モデルが単なる単語の意味だけでなく、例えば喜び、悲しみ、楽しさなどの感情に依存する意味を区別し始めるときです。つまり、前向きで肯定的な言葉は一緒によく現れ、否定的な言葉は否定的な言葉と一緒によく現れます。
あるいは、「超知能」という言葉が人工知能の文脈だけでなく、DOTAプレイヤーの知能の文脈でも使われる場合のように、文脈に依存して単語の意味が変化する場合、より正確に言えば、単語の意味論的な意味を区別する場合です。
私たち人間はこれを、モデルが善悪やユーモアについて何かを「理解している」と解釈します。しかし、私の意見では、「理解する」という言葉は適切ではありません。「区別する」という言葉の方が適切でしょう。
つまり、GPTがユーモアを理解すると言う人がいますが、これは正確ではありません。このモデルがユーモアの文脈を区別できると言う方が適切です。
このような「理解」はGPT-2の段階ですでに形成されていましたが、問題は、テキストや発話が単なる単語の連続ではなく、論理的な思考の連鎖で結ばれた考えの連続だということです。そのため、GPT-2は2-3文を生成した後にはでたらめを生成し始めていました。
この問題を解決したのが、トランスフォーマーと呼ばれる新しいアルゴリズムです。これは単に次の単語を予測するのではなく、文脈に応じて予測することを学習しました。つまり、モデルは何らかの文脈を理解し、それに基づいて予測できるようになったのです。
そのため、GPT-3以降、各単語には複数の文脈的な意味があり、モデルは小さなエッセイ程度の長さのテキストを生成できるようになりました。
実際、この時点から、言語モデルの計算能力とサイズを競う競争が始まりました。より多くの文脈を知っているほど、モデルは引用符付きで「賢く」なるからです。
今日利用可能なGPT-4やGeminiなどの言語モデルは驚くべき結果を示していますが、次の飛躍までにはまだ大きな隔たりがあります。
第一に、文脈の問題があります。たった数百の単語からでも、通常の数学的計算の範囲を超える、つまり事実上無限の数の文を作ることができます。
第二に、今日のモデルの学習には、利用可能なすべてのデジタルテキスト情報がすでに使用されています。学習に使用する新しいデータがありません。一方、人間のような本当の知能は、有用なデータを学習するだけでなく、自らそれを生成します。
第三に、入力データと出力データのサイズも重要です。例えば、火星を舞台にした新しい「戦争と平和」をモデルに書かせたい場合、モデルは70万文字以上の文脈を保持する必要があります。
あるいは、2023年に書かれた30万以上の長寿に関する論文を学習させ、最も成功したレシピを出力させたい場合、少なくとも45億文字の文脈を保持する必要があります。つまり、数字のオーダーが完全に非現実的です。しかもこれは、事実上無限にある例のほんの一部に過ぎません。
モデルのサイズと計算能力を増やすだけで文脈ウィンドウを拡大できるのでしょうか?もちろんできます。実際、業界のすべてのITリーダーがまさにそれに取り組んでいます。
しかし、無限に近づく文脈を収容できるような計算能力は現在存在せず、近い将来にも存在しそうにありません。つまり、常に何らかの制限があるということです。
とはいえ、個人的には – そしておそらくレオポルドも – 将来何が起こるかはわかりません。ただ、2024年の最も賢明な買い物の一つが、単なるスマートウォッチではなく、多くのユニークな機能と優れた機能性を備えたものであることは知っています。
私が言っているのは、チュメニの企業Case Guruのスマートウォッチ、CG Watchについてです。Case Guruのスマートウォッチには、クリアな音声のヘッドセットが内蔵されており、直接通話ができます。チュメニのウォッチはAndroid、iOS、Windowsと互換性があります。
CG WatchにはCase Guru独自の省電力システムがあり、バッテリーを節約し、10日間持続し、同期が外れることはありません。手首を締め付けたり刺激したりすることもありません。
CG Watch Forceには100以上のスポーツモードが搭載されており、航空機用アルミニウム製の耐衝撃性ケースにより、ガジェットを壊す心配なく、あらゆるトレーニングを行うことができます。
また、CG Watch Classicの454ピクセルの画面は、強い日差しの下でも斜めからでも情報を確認できます。画面のQRコードをスキャンするか、説明欄のリンクから合理的な価格のCG Watchをチェックしてください。私のプロモーコード「nauka2」を使用すると、500ルーブルまでの割引を受けられます。
話を戻しましょう。私は大規模言語モデルをほとんど使用していないことを認めなければなりません。使用する場合でも、日常的な質問や簡単なスクリプトの作成程度です。そのため、現在の公開モデルの状態にはあまり詳しくありません。
ただし、私はGoogleのGeminiのテストモデルにアクセスできます。これは一般公開前に「走り込み」を行っているものです。Gemini Proの一般公開前から、私は100万文字のテキストを処理できるモデルを使用する機会がありました。
例えば、一般公開されているGPTは数万文字程度に制限されているようです。そこで、私は本や論文を読み込ませ、さまざまなプロンプトを試してみましたが、何をしても、出力は常にでたらめでした。モデルは全文脈を一度に処理せず、数千文字ずつに分割し、その結果も数千文字を超えることはできませんでした。要するに、すべて場当たり的な対応だったのです。
言い換えれば、3つのGPTリリースに基づいて単純にトレンドラインを描き、「これがすべてだ」と言うことはできません。それを数十年先まで延長すると、計算効率が可視宇宙全体の自由な量子ビット情報量を超えてしまうことになります。
これは、最初の2機の飛行機に基づいてトレンドラインを引いた場合、今日までに無限のマルチバースのすべての宇宙を訪れているはずだと言うようなものです。
つまり、大規模言語モデル、深層学習、そして人工知能全般の次の飛躍的発展には、GPT-2からGPT-3への移行時のような、アルゴリズムにおける新たな革命が必要です。現時点では、そのような革新的な新アルゴリズムは存在しません。少なくとも、私はそのようなものを知りません。
もし存在するなら、論拠のある批判をコメント欄に書いてください。私は謝罪の動画を作成します。
とはいえ、現時点では既知の言語モデルとは異なるアルゴリズムを持つ、いくつかの有望な候補があり、これについてはまもなく話し合うことになります。
汎用人工知能の実現は時間の問題であり、私の控えめで確実性を主張しない見積もりでは、確かに3-5年以内に達成されるでしょう。重要なのは、どのような形で、どのような機能を持つかということです。
いずれにせよ、OpenAIの新しい人工知能「Orion」について、「Strawberry(イチゴ)」という新しいアルゴリズムを使用するという噂が、ますます多く流れ始めています。
これがGPT-5になるのか、まったく異なるモデルになるのかは、まだ完全には明らかではありません。しかし、サム・アルトマンが安全性を確認するため、新しい開発を米国政府に披露しているという数日前に登場したニュースは、想像力を刺激し、強い人工知能の新しい革命が迫っているという陰謀論的仮説に向かわせます。
しかし、真実は、科学界が革命に対して懐疑的な態度を取っているということです。陰謀論にもかかわらず、超知能の襲来から身を守るために森に逃げ込んで地下壕を掘っている人を、私は知りません。
それは、OpenAIにはもはやGPT-3の時代のような重要な競争上の優位性が、アルゴリズム、研究、計算などのいずれの面でもないからです。
この業界には巨額の数十億ドルが投資されており、研究は数百、あるいは数千の企業によって、ほぼ同じ条件で、ほぼ同じ結果で行われています。
メディアではなく、より専門的な情報源からの噂も、同じトランスフォーマー技術の単純な改良について語っています。
彼らの新しい「イチゴ」の第一の改良点は、すでに使い果たされた既存の実テキストデータだけでなく、自身が生成したテキスト、つまり合成データでも学習したということです。これは他のニューラルネットワークで検証されたか、よくあるように、アウトソースの何千人ものインド人軍団によって検証されたと思われます。
先ほど話したように、より多くのデータは、より高い精度につながります。モデルは皆さんが想像できるどんな馬鹿げた質問にも対応できるようになり、幻覚も少なくなります。
このようなデータがどれほど信頼できるのかと疑問に思うかもしれませんが、OpenAIレベルの企業が、自社のソリューションに確信が持てないまま、何十億ドルもの資金を投じてモデルを学習させることはありません。
私にとって、このような疑問を抱くのは、アフリカ人になぜスキーが必要なのかと疑問に思うようなものです。
そして第二の改良点は、おそらく「イチゴ」が自身の回答をチェックできる、つまり一つ一つ行動を検証できるということです。
以前のバージョンのGPTのリリース時にも、モデルに前の回答をチェックさせると、対話の精度と文脈が向上することが発見されていました。私の推測では、新しいモデルでは、同様のことが自動的に、より高品質なレベルで実装されるでしょう。これもまた、出力される結果の質を向上させることになります。
「なぜOpenAIの新モデルについてそんなに長々と話すんだ」と思われるかもしれません。第一に、それは私が面倒くさがりのスクーフだからではなく、大衆迎合的な発言に批判的に接し、自分の頭で結論を出すよう皆さんに呼びかけているからです。まあ、少なくとも面倒くさがりではあるようですが。
第二に、これは人間の知能、その脳、そして人間の知能に匹敵する本当の強い人工知能を達成するために解決すべき問題について、より深い考察へと私たちを導くからです。
このような考察を始めるにあたって、人間の脳は未来を予測する機械だということから始めたいと思います。ヴァンガやノストラダムスの予言について話しているのではありません。生存と利用可能なエネルギーのより効率的な使用を目的として、より有利な将来の行動を可能にする生物学的アルゴリズムについて話しているのです。
皆さんの明るく、incredibly intellectual(非常に知的な)な脳の中で起こっているすべては、未来を予測しようとする試みです。私たちは現在に生きているのではなく、さまざまな距離を持つ抽象的な未来に生きているのです。
どんな服を選ぶか、昼食をどこで食べるか、デートで女性に何を言うか、鼻をほじるか、これらはすべて将来の行動の予測です。過去について考えるときでさえ、私たちは過去の状況に戻った抽象的な未来の中に自分を置いているのです。
このような予測には、大脳皮質の約15万のカラムが関与しています。各カラムは多層ニューラルネットワークであり、それぞれが色、音、質感、匂い、重さ、慣性など、特定のパラメータによって周囲の世界を分類しています。
予測自体は、無意識の作業と意識的な作業に分けることができます。無意識の作業は、私たちの記憶や脳の確立されたニューロンパターンに基づいて行動の結果を出力するものです。
例えば、歩行です。脳は子供の頃にほとんどあらゆる表面や地形を学習しているので、今日、一歩を踏み出すたびに、バランスを保つために足をどう置くべきかという既存のパターンを出力します。
あるいは、私が「2×2は?」と尋ねたら、すぐに「4」と答えられますね。頭の中で数学的な計算をする必要はありません。答えはすでにあるのです。
しかし、「4327×133は?」と尋ねた場合、計算なしで答えられる人はいないでしょう。意識的な作業と論理的推論が必要になります。
このような作業は、脳が計算を行い、イメージを想像し、研究結果を予測し、仮想的な状況に自分を置くことができる現実のシミュレーションを作成することです。つまり、私たちが意識と呼ぶものすべてを行うのです。
私の説明で要点を少しでも伝えられたことを願っています。もし興味があれば、チャンネルには意識と知能の進化に関する3時間の動画があります。ただし、意識を何か理解不可能なものと考え、脳を何らかの受信機と見なす高尚な哲学者向けではありません。また、理解不可能なものを理解したい人向けでもありません。
さて、大規模言語モデルに話を戻しましょう。これらは私たちの脳の無意識的な作業と比較するのが適切です。「2×2=4」という答えを出すのは、モデルがテキストを出力するのと同じようなものです。
ただし、人間の場合、文脈のウィンドウと記憶力が非常に小さく、長い詩を覚えるのさえ難しく、まして記事や本全体となるとなおさらです。この点で、言語モデルはすでに私たちの能力を何桁も上回っています。利用可能なすべてのテキスト情報が圧縮されているのです。
しかし、私たちには意識的な部分があり、それは何十万もの小さな断片から、単なるテキストではなく、現実世界全体のシミュレーションを一歩一歩再構築することができます。この中で、私たちは論理的な結論を導き出すことができます。
私たちの脳では、あらゆる可能な解決策とシミュレーションの木構造全体のパターンが、絶え間なく瞬時に活性化されています。
現在の人工知能にこのような特性を与えることは、人間には単純に不可能です。それは複雑すぎる課題です。しかし、落胆する必要はありません。将来の強い人工知能がそれを実現できるからです。これについては数分後に話し合うことになります。
問題と懐疑論は、脳の働きを理解するのが信じられないほど困難であり、そこで行われている創発的な論理演算を理解することはおそらく事実上不可能だということにあります。
さらに、言語、文字、ジェスチャーの形で情報を交換する責任を持つ大脳皮質の領域、つまりウェルニッケ野とブローカ野は、大脳皮質全体のほんの一部に過ぎません。
大部分は、私たちのパーソナリティ、身体、感覚、欲求、そして私たちを取り巻く無限に広大な世界のモデリングを担当しています。この点については、意識に関する動画をご覧ください。
つまり、人工知能が本当に人間らしくなるためには、この世界を理解し、その中での自己を感じる必要があります。真実は、既知のニューラルネットワークはインターネットをまともにサーフィンすることさえできないということです。
常に表示されるバナー、サイトの異なる幾何学、その他すべてには、意識と世界の理解が必要です。
一般的に、テキスト処理だけでもどれだけ巨大な計算能力が必要かを考えると、必要な計算量と効率性を満たすまでに、まだ数十年の技術進歩が必要であることを理解するのに、深刻な計算は必要ありません。
これは、私たちの運動能力、触覚、感情などを再現する必要があるツールについてはまだ言及していないのです。
しかし、強い人工知能はどのような人間の特質を持つべきかという議論に戻ると、そもそもなぜ人間に似せる必要があるのかという疑問が浮かびます。私たちは決して完璧な存在ではありません。なぜ同じものを作る必要があるのでしょうか?
強い人工知能は、生命ではなく情報処理の全く異なる形態となる可能性が非常に高く、その道はおそらくOpenAIの新しい「イチゴ」から始まるでしょう。
これは、以前に生成された情報での学習と、ステップバイステップでの回答の検証が、私たちが推論と呼ぶものの一種の応急措置的なプロセスだからです。
というのも、私たちがアイデアや思考を考える時、意識的にせよ無意識的にせよ、最終的に満足のいく結果が得られるまで、最終結果のさまざまなバリエーションをモデル化します。大雑把に言えば、結果を確認しているのです。
言語モデルはリアルタイムで学習し推論することができないため、知識の量で補っています。これは、最終的にモデルがすべての可能な関数、パズル、抽象的な課題、コード作成などの解決策を知ることになる、自分自身との対話のようなものです。
つまり、最終的には既知の知識の範囲内で、基本的な根本的なリクエストのあらゆるバリエーションに対する答えを持つことになる可能性が非常に高いのです。これにより、回答、数学的解決、コード作成の精度が向上し、大雑把に言えば、より賢くなり、でたらめを出力することは少なくなります。
しかし、論理的推論と強い知能には、まったく異なる要素が必要になります。そのようなモデルは単なる知識とスキルのベースとなるでしょう。
すでに述べたように、この時点から「強いAI」と呼ぶことにする第一世代の強い知能には、世界、感情、意識の理解は必要ありません。必要なのは、十分に大きな文脈を処理し、新しいアイデアを生成し、自動的に学習できることだけです。
基本的な知識はすでにあり、「イチゴ」のようなモデルにすべての新しい開発、論文、その他の科学出版物が読み込まれ、新しい情報を処理し、結果を得て、他の研究と比較し、最も良いバリエーションを選択して実験を行います。いわゆるエージェントとなるのです。
したがって、もし映画や本に出てくるような強いAIを想像していたとすれば、第一世代はおそらくそれらとは似ていないでしょう。まだ何も理解せず、知的能力の面でも人間と比較できるものではなく、むしろ完全な意識は持たないが意識的な選択、つまり以前の経験に基づく選択を持つラットのような哺乳類と比較できるでしょう。これについては意識に関する動画で詳しく説明しました。
それでもなお、このモデルは記憶容量とデータ処理能力の点で人間を驚くほど上回るでしょう。そして、これこそが私たちが求める最も重要な特質なのです。
すでに議論したように、毎年、各科学分野で何十万もの科学論文が書かれており、それらの中で、あるいはそれらに基づいて革命を起こすことができます。しかし、それらを読むだけでも人間には1000年かかるでしょう。
一方、何らかのGPUや他のマルチスレッドプロセッサの工場全体から動作する自動化された強いAIは、数日でそれらを処理し、論理的な結論を導き出し、さらに実験を続けることができます。
これはまだ試行錯誤の愚直な方法ですが、処理と生成の量を考えると、そのようなモデルが新しい革命を発見する可能性は非常に高いです。
これは、数学、生物学、化学、そしてもちろん人工知能を含むプログラミングなどの分野で、真の科学的飛躍となるでしょう。
すでに述べたように、人間が近い将来、本物の強いAIのプログラミングアルゴリズムにおける真の革命を起こすことができる可能性は低いですが、このような自動エージェントは確かにそれを実現できるかもしれません。
重要なのは、現時点では、そのようなアルゴリズムがどのようなものになるのか、どれだけの計算能力を必要とするのか、最終的にどのような特質を持つことになるのか、そしてどのようなリスクを伴うのかを知ることができないということです。
グラフをいくら描き、予測をいくら立てても、ワープドライブの開発グラフと同じくらいの実用的な価値しかありません。しかし、まもなくこのトピックについて少し考察を試みることにします。
現時点で重要なのは、美しいCool Storyにもかかわらず、すべてがそれほど単純ではなく、現時点では自己学習が可能で新しい知識を生成できるそのようなエージェントの存在は知られていないということです。
それでも、今日、何百ものスタートアップが何十億ドルもの投資の圧力の下で解決策を探し、その開発に取り組んでいます。
そのようなエージェントがいつ登場するかについて語るのは難しいですが、業界の多くの専門家は3-5年という期間を支持しています。今日の動画の主人公であるレオポルド(おそらく多くの人がすでに忘れていると思いますが)も3年という期間を挙げています。
もちろん、これらはすべて単なる予測ですが、ほんの2週間前、日本の研究スタートアップSyna AIが、科学論文を処理し新しい研究を書くことができるモデルに関する論文を発表しました。
研究者たちは、彼らのAI研究者が人工知能分野における科学的発見のための完全に自動化されたシステムであり、新しいアイデアの生成からコード作成、実験の実施、結果の視覚化、そして完全な科学論文の執筆まで、研究のサイクル全体を含んでいると主張しています。
つまり、事実上、先ほど話したような研究エージェントに似ているわけです。
論文では、このアルゴリズムの動作も説明されており、大規模言語モデルの機能を使用して新しいアイデアを生成し、それを実験し、成功した結果を選択し、そして学術基準に従って完全な論文を書くと述べています。つまり、まさに私たちが話していたことです。
しかし、このエージェントには欠点がないわけではありません。これは最初の成功した実装の試みに過ぎないため、画像、グラフ、計算、コード作成の処理において時々エラーを起こすと、著者たち自身が述べています。つまり、OpenAIのOrionやGPT-5など、次世代の言語モデルが解決すべき同じ幻覚の問題があるということです。
しかし、いずれにせよ、すでに新しいアイデアを含む論文を生成しており、個人的にはこれが人工知能革命の素晴らしい始まりだと思います。
ただし、続ける前に、もし私の仕事が気に入っていただけたなら、チャンネルを「いいね」で、可能であれば説明欄のリンクから財政的にも支援していただけると幸いです。現在、YouTubeの低迷により不安定な時期で、広告主が料金を下げており、それでもチャンネルの費用を賄えていませんでした。そのため、皆様のご支援に感謝いたします。ありがとうございます。
レオポルドの論文に戻りましょう。彼は私が依然として懐疑的に見ている多くの抽象的なグラフを提示していますが、それらは私たちが議論した基本的な主張を反映しています。
例えば、深層学習システムがすでに人間のレベルに達している分野を示す垂直グラフがあります。これらが垂直なのは、単にそのような技術が以前は存在しなかったからです。飛行機の例と同じですね。
彼はモデルのサイズと計算能力に対する効率性のグラフを示していますが、なぜかGPT-2を除外しており、GPT-3への移行時のアルゴリズムの技術的飛躍を無視しています。確かに、アルゴリズムの重要性は指摘していますが、再び精度と結果出力速度の抽象的なグラフを示し、学習コストと比較していますが、これは私の意見では全く意味がありません。
レオポルドはまた、人間に似たAIは必要なく、新しい革新的なアルゴリズムを発見できる自動研究エージェントが単に必要だという同様の主張を展開しています。
彼は再び抽象的なグラフを示し、そのような自動エージェントの発見後、計算効率が宇宙へと飛躍的に向上すると描いています。左上隅には超知能に関する疑問が潜んでいます。
しかし、私にとってより注目すべきは、この時点から、テキストに原子兵器との比較、軍事的優位性、中国や中東諸国という形でのアメリカの敵に関する考察が現れ始めることです。これは実際のところ、この論文が何についてのものなのか、なぜそれが存在するのかを暗示し始めています。
これについては後ほど話しましょう。今は超知能に少し焦点を当て、考察してみたいと思います。
まず注意すべきは、私たちは完全なファンタジーの領域に入るということです。すでに述べたように、人間の知能にも厳密な定義はなく、強いAIにも厳密な定義はありません。そのため、提示される主張や例は、エジプト神話と同じくらい信頼できる、それ以上でも以下でもありません。
それでも、私の意見、そして多くの専門家の意見では、超知能達成への道筋は相当明確です。人間の知的能力に匹敵し、世界を理解し、その中での自己を理解する本当の強いAIを作ることができれば、超知能の出現はその瞬間に起こるでしょう。
なぜでしょうか?それは生物学的生命に制限されず、自分の知性をさらに発展させ、完成させることができるからです。
しかし、そのような本当の人間らしい強いAIを実現することは、非常にシンプルな理由で信じられないほど困難です。私たち自身が、世界を理解するとはどういうことか、そしてそれをどのように論理的、数値的に表現できるのかを知らないからです。
もちろん、コメント欄の哲学者なら必ずこの質問に答えられるでしょう。しかし、その後に次の哲学者が現れ、それは完全なナンセンスだと主張し、自分の意見を述べることでしょう。これこそが、哲学と科学の違いなのです。
いずれにせよ、個人的には人間らしい強いAIをどのように達成するかについて、明確なビジョンを持っています。私たちは単に、再び自然を模倣するのです。ただし、少し異なる形で進化を模倣します。
明らかなのは、もし今すぐに人間の内部プロセスをすべて含む完全な合成コピーを作ることができたとすれば、肉眼でその違いを発見することは単純に不可能だということです。
しかし、人体の構造、その分子化学、神経生物学について少しでも理解している人なら、これはほぼ解決不可能な課題だと理解しているでしょう。
それでも、現時点で唯一の完全なデジタル生成生物が存在します。それは最も単純な線虫のデジタルコピーです。この実在する生物は約1000個の細胞から成り、そのうち約300個がニューロンです。
科学者たちは、このような線虫のシミュレーションを作るために24年以上を費やしました。これはたった1000個の細胞からなる最も信頼できるシミュレーションで、餌を見つけ、交配し、有害な環境を避け、捕食者を避け、さらには卵を産むこともできます。
しかし、現時点では、より大きな生物で同様のことを行うのは、人的資源の観点からも、技術的可能性の観点からも、単純に不可能です。
現時点で最も大きな完全にマッピングされた生物は、ゴマの種ほどの大きさの小さなハエです。しかし、その脳だけでも約10万個のニューロンが含まれており、それらは現時点では計算不可能な数の結合とパターンを形成しています。
このような研究は、Googleリサーチからうまく資金提供を受けているThe Human Brain研究グループによって行われています。彼らは現在、約7100万個のニューロンを持つマウスの脳の完全なマッピングに取り組んでいます。
チームは、マウスの脳を解読できれば、人間の脳の仕組みを理解できるだけでなく、全く新しいデジタルマインドを作ることもできると確信しています。
言い換えれば、生きた生物のデジタル空間への完全なコピー、人間の生物も含めて、これは何かファンタジーではなく、実際の科学的プロセスだということを言いたいのです。
しかし、問題は少なくとも、成人の人間が30兆個の細胞から成り立っているということ、そしてそれに加えて、直接観察では単純に発見できない抽象的な創発的特性が未知の数だけ存在するということにあります。
The Human Brainの同じ科学者たちは、例えば人間の脳を完全にマッピングする技術的可能性は現在存在しないと述べています。
先ほど話した科学研究のための自動エージェントは、すでに今日、The Human Brainによって、人工ニューラルネットワークに基づくさまざまな技術が目的のために使用されています。これらがなければ、マウスの脳のマッピングも不可能だったでしょう。
そこで、少し高慢に聞こえるかもしれませんが、私のデジタル進化の考えと、本当の人間らしい強いAIを達成する道筋について説明させてください。
将来の自動研究エージェントは、生きた生物のマッピングとシミュレーションの分野で、徐々に技術進歩を加速させていくでしょう。
まず、同じショウジョウバエを完全にシミュレートできるようになり、次にマウス、おそらくその後に犬、そして霊長類全体、最後に創造の冠としてデジタル人間が現れ、それは自身のデジタル世界に住み、私たちと相互作用するでしょう。
これが本当の強いAIを達成する唯一の道のように思えます。より正確に言えば、逆に、研究エージェントが何らかの時点で人間に似たモデルを生み出すという代替の道筋があることに、私は少し懐疑的です。
確かに、人間の知能と区別できないモデルが存在し、すべての生産作業を実行するようになるでしょう。おそらく、ニューラルネットワークによって生成された何らかのデジタル人間モデルも存在するでしょう。
しかし、そのコードは非常に複雑で、現在の人間の体全体を理解できないのと同じように、人間の誰もそれを理解できないでしょう。
言い換えれば、これは何か生きているものなのか、それとも単なる模倣なのかという疑問は常に残ることになります。おそらく、私たちは本当に私たちに似ているものだけを認めることができるでしょう。
もう一度強調しておきますが、これは単なる私の考えです。意識、知能、ニューラルネットワークに関する研究と私の大きな関心に基づいていますが、いかなる予測も主張するものではありません。
興味深いのは、このアプローチが、強いAIに関する一部の懸念を解消するように見えることです。これらの懸念は実際には誤った前提に基づいていますが、よく議論されます。つまり、何らかの理由で私たちがそれを制御できず、なぜか私たちを破壊しなければならないという懸念です。
デジタル進化の枠組みでは、強いAIへの移行は瞬間的ではなく、段階的なものとなります。マウス、犬、霊長類など、各段階で、これは私たちの生活の普通の一部となり、私たちは倫理的な枠組みを拡大し、実際のリスクに対処し、生物と人工生物の統合について考える必要に迫られるでしょう。
私は常々、強いAIとその発展は歴史の避けられない段階だと言ってきました。確かに、一部の人々は強いAIが私たちから仕事と人生の意味を奪うことを心配しています。
個人的には、これは少し無理があると思います。私はいつも、かなり乱暴で不適切な例として、長い歴史の中で、繁栄する文明の基盤に奴隷制があったという事実を挙げています。
これは非常に不適切な例ですが、それが社会の衰退の原因ではなかったことを鮮明に示しています。むしろ逆に、知識階級はそのような都市に集まり、仕事をする必要がない状態で、科学、芸術、歴史、哲学、そして知性と生活の全般的な水準を高めるものすべてに従事していました。
もし万が一そのようなユートピアで私たちが破壊されるとすれば、それはどこかで間違いが犯されたということです。すべてが台無しで、すべてを禁止する必要があるという大衆迎合的なスローガンを叫ぶことは解決策ではありません。
進歩は止められません。それは単に時間の問題です。誰も太陽を禁止しろとは叫びませんが、強いAIの仮説的なケースとは異なり、太陽は確実に私たちを破壊するでしょう。
要するに、実存的リスクに焦点を当てることはやめましょう。人工知能に関する動画でかなり詳しく意見を述べました。すべてが台無しだと叫ぶ人々は常にいましたし、これからもいるでしょう。そして本能的な恐怖が批判的思考を覆い隠してしまう人々も常にいましたし、これからもいるでしょう。
今、私は、もう一つの「Cool Story」の甘美さにもかかわらず、いつものように物事はそれほど単純ではなく、道のりには深刻な問題があることに注目したいと思います。
しかしその前に、チャンネルを支援してくれたミスター・ペッピーに個別に感謝したいと思います。その支援は新しい動画を作り、実存的リスクを恐れずに済むようにしてくれます。ありがとうございます。
実際、本物の強いAIへの道のりには非常に多くの問題があり、この動画の範囲ですべてを議論することはできません。しかし、私は依然として最も基本的な制限は計算能力だと考えています。
すでに述べたように、テキストや音声情報を処理するために、マッチ箱ほどの大きさの大脳皮質のごく一部だけが割り当てられています。
しかし、言語や文章は、私たちの人生で蓄積されたすべての経験を一般化した最後の段階です。つまり、例えば「愛」という言葉を想像するよう皆さんにお願いしたら、共通のイメージはないでしょう。私たち一人一人が、独自の記憶、連想、感覚のカスケードを持っているのです。
これは、家、子供、善、悪、成功など、世界のあらゆる言葉に当てはまります。しかし、ここでより重要なのは、これらが単なる言葉ではなく、完全なシミュレートされた現実だということです。
すでに述べたように、私たちの脳はエネルギー消費を最小限に抑えることを目的とした、将来の出来事をシミュレートする生物学的機械です。そのようなシミュレーションのための一般化された情報は、まず私たちを取り巻く世界全体が一般化され、安定したモデルを作成し、次に私たちの内部感覚すべてが、私たち自身のモデルを作成するために一般化され、その後でのみ、私たちのモデルが何らかの世界モデルに配置されます。
これを私たちは現実として認識し、意識と呼んでいます。言い換えれば、言語領域以外の大脳皮質全体が、これらの言葉に意味を持たせるために働いているのです。これが世界を理解するということです。
問題は、テキスト処理に必要な情報ビット数と、実際に私たちの脳が処理する感覚データの情報ビット数を見積もってみると、少なくとも数十年は計算能力が不足することがわかるということです。
そしてこれは脳だけの話です。実際、私たちの体全体は、条件付きの巨大な集合的知性であり、個々の細胞がそれぞれ何らかの形で隣接する細胞と情報を交換し、膨大な数のプロセスに参加しています。
確かに、自動研究エージェントが計算分野のプロセスを加速させるだろうと言えます。しかし、デジタル生物自体のシミュレーションに加えて、学習のために生息環境、つまり周囲の世界や他の生物などもシミュレートする必要があります。
小さな動物ではまだ問題ないかもしれませんが、複雑な社会構造、感情、知性を持つ霊長類のレベルに移行すると、計算ニーズは途方もないものになります。人間については言うまでもありません。
これがデジタル進化の考えだけに関係するものではないことを理解することが重要です。もし進歩が全く異なる形態の知性を作り出す道を進むとしても、それが現実世界で学習するということには、私は非常に懐疑的です。それはあまりにも非効率的でリスクが高すぎるからです。
この理解は今すでにあります。例えば、NVIDIAや自動運転開発企業は、すでに長い間、自律型アシスタント、ロボット、人工知能の学習のために現実世界のシミュレーションプラットフォームを作成し使用しています。
そこでは人工的に速度を上げ、さまざまな生活上の、あるいは危険な状況を安全に生成することができます。
要するに、私の控えめな推測では、3-5年以内に、研究能力の面で人間に似た強いAIを達成し、それは自動エージェントの形で現れるでしょう。
その後の発展は技術進歩全般に依存しますが、特に計算能力に依存します。これは常に、あらゆる知的システムのボトルネックであり続けるでしょう。
10年以内にラットレベルの知能に到達できると思います。その後、作業は大幅に加速するでしょう。なぜなら、ラットの脳は実質的に人間の脳の縮小コピーに過ぎないからです。より正確に言えば、その逆で、人間の脳が拡大コピーです。
したがって、デジタルラットを作成した後は、GPTのスケーリングに似た生物のスケーリングの問題だけになります。
そこで、自動エージェントの助けを借りて人類が計算能力の成長率を高め始めるという楽観的なシナリオでは、最初の本当の人間らしい強いAIが約20年後に登場すると思います。悲観的なシナリオでは、この期間が30年あるいは50年にずれ込む可能性があります。
いずれにせよ、これは単なる私の考えであり、確実にどんな予測も主張するものではありません。私の本当の予測は、本物の強いAIは間違いなく達成されるということです。これは時間の問題であり、宇宙の歴史の新しい段階となるでしょう。
そして私たち一人一人が、脳とシミュレートされた現実の間の通信プロトコルを通じて、知的なデジタル生命形態に囲まれた自分だけの世界に没頭し、進歩の発展に取り組むことになるでしょう。つまり、GTA 15ですね。まあ、彼らのリリース頻度を考えると、おそらくGTA 9でしょう。
ところで、レオポルドのことをほとんど忘れていました。彼も第2章で自動研究エージェントについて語っています。これは開発の一般的な傾向です。彼は再び「To the Moon」グラフを描き、2030年までに超知能が達成されると示しています。
しかし、同時に計算能力、人間の知能を制限要因として、アルゴリズムの開発の限界、アルゴリズムの複雑化など、ボトルネックについても適切な議論を展開しています。彼の場合、すべてのボトルネックはエージェント自身によって解決されます。
まずAIの爆発的発展が起こり、次にロボット工学、そして科学の進歩、そして産業経済の進歩がアメリカで起こると。はい、そうです。彼は次のように書いています:
「小規模な超知能の文明は、保護されていないあらゆる軍事、選挙、テレビなどのシステムをハッキングし、将軍たちと有権者を巧妙に説得し、国家を経済的に凌駕し、新しい合成生物兵器を開発し、そしてその合成のためにビットコインで人間に支払うことができるだろう」など。
完全に誤った否定的な、根拠のない主張に基づく声明に対する皆さんの態度は分かりませんが、私にはただ一つ疑問があります:超知能の文明が、すでにすべての人々を巧妙に説得してしまっているのに、なぜ生物兵器の合成のためにビットコインで支払う必要があるのでしょうか?個人的には理解できません。
しかし、最も興味深いのは、8章中の最後の6章で、彼はアメリカの産業の動員、人工知能分野におけるすべての開発の秘密保持と機密化を呼びかけていることです。なぜなら、これは中国との新しい軍拡競争だからです。
しかし、彼はそれに勝つ方法を知っています。これは国家防衛の問題であり、アメリカとその同盟国の軍事的優位性の基礎であり、第三次世界大戦と自由世界の未来を決定づけるものだと書いています。
しかし、「ボルト製造の下請け業者よりも防衛が弱い。これは米国が直ちに修正しなければならない狂気だ」と。その後、彼は湾岸戦争について語り、独裁者や北朝鮮の生物兵器について語り、そのような技術への access が「正しい」国々だけに与えられるように、米国は今すぐ未来の兵器の防衛に巨額の投資をしなければならないと主張しています。
つまり、これは人工知能に関する研究論文では全くなく、たまたま専門家の主張と一致する部分もある別の「Cool Story」なのです。これは彼が設立したAI教育に焦点を当てた投資会社に注目を集めることを目的としたメディア向けのものです。
私の理解では、彼の教育は経済学であり、そのため多くの経済グラフを示しているのでしょう。公式には情報漏洩で解雇されたとのことです。
彼の論文がくだらないものかどうかは、皆さん自身で判断してください。私は情報の独占を決して推奨しません。それは進歩を遅らせるだけです。現代世界では、国家レベルで何かを隠したり機密にしたりすることは事実上不可能です。
もっとも、これは超知能の到来の番人たちを心配させるものではありません。これは彼らを説得することはできません。
人工知能とその展望について、何か新しいことをお伝えできたことを願っています。もし気に入っていただけたなら、「いいね」で、あるいは説明欄のリンクから財政的にチャンネルを支援していただければと思います。これはチャンネルの存続にかかわる問題です。
ありがとうございます。特に、「啓蒙者」レベルに登録してくれたイリヤ・チェフに感謝します。ありがとうございます。また、今月チャンネルを支援してくれた以下の方々にも感謝します:
ヴャチェスラフ・カウロフ、ミラ・セルガ、エフゲニー・ウリヤノフ、アンドレイ・S、カトリン、アレクセイ・ウラジミロヴィッチ・K、アレクセイ・シェンコ、ルスラン・J、アレクサンドル・Y、タル・フィシャラ、セルゲイ・ボルタ、ミーシャ・クルグ、ニキータ・ボリソヴィッチ・シャ、イーゴリ・Y。
本当にありがとうございます。情報には気をつけ、常に自分の頭で結論を出すようにしてください。またお会いしましょう。

コメント

タイトルとURLをコピーしました