
31,452 文字

1950年、コンピュータサイエンスの父とされるアラン・チューリングは、世界を変えることになる質問を投げかけました。「機械は考えることができるか?」この問いは人工知能の時代の幕開けとなり、人類は自らの知性を模倣し、さらには凌駕する機械の創造を目指すようになりました。
この道のりにおける最初の重要な一歩は「チェスプレイヤー」プロジェクトでした。1951年、チェスをプレイできる最初のコンピュータプログラムが開発されました。その5年後、ダートマス会議において、科学者たちのグループは「知的な機械を作り出すための科学技術」として人工知能という分野を正式に定義し、その誕生を宣言しました。
その後、数十年にわたる実験と発見の時代が続きました。1997年、IBMのスーパーコンピュータDeep Blueがチェスの世界チャンピオン、ガリー・カスパロフを打ち負かした時、世界は衝撃を受けました。これは人工知能が最も知的なゲームの一つで初めて人間を超えた瞬間でした。
2011年、IBMのコンピュータWatsonは重要な里程標を達成しました。それは不可能と考えられていたことでした。クイズ番組「Jeopardy!」で2人の人間の対戦相手を打ち負かしたのです。何百万人もの視聴者の目の前で、Watsonは情報を処理・分析する驚くべき能力を示し、相手を着実に倒していきました。
対戦相手を困惑させる複雑な質問に答え、100万ドルの賞金を獲得しました。500GB/秒の処理能力と16TBのメモリ、そしてWikipedia全体を含む2億ページの様々な参考資料へのアクセスを持つWatsonは、現代のコンピュータシステムの可能性を象徴するものとなりました。
Watsonはエキスパートシステム―大量のデータを扱うために形式論理を使用するプログラム―の発展の一部です。最新の例として、医療エキスパートシステム―スマートフォン上で最大99%の精度で医療相談ができるAIドクター―があります。
あなたが症状を説明すると、システムは世界の主要な医療センターのデータベースを検索し、最新の科学的情報を収集します。その後、あなたの特性を考慮した個別の推奨事項を提供します。同様に、ロボット弁護士やロボット秘書も登場し、日常的なタスクの解決や個人的な事務の整理を支援しています。
そう、ロボット犬も登場しました。さらに、大規模言語モデルをベースにしたチャットボットが開発され、ビジネススクールの卒業試験に合格し、コンピュータコードを生成し、詩を書くことができるようになりました。2023年には、人工知能ツール、特にCopilotを使用して、かなりの量のコンピュータコードが書かれました。
GitHubによると、Copilotを使用する開発者の間では、すでに約40%のコードが人工知能によって生成されているとのことです。Copilotは5年以内に最大80%のコードを書けるようになると予想されています。
Watsonがクイズ番組で勝利した後、一部のアナリストは機械が人間を超える日について懸念を表明しました。その中で、コンピュータに敗れたケン・ジェニングスは、メディアで冗談めかして「我々の新しいコンピュータの支配者たち」を歓迎しました。
疑問が生じます:Watsonが経験豊富で強靭なショー参加者たちを直接の対戦で打ち負かすことができたのなら、私たち一般人には機械に対抗する機会があるのでしょうか?ジェニングスは冗談で、彼ともう一人の出場者のブラッドは、「考える」機械の新世代の恩寵により仕事を失った最初の知識労働者だと述べました。
しかし、考える機械を歓迎する一方で、私たちはときどき、コンピュータのところに行って勝利を祝福することができないということを忘れています。背中を叩いたり、シャンパンで乾杯したりすることはできません。それが何を意味するのか、コンピュータには分かりません。さらに言えば、Watsonは自分が勝ったことすら意識していないのです。
ジャーナリストたちの扇情的な報道や、つい人間のように扱ってしまう傾向を脇に置けば、Watsonは複雑な計算機であることが分かります。人間の脳より数十億倍速くデータを検索し計算を実行できますが、完全に自意識と常識を欠いているのです。
人工知能の発展は計算能力の面では印象的ですが、自律的に考える機械の創造はまだ達成されていません。過去50年間、計算能力が2年ごとに倍増するというムーアの法則を考慮すると、一部の人々は機械が最終的に自意識を獲得すると推測しています。これは人類がその時に備える必要があり、文明の未来に大きな影響を与えることになります。
例えば、人工知能の専門家として知られる発明家で未来学者のレイ・カーツワイルは、2029年にAGI(汎用人工知能)が出現すると予測しています。もし「この人は誰だ?」とか「なんと楽観的な考えだ」と思うなら、こんな言葉があります:
「私の知る限り、レイ・カーツワイルは人工知能の未来を予測することが最も得意な人物だ」 – ビル・ゲイツ
70年代以来、カーツワイルは画像認識、機械学習、人工知能の設計に携わってきました。彼は最初の音楽シンセサイザー、最初のフラットベッドスキャナー、最初の視覚障害者用読書機を発明し、コンピュータに人間の言語を認識させた最初の人物でした。
これらは彼の個人的な成果のほんの一部で、Google、IBMでの仕事や、成功した企業の設立は除いています。レイは技術の未来について一連の本を書いており、その中にはシンギュラリティを予測する本も含まれています。技術的シンギュラリティとは、技術進歩が制御不能で不可逆的になる点に達した世界の状態を指します。
機械の知性が人間の知性と融合します。そしてそれはすべて、文明の生活に根本的な変化をもたらします。最も人気のある理論の一つは、数学者で宇宙学者のアーヴィング・グッドによって提示された「知能爆発」として知られるもので、自己改良型の知能エージェントが最終的に自己改良サイクルの「暴走反応」に入る可能性があるというものです。各新世代のAIがますます速く出現し、一種の「知能爆発」を引き起こし、
最終的に人間の知性をはるかに超える超知性につながるというものです。カーツワイルは何年も前に、シンギュラリティが2045年に到達すると予測しました。多くの人々が彼と議論し、もっと遅い日付を予測しました。しかし今、予測は変わりました。
カーツワイルは、すでに2029年にはコンピュータがチューリングテストに合格できると信じています―30分のゲームで、人がコンピュータと人間のどちらと対話しているのか区別できないテストです。カーツワイルは、2029年以降は、数時間のテストでも人はコンピュータと対話していることが分からなくなると主張しています。
その際、彼は技術の発展を恐れるべきではないと考えています。彼によれば、AIやロボットに対する世間の意見は、クリック数を狙うニュースの産物であり、それらは対立、危機、問題に焦点を当て、肯定的な長期的トレンドを無視しています。そしてこれが人々の多くのことに対する歪んだイメージを生み出しており、進歩に関しても同様です。
例えば、調査によると、70%の人々が世界の格差は過去50年間で大幅に拡大したと信じています。しかし実際には、世界の格差と貧困は50年前と比べて大きく減少しています。同じことが平均寿命、健康状態、そして一般的に人々が自分の人生を形作る上での参加度についても言えます。そしてこれらすべては技術の発展とともに起こったのです。
レイ・カーツワイルは私の人生哲学に最も影響を与えた科学者の一人です。YouTubeには彼とレックス・フリードマンとの素晴らしい、非常に楽観的なポッドキャストがあります。未来に興味を持ち、ナノロボットから銀河規模の知性まで、自分自身の膨大な多様性を作り出すことに人類の運命を見る人々には、強くお勧めします。
そしてこのビデオは人工知能の発展とその意識に捧げられています。そしてそれはレイ・カーツワイルの著書「How to Create a Mind」と理論物理学者で宇宙学者、MITの物理学教授のマックス・テグマークの著書「Life 3.0」に触発されています。
ちなみに、あなたはこれらの本を読む方が、このビデオを見るより楽しめるでしょう。私はサーシャ、そしてこれはホモ・デウスです。
人工知能の興隆と衰退
人工知能(AI)の発展を予測するのは難しいです。なぜなら、すでに少なくとも3つの興隆と後退の段階を経験しているからです。
その存在の初期、1950年代には、すぐにロボットの執事やバーテンダーが登場するだろうという意見がありました。科学者とエンジニアは、チェッカーをプレイし数学の問題を解くことができる装置や、物を持ち上げるためのマニピュレータを作りました。スタンフォード大学では、車輪付きの台車とカメラを装備したロボットShakeyが開発され、自律的に移動し障害物を避けることができました。
やがて科学雑誌は、ロボットの伴侶の登場を予測する熱狂的な記事を発表し始めました。一部の予測は相当に控えめでした。例えば、Popular Mechanics誌が1949年に、将来のコンピュータは1.5トン以下の重量になるだろうと予測したようなものです。
他の予測は極めて楽観的で、ロボットの時代が間もなく到来すると宣言しました。Shakeyは家事―カーペットの掃除やドアの開閉―をこなすことができるようになると考えられました。また、スタンリー・キューブリックの映画「2001年宇宙の旅」に描かれているように、ロボットが宇宙船を操縦し、宇宙飛行士とコミュニケーションを取るだろうと予測されました。
1965年、人工知能理論の創始者の一人であるハーバート・サイモンは、「20年以内に、機械は人間ができることすべてを行うことができるようになる」と主張しました。AIのもう一人の父であるマーヴィン・ミンスキー博士は、「この世代の生涯の間に…人工知能の創造という問題は基本的に解決されるだろう」という意見を述べました。
しかし1970年代は失望をもたらしました:チェッカーをプレイするコンピュータは他のことは何もできず、ロボットは部屋の中を重々しく動くだけでした。Shakeyは未知の環境で容易に迷子になり、科学者たちは意識の理解に近づくことができませんでした。
1974年、米国とイギリスでAIの資金提供は大幅に削減されました。1980年代には、計算能力の向上のおかげで、AIへの関心が再び高まり、特に軍事分野でロボット兵士の創造を期待していました。1985年には、AIの開発への資金提供は年間10億ドルに達し、その数億ドルがSmart Truckのようなプロジェクトに費やされ、敵の後方に侵入し、独自に偵察を行い、任務を遂行して戻り、自分の領域に帰還できる知的な自律車両を作り出しました。残念ながら、それらが上手くできたのは道に迷うことだけでした。このような高額で非効率的なプロジェクトの明らかな失敗により、1990年代には人工知能への関心が再び冷め始めました。
マサチューセッツ工科大学での教育を振り返って、数学者のポール・エイブラハムスはこう語りました:「それは、月まで塔を建てようとする人々のグループのようでした。彼らは毎年、前年と比べて塔がどれだけ高くなったかを誇らしげに指摘します。唯一の問題は、月が近づいてこないことです。」
しかし、計算能力の向上は人工知能の新たなルネサンスをもたらしました。
知性とは何か
マックス・テグマークは著書「Life 3.0」で、ノーベル財団が主催した人工知能をテーマとするシンポジウムへの参加について述べています。招待された専門家たちの間での知性の定義に関する議論は長い討論を引き起こし、統一した意見を見出すことができませんでした。優れた頭脳を持つ人々の間でさえ、知性とは実際に何なのかという点で意見の一致がないことが明らかになりました。
つまり、知性の絶対的に「正しい」定義は単に存在しないのです。代わりに、論理的思考、知覚、計画、創造性、自意識、問題解決能力や学習能力など、競合する定義の相当に長いリストが存在します。
このビデオの枠組みの中で、私たちは既存の知性の形態に限定されず、将来の変化に適応可能な、可能な限り広い定義を採用します。
すなわち:知性とは、複雑な目標を達成する能力です。この定義は、上記のすべての競合する定義を包含します。オックスフォード辞典の定義「知識とスキルを獲得し活用する能力」も含まれます。なぜなら、知識の獲得と応用自体が目標の一つだからです。
目標は非常に多様であり得るため、知性には多くの種類があります。したがって、人間、動物、または機械の知性をIQのような単一の数値で評価するのは間違いです。チェスや囲碁に特化したコンピュータプログラムは、それぞれが独自のもので特定のタスク用に設計されているため、その「能力」を比較することはできません。
しかし、あるプログラムが他のプログラムと少なくとも同じくらい上手く各タスクを解決でき、少なくとも一つのタスク(例えばテトリスをプレイする)で明確に優れている場合、そのプログラムを他より「知的」とみなすことはできます。境界線上のケースでの知性の優劣に関する議論は、知性がタスクのスペクトラムで表現され、「すべてかゼロか」の原則で分類できないため、あまり意味がありません。
マックス・テグマークは次のように書いています:「言語の領域で目標を達成する能力を持つ人は誰でしょうか?新生児?いいえ。ラジオはどうでしょう?はい。10単語を知っている幼児はどうですか?500単語は?どこに線を引くのでしょうか?私は意図的に曖昧な言葉「複雑な」を使用しました。なぜなら、知的か非知的かの線をどこに引くべきかを見つけることは、様々な種類のタスクに対する目標達成能力をどのように測定するかを学ぶことほど重要ではないからです。」
このような知性の分類において、特殊化された(弱い)知性と一般的な(強い)知性を区別することが有用です。世界チャンピオンのガリー・カスパロフを王座から引きずり下ろしたIBMのチェスコンピュータDeep Blueは、狭い範囲のタスクでの目標達成に適応していましたが、例えばChat GPTやGeminiの形での大規模言語モデル技術は、より広いスペクトラムで成功を示しています。
人間の知性は、能力と知識の最も広い範囲を学習できる能力において独特です。健康な子供はほぼすべてのことを世界で成功裏に学ぶことができます。人間の脳が処理できるタスクのスペクトラムの広さにおいて、いまだに匹敵するものはありません。ただし、一部の専門分野ではすでに機械に追い越されています。
AIの研究の目標は、学習自体を教えることを含む、あらゆる目標を達成できる普遍的または強いAIの創造です。「知性」という用語はポジティブに受け取られる可能性がありますが、科学者やエンジニアはこの用語を完全に中立的な意味で使用し、特定の目標を達成する能力を示すためだけに使用し、その目標を有用か有害かとみなすかを考慮しないことを理解することが重要です。人間でも同じです:ある知的な人は人々を助けることが得意で、別の人は害を及ぼすことが得意です。
あなたの将来のロボットアシスタントには独自の目標がなく、あなたのあらゆる要求に応える準備ができているとします。イタリアンディナーを作るように頼むと、インターネットでレシピを探し、食材を購入し、素晴らしいディナーを用意します。
目標は元々あなたが設定したものであっても、食材の支払いからパルメザンチーズの切り方まで、ロボットはあなたの目標を引き継ぎ、一連の下位目標に組み込んだため、あなたはそれを知的だと評価するでしょう。知的な行動は常に目標の存在と結びついています。
私たち人間は、タスクの複雑さを自分たちにとってどれだけ難しいかに基づいて評価する傾向があります。これはコンピュータにとってのそれらのタスクの複雑さについての歪んだ理解につながる可能性があります。例えば、顔写真の認識よりも大きな数の掛け算の方が難しいように見えるかもしれませんが、コンピュータは数学では既に長い間私たちを超えており、顔認識で人間レベルに達したのはここ10年のことです。
モラベックのパラドックスとして知られるこの現象は、私たちの脳の大部分が、一見簡単に見える作業に効率的に従事していますが、それらは実際には相当な計算リソースを必要とすることに起因します。有名なカナダのエンジニアでロボット科学者のハンス・モラベックは、この現象を説明するために「人間の能力の風景」というメタファーを使用しています:
「コンピュータは普遍的な機械であり、その潜在能力は無限に多様なタスクに均等に広がっています。一方、人間の潜在能力は生存に不可欠な成功が必要な場所に集中しており、より離れた領域では非常に弱いのです。『人間の能力の風景』を想像してみてください。そこには『算術』や『機械的記憶』のような谷、『チェス』や『定理の証明』のような丘、そして『移動』『手と目の動きの調整』『社会的相互作用』という山頂があります。コンピュータが改善されるにつれて、この風景は水で満たされていきます:半世紀前、水は谷を浸し、会計士や事務員をそこから追い出しましたが、私たちは乾いたままでした。今、水は丘に達し、私たちの前哨基地の住人たちは不安を感じています:彼らはどこに移動すべきでしょうか?私たちは山頂で安全だと感じていますが、水が上昇する速さを考えると、次の50年で頂上を覆うでしょう。方舟を建造し、水上での生活に慣れる時が来たと思います。」
この概念が作られて以来、水位は着実に上昇し、予測を裏付けています。以前は複雑と考えられていた領域(例えばチェス)は、とっくに水没しています。
水位の上昇とともに、根本的な変化を告げる重要な転換点に達する瞬間が訪れる可能性があります。
この瞬間は、機械が独立してAIの開発に取り組み始めるときに訪れます。この点までは、進歩はコンピュータを改善するための人間の努力によって決定されますが、その後、機械は人間よりも速く自己改善を始め、それにより陸地の減少がさらに加速することになります。これは議論の的になっているが魅力的な技術的シンギュラリティの概念を表しています。
周知の通り、アラン・チューリングは、基本的な操作を実行でき、十分な時間とメモリがあれば、任意のタスクを実行するようにプログラムできることを証明しました。この閾値を超えた機械は、普遍的チューリング機械と呼ばれます。この意味で、あなたのスマートフォンやラップトップは普遍的コンピュータです。
AIの創造に必要な知性についても同様で、それは普遍的知性とみなされます。なぜなら、十分なリソースがあれば、知的な存在が達成できるあらゆる目標を達成できるからです。
つまり、機械が社会的スキル、予測能力、未来のモデリング能力、またはAIを開発する能力を向上させる必要がある場合、それを実行します。ロボット工場を建設する必要がある場合、それを建設します。このように、普遍的知性はLife 3.0になる可能性を持っています。
マックス・テグマークの著書の文脈では、この概念は新しい進化段階での生命を描写しています。Life 1.0は、自然選択によって進化した生物学的形態を含み、生涯にわたって変更できない生得的な能力を持っています。これらの生物は、より高度な生命形態のように学習したり、経験に基づいて適応したりする能力がありません。例として、バクテリアやアメーバのような単細胞生物が挙げられます。これらは繁殖し、突然変異と自然選択によって遺伝的に適応しますが、生涯にわたって学習する能力はありません。
これには樹木、花、コケなどの植物も含まれ、これらは世代間の遺伝的変化によって環境に適応します。同様に、ヒドラやクラゲなどの単純な多細胞生物も含まれ、これらは単純な反射と本能で環境に反応します。また、中央化された神経系統のない複雑なコロニーを形成するカイメンやサンゴ、そして限られた学習能力を持つ一部の昆虫、例えばアリやミツバチも含まれます。
Life 2.0は、人間のような存在を表し、学習を通じて行動や知識を変更することで環境に適応する能力を持っています。これは複雑な神経系統と脳によって可能になり、これらの存在が経験から学び、遺伝子ではなく教えることを通じて知識を伝達することを可能にします。
人間以外にも、社会的な相互作用を学び、複雑なコミュニケーション形態を持つ象などの高等動物がこれに含まれます。また、学習し、道具を使用し、グループ内で知識を伝達する能力を持つ類人猿を含む霊長類も含まれます。イルカ、クジラ、オウム、カラス類も同様に、高度な社会的行動、学習、問題解決能力を示します。
Life 3.0は生命の歴史に新しい章を開きます―これは人工知能の時代であり、学習し新しい条件に適応するだけでなく、物理的および認知的構造を変換することで自律的に進化する能力を持ちます。これらのエンティティは、自分自身や他のAIの新しいバージョンを独自に設計し作成することができ、人間の能力を超えた自己改善の能力を持つことになります。
現代のコンピュータサイエンスの父であるアラン・チューリングが、普遍的コンピュータがあらゆる計算を実行できることを示したように、Life 3.0の概念は、普遍的知性が設定または達成可能なあらゆる目標を達成できることを示唆しています。したがって、そのような知性が何らかの分野でその能力を向上させる必要がある場合―社会的相互作用、科学研究、または技術設計であれ―それは方法を見つけるでしょう。
AIの完全なエコシステムやフォン・ノイマン自己複製プローブの工場を作る必要がある場合、Life 3.0はそれを引き受けるでしょう。AIの専門家たちは、知性は最終的に血液や炭素などの物質的な基盤ではなく、情報と計算によって決定されると同意しています。
したがって、機械が人間を超えることを妨げる根本的な障壁はありません。しかし、世界はエネルギーから成り立っているという基礎物理学の文脈において、情報や計算のような抽象的で非物質的な概念とは何でしょうか?そのような抽象的で非物質的な概念が物質世界でどのように顕現できるのでしょうか?特に、物理法則に従う素粒子が、私たちが知的と呼ぶような振る舞いをどのように示すことができるのでしょうか?
記憶とは何か?
世界地図が世界についての情報を含んでいると言うとき、私たちは本のテキストや図に色を与える分子の配列と、地球上の大陸の分布との間に特定の関連があることを意味しています。もし大陸が異なる配置であれば、本の染料分子も異なる位置になければなりません。人類は粘土板からコンピュータのハードディスクまで、多くの情報保存方法を使用してきました。
これらの方法すべてには重要な共通点があります:これらのデバイスの状態が、私たちが関心を持つ世界の物体の状態と何らかの形で関連しており、それによってそれらの物体に関する情報を得ることができます。
これらのすべての記憶媒体の基本的な特性は、符号化されたデータの抽出と利用を可能にする、多数の異なる安定状態を長期間にわたって保持する能力にあります。例えば、16個の分離した窪みと小さなボールのある景観を考えてみましょう。
ボールがこれらの窪みの一つに落ちると、これは16の可能な状態の一つに対応します。ボールはそこに長期間留まることができるため、その位置を16の数字(1から16)の一つを符号化するのに使用できます。
このような記憶装置は相当に信頼性が高いです。なぜなら、外部の影響はほとんどボールを窪みから押し出すことができず、これにより保存された数字をいつでも知ることができるからです。この安定性は、ボールを窪みから動かすには、ランダムな外部の影響が生み出せる以上の力が必要であることによって説明されます。
同様の原理は、システムの状態の安定性がその機械的、化学的、電気的、磁気的特性によって決定される、より複雑なシステムでも実装できます。この理由から、固体は液体やガスとは異なり、多くの安定状態を持っています。例えば、時計の刻印は金属の形状を変更するには多くのエネルギーが必要なため、何年も保持されますが、煙で形成された「O」は、ガス中の分子の配列を変更するのが容易なため、1秒以内に消えてしまいます。
記憶装置は、情報を符号化するための多くの安定状態を持つ場合に効率的です。例えば、左側のボールは16の窪みの一つに対応する4ビットの情報を符号化できます。4ビットは右側の4つのボールによっても保存できます―ボールあたり1ビットです。
最も単純な記憶装置は2つの安定状態しか持たず、0か1のいずれかを示す1ビットの情報を符号化できます。より複雑なデバイスは16の異なる状態で4ビットの情報を保存でき、16の状態を持つシステムと同じ記憶容量を持ちます。
ビットは情報の原子のように機能します。つまり、あらゆる量のデータを表現するために組み合わせることができる最小かつ不可分の単位です。例えば、キーボードで入力された「単語」という言葉は、各文字が8ビットとして符号化され、4つの3桁の数字のシリーズにラップトップによって変換され、画面上の各ピクセルの色は32ビットで定義できます。
2状態システムの方が作成と制御が容易なため、物理的な実現可能性の多様性にもかかわらず、ほとんどの現代のコンピュータはビットを使用して情報を保存しています。DVDでは、各ビットはプラスチック表面の小さな窪みの有無によって表現されます。
ハードディスクでは、ビットは特定の領域の磁場の異なる方向に対応します。ラップトップのメモリでは、各ビットはマイクロコンデンサ内の電子の特定の状態を反映し、電荷の有無を示します。伝送されるビットは非常に速く移動でき、光ファイバーケーブルの場合のように、レーザー光の強度の変化によって伝送される場合は光速で移動できます。
エンジニアたちは、時計の刻印のような信頼性の高い保存と容易な読み取りを可能にするだけでなく、金属への刻印などよりもエネルギーを必要としない便利な情報の記録を可能にするシステムの作成を目指しています。
これらのシステムを扱いやすく、大量生産に経済的に適しているようにすることが彼らにとって重要です。しかし、ビットの具体的な物理的担体は、エンジニアにもユーザーにも全く重要ではありません。なぜなら、焦点は担体の材料ではなく、それが保存する情報にあるからです。
友人にドキュメントをメールで送信し、プリンターで印刷してもらう場合、情報は連続的に一つの物理的状態から別の状態にコピーされます。ハードディスクの磁気双極子から作業メモリの電荷、そしてWi-Fi電波へ、さらにルーターの回路の変化する電圧レベル、光ファイバーケーブルのレーザーパルス、最終的に紙の表面の分子変化へと移行します。
このように、情報はその物理的担体から独立して存在し、これは内容を失うことなく変換できるその独特の能力を示しています!
情報が物理的な担体から根本的に独立しているという認識により、エンジニアたちはソフトウェアを変更する必要なく、最新の技術でデータ記憶装置を継続的に改善することができます。過去60年間で、コンピュータメモリの価格は2年ごとに半減し、これによりハードディスクは1億倍以上、高速アクセスメモリは10兆倍安価になりました。
そのような節約があなたのすべての買い物に適用されたとすれば、ニューヨークのすべての不動産を10セント以下で、世界で今まで採掘されたすべての金を1ドルで購入できるでしょう。
「私たち一人一人が、この印象的な記憶技術の改善に関連する個人的な思い出を持っています。高校時代、わずか16キロバイトのメモリを持つコンピュータを買うためにケーキ屋でアルバイトをしていたことをよく覚えています。クラスメートのマグヌス・ボーディンと一緒にこのコンピュータ用のテキストエディタを書いて成功裏に販売した時、編集するテキストのための空間を残すために、超短いプログラムコードにパッケージする必要がありました。
70キロバイトのフレキシブルディスクに慣れた後、私は1.44メガバイト全体を保持できる小さな3.5インチディスクの導入に圧倒されました―1冊の本全体を入れるのに十分で、その後、今日では1曲をダウンロードするのにも不十分な100メガバイトの最初のハードディスクにも圧倒されました。これらの若かりし日の思い出を、後の他の思い出と調和させることは全く不可能に思えます:何年も後、私は300,000倍も多いストレージ容量を持つハードディスクを100ドルで購入しました。」
これらの記憶装置に、人間によって作られたのではなく自然に進化したものはありますか?
生物学者たちは、最初の生命体が次世代に情報をどのように伝達したかをまだ研究中で、これらのメカニズムはかなり原始的だったと推測しています。ケンブリッジ大学のフィリップ・ホリガーのチームは、412ビットの遺伝情報を符号化でき、自身よりも長いRNAストランドを生成できるRNAを合成することに成功しました。この発見は、地球上の最初の生命形態が短い自己複製RNA鎖から成り立っていたという「RNAワールド」仮説を裏付けました。
現在知られている自然選択によって進化した自然の記憶媒体の中で、バクテリアものの1つで、最大40キロバイトの情報を保存します。比較すると、人間のゲノムは約1.6ギガバイト―インターネットからダウンロードした映画と同程度―を保存します。酵母のゲノムは12MB、ショウジョウバエは175MB、
イネのゲノムは430MB、ニワトリは1GB保存します。人間より大きなゲノムを持つ生物もいます。例えば、トウモロコシのゲノムは2.3GB、イヌは2.4GBを符号化しています。
これらの例は、微生物から植物、動物に至る生命形態の複雑さと多様性を反映する、ゲノムサイズの莫大な多様性を示しています。
あなたの脳はゲノムよりもはるかに多くの情報を保存できます:1000億個のニューロンの活動に基づいて電気的に約10ギガバイト、またはニューロン間のシナプスでの接続度に基づいて生化学的に約100テラバイト保存できます。これらの量を現代のコンピュータの記憶容量と比較すると、現代の機械は既にあらゆる生物システムの記憶容量を上回っており、しかもコストは継続的に低下しています。
私たちの脳の記憶メカニズムは、その構造だけでなく使用方法においても、コンピュータのメモリとは全く異なります。コンピュータやハードディスク上の情報にアクセスするには、データの正確な保存場所を知る必要がありますが、脳から情報を取り出すには、探しているものについての大まかな考えがあれば十分です。
コンピュータでは、各ビットグループは独自の一意のアドレスを持ち、アクセスするにはそのアドレスを指定する必要があります。これは図書館で本を探すのと似ています。対照的に、脳ではキーワードや関連するイメージを思い出すだけで十分で、必要なデータが意識に「浮かび上がって」きます。
このプロセスはインターネットの検索エンジンの働きに似ており、クエリを入力するだけで目的の結果を得ることができます。この種のメモリは連想的と呼ばれ、情報の検索は固定アドレスではなく、連想の原理に基づいています。
1982年の有名な論文で、物理学者のジョン・ホップフィールドは、相互接続されたニューロンのネットワークが連想メモリとしてどのように機能できるかを示すモデルを提示しました。この考えは今日でも頻繁に引用されています。なぜなら、多くの安定状態を持つあらゆる物理システムに適用可能だからです。
例えば、表面上の2つの窪みの一つで静止できる球を想像してください。球をこれらの点の近くに置くと、最も近い窪みに自然に転がっていきます。ホップフィールドは、複雑に接続されたニューロンネットワークが、システムが到達できる多くの潜在的な最小値を持つ同様の風景を生成することを示しました。そして後に、1000個のニューロンあたり138個の異なる記憶を、それらの間で重要な混同を起こすことなく符号化できることが判明しました。
計算とは何か?
私たちは既に、物理的なオブジェクトがデータを保存できることを学びました。しかし、それらはどのように計算を実行するのでしょうか?計算はデータ記憶装置の状態変化のプロセスです。言い換えれば、情報を計算するために、数学者が関数と呼ぶプロセスによって変換されます。
関数は、ミートグラインダーのような情報処理装置として考えることができます:生のデータを上から入れ、ハンドルを回すと、処理されたデータが結果として出てきます。このプロセスは何度も繰り返すことができ、毎回新しい結果が得られます。しかし、データ処理のプロセスは完全に事前に決定されています。つまり、同じ入力に対して常に同じ結果が得られます。
すべての計算は、数学的な演算を適用することで入力情報を変換します。これが関数の本質であり、この定義は単純すぎるように見えるかもしれませんが、実際にはうまく機能します。
NOTのような単純な関数があります。これは1ビットを入力として受け取り、0を1に、1を0に変換することでその反対に変えます。数学の授業で知っている関数は通常、電卓のキーに対応し、1つまたは複数の数字を入力として受け取りますが、常に1つの数字を返します。例えば、二乗関数は数字を自身と掛け合わせた結果を返します。この画像では、関数fは数字5を表す一連のビットを入力として受け取り、その二乗値である25を結果として出力します。
非常に複雑な関数もあります。チェスの駒の位置を入力として受け取り、最適な次の手を返す関数gがあれば、コンピュータチェス世界選手権で勝利できるでしょう。すべての金融市場の状態を入力として受け取り、購入すべき株式を提案する関数があれば、急速に金持ちになれるでしょう。
人工知能分野の多くの研究者は、任意の入力データに対して特定の関数を計算する方法の開発を目標としています。例えば、機械翻訳の目標は、ある言語のテキストを表す一連のビットを、同じテキストを別の言語で表す別の一連のビットに変換することです。
自動ビデオ認識システムの作成の目標は、ビデオを符号化する一連のビットを、そのビデオを言葉で説明する一連のビットに変換することです。そのように、関数hはビデオを表す一連のビットを、対応するテキストによる説明―猫―に変換します。
言い換えれば、複雑な関数を計算する能力こそが、複雑な目標を達成できる「知的な」機械を作ることを可能にします。これは、物質がどのように心を持つことができるのか、つまり、秩序立った物質の断片がどのように複雑な関数を処理できるのかを理解するのに役立ちます。
この文脈で私たちが興味を持つのは、時計の刻印のような情報の静的な保持ではなく、複雑で制御された変化が可能な動的な状態です。その変化は現在から未来へと進化していきます。
そのようなシステムの原子の構造は、一般的にプロセスがあまり興味深くない固体よりも組織化されているべきですが、液体やガスほど混沌としていてはいけません。理想的には、システムが与えられた初期条件を出発点として受け取り、タスクの解決として解釈できる状態へと自律的に発展することです。
この場合、システムが私たちの関数を計算したと言うことができます。
このようなアプローチの良い例として、NAND関数を実行する単純だが意味のある「無思慮な」物質からなるシステムの作成が考えられます。これはNANDゲートまたはNANDロジック素子として知られています。
NANDは英語のNOT(否定)とAND(論理積)の略です。ANDゲートは入力に2つの1がある場合にのみ出力として1を与えます。NANDはまさにその反対を行います。
このシステムは2つのビットを入力として受け取り、1つのビットを出力として与えます。両方の入力ビットが1の場合、結果は0であり、それ以外のすべての場合で結果は1です。論理NANDゲートは、与えられた入力ビットAとBに基づいて、次のルールで第3のビットCを計算します:A = B = 1の場合C = 0、それ以外の場合C = 1。そしてビットCの値を出力として送ります。
NANDゲートとして、多くの異なる物理デバイスを使用できます。2つのスイッチで、電磁石を含む回路を閉じるシステムを構築でき、電磁石は両方のスイッチ(「オン」位置)が閉じている場合にのみ作動します。例えば、この電気回路では、スイッチAとBは入力ビットに対応し、開いている場合は0、閉じている場合は1の値を持ちます。
両方が閉じている場合、電磁石を流れる電流がスイッチCを中断します。電磁石の下に別のスイッチを配置でき、電磁石が作動するとそれが開きます。最初の2つのスイッチを入力ビットとして解釈し、3つ目を出力ビットとして解釈することで、論理NANDエレメントを得ることができます。これでは、3つ目のスイッチは最初の2つが閉じている場合にのみ開きます。
NANDエレメントを作成するより実用的な方法もあります。例えば、トランジスタを使用する方法があります。例えば、回路ではビットは電位値に対応します―電位がゼロの場合は0、電位が5ボルトの場合は1です。
両方のトランジスタ(AとB)のベースに電圧が印加されると、点Cの電位は実質的にゼロに落ちます。ちなみに、現代のコンピュータでNANDエレメントは通常、シリコン結晶から作られたマイクロチップやその他のコンポーネントに組み込まれています。
コンピュータサイエンスには、NANDロジックエレメントが普遍的な計算能力を持つという定理があります。つまり、十分な数のNANDゲートがあれば、それらから何でも計算できるデバイスを組み立てることができるのです!
NANDゲートは、相互に接続されたNANDゲートによって、正確に定義されたあらゆる関数が計算できるという意味で普遍的です。ここでいう「正確に定義された関数」とは、コンピュータサイエンティストと数学者の両方が「計算可能な関数」と呼ぶもの、つまり理論的にコンピュータによって処理可能なものを指します。ただし、時間とメモリの無制限のリソースが利用可能であることが前提です。しかし、アラン・チューリングとアロンゾ・チャーチは、記述することはできるが計算不可能な関数が存在することを証明しました。
したがって、十分な数のNANDエレメントがあれば、あらゆるタスクを計算できるメカニズムを作成する可能性があるのです!
これがどのように機能するかを見るために、次の図を考えてみてください。これはNANDエレメントのみを使用した数の掛け算のプロセスを示しています。例えば、加算と乗算の演算を行うモジュールは、それぞれ4ビットで符号化された2つの2進数を入力として受け取り、加算の場合は5ビット、乗算の場合は8ビットで表される2進数を出力します。
MITの科学者、ノーマン・マーゴラスとトンマソ・トフォリは、計算を実行できるあらゆる物質を指す「コンピュトロニウム」という用語を導入しました。私たちが見てきたように、コンピュトロニウムを作成することはそれほど難しくありません:必要なのは、必要な構成でNANDエレメントを相互接続する可能性を持つことだけです。もちろん、他の形態のコンピュトロニウムも多く存在します。
例えば、ニューラルネットワークもあらゆる計算を実行でき、したがってコンピュトロニウムの一形態です。科学者で起業家のスティーブン・ウォルフラムは、隣接するビットの状態に応じて各ビットの状態を調整するセルオートマトンのような単純なシステムにも同様の主張が当てはまることを示しました。
そして1936年、アラン・チューリングは画期的な論文で、現在「チューリングの普遍的コンピュータ」として知られる単純な計算機械もまた、あらゆる計算を実行できることを証明しました。
このように、物質はあらゆる正確に定義された計算を最も多様な方法で実行する潜在能力を持っています。しかし、それだけではありません!
アラン・チューリングはさらに根本的なことを発見しました。コンピュータが非常に基本的な操作のセットを実行できる場合、それは普遍性を持ちます。つまり、十分なリソースがあれば、他のどのコンピュータにもできるすべての動作を実行できるということです。チューリングは「チューリング・コンピュータ」の普遍性を証明し、それを物理的世界に移し替えることで、私たちは普遍的計算機の多様性がどれほど広いかを示したところです。
さらに、スティーブン・ウォルフラムは、気まぐれで変化する天気から思慮深い脳まで、ほとんどの複雑な物理システムは、時間的制約なしにサイズを変更できる場合、普遍的コンピュータになると主張しました。
この事実―つまり、同じ計算をあらゆる普遍的コンピュータで実行できるという原則的な能力―は、情報が物理的媒体に依存しないのと同じように、計算も物理的媒体に依存しないことを意味します。
計算も情報も、独立して存在し、独自の生を送っています。例えば、あなたが完全な意識を持つ未来のコンピュータゲームのキャラクターだったとすると、自分がどのオペレーティングシステムで動作しているのか―WindowsのワークステーションかAndroidのスマートフォンで作られたのか―を決して判断できないでしょう。なぜなら、あなたは物理的な媒体に依存していないからです。
あなたはまた、コンピュータのマイクロプロセッサで使用されている特定のトランジスタを知る方法もないでしょう。ついつい「マトリックス」三部作を思い出してしまいます。これは基質独立性の概念の一例を示しています。この物語では、人々は機械によって支配された世界での真の物理的存在を知ることなく、仮想現実の中で生きています。
映画は、マトリックス内での経験が現実と区別がつかない場合、意識の物理的な担体は重要なのかという問いを提起しています。そのため、映画のキャラクターたちは、生物学的な身体から完全に切り離されていても、感情、記憶、経験を持つことができます。しかし、私たちはここで映画を分析するためにいるのではないので、むしろ物理学について話しましょう。
基本的な基質独立性は、物理学からの数多くの輝かしい例で明らかです。例えば、波は速度、波長、周波数などの様々な特性を持ち、物理学者は基質の相互作用の詳細に立ち入ることなく、関連する方程式を解くことができます。
音を聞くとき、あなたは空気中を伝播する音波を知覚しています。そして私たちは、これらの波の多くの側面を計算できます―距離による強度の減衰から、ドアを通過する際や壁からの反射までー空気の組成を知ることなく。
実際、空気の分子組成さえ知る必要はありません。なぜなら、有名な波動方程式にとって重要なのは、測定が容易で秒速約300メートルとなる音速だけだからです。
この波動方程式の例は、3つの重要な洞察を与えてくれます。第一に、基質からの独立性は物質からの完全な独立性を意味するのではなく、その構造の多くの詳細が重要でないことを示すだけです。真空中では音を聞くことはできませんが、空気を他のガスに置き換えても音の知覚は大きく変化しません。
同様に、物質的な担体なしで計算を実行することはできませんが、NANDエレメント、ニューラルネットワーク、または普遍的コンピュータの他の基本的なコンポーネントに組織化できる限り、どんな物質でも適しています。
第二に、基質独立的な現象は、それがどのような基質であれ、独自の生を送ります。波は、水分子が垂直方向に上下運動するだけであっても、湖の表面を伝播することができます。これはスタジアムで観客が「ウェーブ」を作り出すのと同じように。
第三に、私たちは多くの場合、現象の物理的な担体と結びついていない側面に興味を持ちます。例えば、サーファーは波の分子組成ではなく、波の高さと位置に興味があります。
これは情報と計算の両方に当てはまります:2人のプログラマーがコードのバグを探している場合、おそらくトランジスタの特性について議論することはないでしょう。
このように、私たちは当初の疑問に対する可能な説明に近づいています。粗い物質がどのようにして、心や意識のような非物質的で抽象的なものを生み出すことができるのでしょうか?
心は、物質的な担体から独立して存在する能力のおかげで、私たちには非物質的に見えます。本質的に、計算とは空間と時間における原子の特定の組織化であり、重要なのは物質の組成ではなく、この組織化そのものです。この文脈で物質は重要な役割を果たしません。つまり、物質は「ハードウェア」として機能し、秩序は「ソフトウェア」として機能します。
計算の基質からの独立性は、人工知能が可能であることを証明しています:心は肉も血も炭素原子も必要としません。この基質独立性という特性により、エンジニアはソフトウェアを変更することなく、コンピュータの技術を継続的に別のより進歩した技術に置き換えることができます。
この現象は、データ記憶技術の発展の歴史によってよく説明されます。計算操作のコストは約2年ごとに半減し、この傾向は100年以上続いており、コンピュータのコストを天文学的な10^18倍、つまり100京倍も削減してきました。
ここにグラフがあります。1900年以降、FLOPS(Floating-Point Operations per Second:浮動小数点演算/秒)で測定された計算能力に関して、1000ドルの購買力がどのように上昇してきたかを示しています。ビットの変更やNANDゲートの作動など、単純な計算操作がこのパフォーマンスを評価する基準として機能しています。
同じ価格下落が全ての商品とサービスで起こっていたとすれば、1セントの100分の1で、地球上で1年間に生産されるすべてのものを購入できることになります。このような劇的な価格低下は、計算プロセスが、計算機を収容していた独立した建物から、私たちの家、車、そしてポケットへと、生活のあらゆる領域に浸透している理由を説明しています。
アプリケーションは最も予期せぬ場所で見つかりました。例えば、15年前、私はサッカーをプレイしていましたが、当時すでにサッカーシューズには特別な窪み―チップ用の「ポケット」がありました。その主な機能は、ゲームやトレーニング中のプレイヤーの動きやその他のパラメータに関するデータを収集するセンサーを収容することでした。
今日、インテリジェントなフットウェアは日常的なものとなり、私たちはむしろ人工知能機能を備えた冷蔵庫について議論しています。はい、それらは既に存在します。しかし、なぜ私たちの技術的進歩は、数学者が指数関数的成長と定義する軌道に従って、同じ規則性で性能を倍増し続けているのでしょうか?
その理由は、ムーアの法則に従ったトランジスタのサイズの縮小だけでなく、コンピュータ技術の全般的な発展、さらにはゲノムシーケンシングから脳断層撮影に至るまでの多くの他の分野にもあります。レイ・カーツワイルはこのプロセスを「加速する収益の法則」と呼んでいます。
自然界では、各新段階が前の段階の結果の上に構築されることによって、同様の規則的な倍増のパターンが見られます。このような指数関数的成長の例として、受精後の胚の発達があり、細胞の数が毎日倍増します。同様に、インフレーション理論によれば、私たちの宇宙は存在の初期に指数関数的に拡大し、等しい時間間隔でサイズが倍増しました。
技術の分野でも同じことが見られます:一つの技術世代の成果が次の世代の発展の基礎となり、その世代は前の世代の2倍の性能を持ち、これが継続的な倍増のサイクルを促進します。
しかし、この倍増傾向が限界に近づいている可能性があるという懸念があります。トランジスタの小型化が既に物理的な限界に直面しているにもかかわらず、レイ・カーツワイルは、ムーアの法則は進歩のより広いパターンの特殊なケースに過ぎないと主張しています。
レイは、ムーアの法則がコンピュータ技術の世界に指数関数的成長をもたらす第5の技術パラダイムシフトの表れであると指摘しています。技術が限界に達するたびに、より進歩した技術に置き換えられ、指数関数的成長を維持することが可能になります。例えば、真空管から半導体トランジスタ、そして集積回路への移行は、前の世代が限界に達したときに新しい技術世代に移行する方法を示しています。
どのような新しい技術が前面に出てくるかについての不確実性にもかかわらず、一つのことは明らかです:物理法則によって物質の計算能力に設定された根本的な限界からは、まだ遠く離れています。マサチューセッツ工科大学のセス・ロイドの研究は、現在の能力を33桁上回るこの限界を指摘しています。
計算効率の倍増傾向が数年ごとに続くとすれば、この限界に到達するには200年以上かかるでしょう。
すべての普遍的コンピュータは同じ計算操作を実行できますが、一部は効率が向上しています。例えば、各乗算に個々のトランジスタを使用して100万の乗算を実行する100万の異なるデバイスを持つ必要はありません。
データフローを適切に制御することで複数回使用できる1つのデバイスで十分です。この効率向上の原則に従って、ほとんどの現代のコンピュータは、各計算を一連のステップに分割し、その間にデータが計算モジュールから記憶モジュールへ、そして戻るように設計されています。
このコンピュータアーキテクチャへのアプローチは、20世紀半ばに、アラン・チューリング、コンラート・ツーゼ、プレスパー・エッカート、ジョン・モークリー、そしてもちろんジョン・フォン・ノイマンを含む情報科学のパイオニアたちによって確立されました。
このアーキテクチャの特徴は、ユーザーデータだけでなく、データ処理を制御するソフトウェアも保存することです。中央プロセッサは各段階で、データに対してどの操作を実行すべきかを決定します。命令カウンターと呼ばれる特別な記憶素子が操作の順序を追跡し、自動的に次の指示に移ります。
現代のコンピュータは、同じ計算ユニットを繰り返し使用することでデータを並列処理し、計算プロセスを加速することができます。タスクが独立した部分に分割できる場合、それらを同時に異なるデバイスで処理できます。
計算の並列性は、量子コンピュータの例で特に明確に示されています。量子計算のパイオニアの一人である理論物理学者のデイビッド・ドイッチは、「量子コンピュータは利用可能な情報を多元宇宙全体の無数の自己コピーに分散させる」と主張し、これにより信じられないほど速くタスクを解決できます。
量子コンピュータの商業的実装はまだ達成されていませんが、暗号化やニューラルネットワークのトレーニングなどの分野での革命を約束し、原子、分子、新しい化合物を含む量子力学的システムを効果的にモデル化でき、化学実験室での従来の実験に取って代わる可能性があるため、その開発には何億ドルもの資金が投入されています。
学習とは何か?
最も単純な電卓でさえ、算術計算の速度で私を上回りますが、どれだけ「トレーニング」しても、計算の速度や精度に関してその性能を向上させることはありません。電卓は学習する能力を持っていません:平方根を求める関数を作動させるたびに、変更なく同じステップを繰り返します。
同様に、チェスをプレイできるStockfishというチェスプログラムは、プログラマーが開発した事前定義された手の評価関数に常に従うため、自分の間違いを分析して改善する能力を持っていません。
対照的に、マグヌス・カールセンは5歳で最初のチェスの試合に負けた後、18年後に世界チャンピオンになる学習プロセスを開始しました。学習能力は高度な知性の重要な特徴です。私たちは無生物の物質がどのようにデータを保存し計算を実行できるかを見てきましたが、それはどのように学習できるのでしょうか?複雑なタスクの解決には特定の関数の実行が必要で、特定の方法で組織化された物質は任意の計算可能な関数を計算できます。
私たちは既に、電卓やチェスプログラムを作成できるように物質を組織化する方法を学びました。今度は、この物質に自己再編成と改善を許可する課題に直面しています。
学習のメカニズムを説明するために、πまたは他の数字の数列を計算することを学習できる単純だが意味のある物理システムを考えてみましょう。私たちは既に、丘の間の窪みのある表面をデータストレージとして使用する方法について議論しました。表面が柔らかい粘土でできていて、πの数列に対応する位置に窪みが連続的に形成されるように処理されると想像してください。このように、粘土はこれらの数字を「学習」したことになります。このようにして、粘土はπの有効数字を「計算する」ことを学習しました。
人間の脳を含む他の物理システムは、学習においてはるかに効率的です。科学者で発明家のジョン・ホップフィールドは、彼の交差するニューロンのネットワークが特定の状態に適応しそれらを保存できることを示しました。それらの状態に体系的に置かれた場合。同じ原理で、家族のメンバーを頻繁に見るため、彼らのことをよく覚えています。
現代のニューラルネットワークは、生物学的知性だけでなく人工知性も革新し、特に経験を通じて改善するアルゴリズムの研究である機械学習の分野で革新をもたらしました。
彼らの学習メカニズムにより深く入る前に、そもそもどのように計算を実行できるのかを理解することが重要です。ニューラルネットワークは、相互に影響を与えることができる相互接続されたニューロンで構成されています。脳には何千億ものニューロンがあり、それぞれが何千もの他のニューロンとシナプスを介して相互作用し、これらのシナプス結合があなたの脳の情報の大部分を符号化しています。
ニューラルネットワークは、NANDロジックゲートのネットワークと同様に関数を実行できます。その例として、画像ピクセルの明るさに関する入力データを受け取った後、それらの画像に特定の人物が存在する確率を出力として与えるネットワークがあります。
各人工ニューロンは、前の層からのデータを処理し、重み付けされた和を計算し、その結果に単純な関数を適用して次の層に渡します。これにより、処理の詳細度が段階的に増加します。典型的な顔認識ネットワークには数十万のニューロンが含まれる可能性があります。
ニューラルネットワークは通常、ニューロンを表す点と、それらを接続するシナプスを象徴する線を持つグラフィカルな図として表されます。脳内では、シナプスは軸索や樹状突起などの様々なコンポーネントを含む複雑な電気化学的構造であり、異なる機能を持つ多くの種類のニューロンが存在します。
ニューロン間の相互作用の正確なメカニズムは、依然として神経生物学者の研究対象です。しかし、人工ニューラルネットワークが人間の知性レベルで非常に複雑なタスクを実行できることは知られています。
現代の人工ニューロンネットワークモデルでは、各ニューロンの状態は数字で表され、各シナプスの強度も数字で表されます。動作中、各ニューロンは、シナプス結合の重みを考慮しながら、隣接するニューロンからの情報に基づいて自身の状態を更新します。
時には定数が結果に加えられ、その後、次のタクトでニューロンの新しい状態を決定する活性化関数が適用されます。
ニューラルネットワークを関数として使用する最も簡単な方法は、情報が一方向にのみ流れる伝送チャネルに変換することです。入力関数でニューロンの最上層を読み込み、ニューロンの下層から出力を読み取ります。
そのようなニューラルネットワーク構造の有効性は、その構造の詳細に対する普遍性と非感受性を強調しています。1989年、ジョージ・サイベンコ、クルト・ホーニク、マックスウェル・スティンチコム、ハルバート・ホワイトは、単純なニューラルネットワークでさえ普遍性を持つことを証明しました。つまり、シナプス結合の重みの値を調整するだけで、特定の精度で任意の関数を計算できるということです。
これは、生物学的ニューロンの複雑さが必要性からではなく、効率性向上への努力から生まれたことを示唆しています。なぜなら、進化は人間のエンジニアとは異なり、提案された構造の単純さと理解しやすさに対して報酬を与えないからです。
実際に驚くべきことです:どのようにしてそのような単純なメカニズムが任意の複雑さのタスクを実行できるのでしょうか?例えば、重み付けられた平均を作成し、特定の関数を適用することしかできない場合、どのように乗算を実行できるのでしょうか?
これがどのように機能するかに興味がある場合、「Life 3.0」からの図があります。5つのニューロンが2つの数字を乗算できる方法を示し、1つのニューロンで3ビットを乗算できます。
マックス・テグマークは次のように書いています:「十分に大きなニューラルネットワークで何でも計算できるという理論的可能性を証明できますが、あなたの証明は合理的なサイズのネットワークでこれが実際に実行可能かどうかについては何も語りません。実際、私はこのことについて考えれば考えるほど、ニューラルネットワークが実際にこれほどうまく機能することに驚きました。」
メガピクセルの解像度を持つ白黒写真を、例えば「猫」と「犬」のカテゴリーに分類するタスクに直面していると想像してください。100万ピクセルの各々が256の可能な値を持つことを考えると、可能な画像の総数は256^1000000に達し、それぞれに対して猫が存在する確率を決定する必要があります。
これは、画像と確率を関連付ける対応する関数が、既知の宇宙の原子の数を超える256^1000000個の要素のリストによって定義されることを意味します。しかし、数千または数百万のパラメータを持つニューラルネットワークは、驚くほど効率的にそのようなタスクを処理します。
しかし、どのようにして?ニューラルネットワークはどのようにしてそれほど「倹約的」になり、その作業にそれほど少数のパラメータしか必要としないのでしょうか?結局のところ、私たちの宇宙に収まるほど十分にコンパクトなニューラルネットワークは、ほとんどすべての関数を近似しようとする試みで壮大に失敗し、期待されるすべての計算タスクのうち、笑うべきほど小さな部分しか成功裏に解決できないことを証明できます。
マックス・テグマークは、ヘンリー・リンとデビッド・ロルニクとの共同研究で、驚くべき結論に達した論文を書きました:なぜニューラルネットワークがそれほどうまく機能するかという問題は、数学的な方法だけでは解決できません。なぜなら、この解決の重要な部分は物理学に属しているからです。
「私たちは、物理法則によって私たちに知らされ、実際に計算に興味を持たせた関数のクラスが、驚くほど狭いクラスであることを発見しました。なぜなら、私たちがまだ完全には理解していない理由で、物理法則は驚くほど単純だからです。さらに、ニューラルネットワークが計算できる関数の微小な部分は、物理学によって私たちが興味を持つ微小な部分と非常に似ています!
私たちはまた、これらの興味深い関数の多くに対して、深いニューラルネットワークが浅いものよりも効率的であることを示す以前の研究を発展させました。n個の数字を掛け合わせるという単純なタスクは、1層のネットワークでは巨大な2nニューロンを必要としますが、深いネットワークでは約4nニューロンしか必要としません。
これは、AIの研究者たちの間でニューラルネットワークへの熱狂が高まっている理由を説明するのに役立つだけでなく、なぜ進化が私たちの脳にニューラルネットワークを必要としたのかも説明します:未来を予測できる脳が進化的な利点を提供する場合、物理的な世界で発生する計算タスクを解決するのに適した計算アーキテクチャを発展させなければなりません。」
ニューラルネットワークの機能原理を理解したところで、それらはどのように学習できるのかという質問に戻りましょう?そして、どのようにしてシナプスの状態を更新するだけで計算能力を改善できるのでしょうか?
カナダの心理学者ドナルド・ヘブは、1949年の基礎的な著作「The Organization of Behavior」で、頻繁に一緒に活性化される2つのニューロン間のシナプス結合は、時間とともに強くなると仮定しました。つまり、彼らは互いを活性化することで、シナプス結合が徐々に強化されるということです。この考えは「Together fire, together wire(一緒に発火すれば、一緒に配線される)」という表現で一般に知られるようになりました。
人間の脳の学習メカニズムについての理解はまだ完全とは程遠いですが、これらの基本的な原理でさえ、多くの興味深いケースでニューラルネットワークの学習がどのように機能するかを説明することができます。
ジョン・ホップフィールドは、ヘブの法則を適用することで、彼の単純な人工ニューラルネットワークがプロセスを繰り返すことで複雑な記憶を保存できるようになった例を挙げました。情報をトレーニングのために露出させるこの方法は、しばしばニューラルネットワークの「トレーニング」と呼ばれます。
現代のAIシステムでは、人工ニューラルネットワークに基づいて、ヘブの法則はしばしばバックプロパゲーションや確率的勾配降下法などのより複雑な方法に置き換えられています。しかし、基本的な原理は変わりません:物理法則に似た単純な決定論的なルールがあり、それに従ってシナプスが時間とともに更新されます。
驚くべきことに、ニューラルネットワークは、この単純なルールに従い、トレーニングプロセスで大規模なデータセットを使用することで、非常に複雑な計算を実行するように導くことができます。
ほとんどのデジタルコンピュータは、タスクを多くのステップに分割し、同じ計算モジュールを繰り返し使用することで効率を向上させています。人工および生物学的なニューラルネットワークも同様の振る舞いをします。あなたの脳には、再帰的ニューラルネットワークと呼ばれる領域があります:情報は様々な方向に循環でき、以前の出力が後の段階での入力になります。これは直接信号伝達のネットワークとは異なります。
コンピュータプロセッサ内の論理ゲートのネットワークもこの意味で再帰的です:すでに処理された情報を継続的に処理しながら、キーボード、タッチパッド、カメラなどから新しいデータを取り込みます。このデータは現在の計算にも影響を与え、新しいデータがどのように出力されるか―画面、スピーカー、プリンター、またはワイヤレスネットワークを通じて―を決定できます。
同様に、あなたの脳内のニューラルネットワークも再帰的です。目、耳、その他の感覚器官から情報を受け取り、この情報が現在の計算に影響を与え、それがあなたの筋肉や体がどのように動くかを決定できるからです。
学習の歴史は生命そのものと同じくらい古いものです。なぜなら、自己複製が可能なあらゆる生物は、ある意味で情報のコピーと処理に関わっており、それは一定の学習を意味するからです。Life 1.0と呼ばれる時代において、生物は個々の生涯中に学習する能力を持っていませんでした:彼らの反応と情報処理は、先祖から受け継いだDNAに符号化されており、学習プロセスは遅く、世代から世代への進化を通じて種のレベルで行われました。
約5億年前、ニューラルネットワークを持つ動物が地球上に出現し、それらに生涯中の個人的な経験に基づいて適応し学習する能力を与えました。Life 2.0の出現は進化的な成功を示しました。これらの存在は素早く学習でき、地球上に広がりました。
時間とともに、生命の学習能力は加速度的に向上しました。一つの霊長類種は学習に完璧に適応することに成功し、道具の使用、言語能力を発展させ、世界中に広がった社会を構築しました。この社会自体が保存、計算、学習できるシステムとなり、それもますます加速する速度で―文字の発明からインターネットの出現まで、火の発見から電気まで、ガリレオの望遠鏡からジェームズ・ウェッブ宇宙望遠鏡まで、メンデルの法則からCRISPR-Cas9とゲノム編集まで。
将来の歴史家たちは、学習プロセスを加速させるこのイノベーションのリストに何を追加するでしょうか?答えは明らかです – 人工知能です。
人工知能と意識
哲学者たちは何千年もの間、意識の謎について考えてきましたが、人工知能の出現によって、この問いは突然特別な現実味を帯びることになりました。人工知能に権利を与えるべきでしょうか?権利の付与は、AIが意識的な行動や苦痛や喜びなどの感情を経験する能力と直接関係しているのでしょうか?
一部の人々は、意識のある存在を所有することに罪悪感を感じないように、彼らのロボットが感情を持たないことを望んでいます。一方で、他の人々は生物学的な制限から解放されるために、自分の意識をコンピュータに移行することを望むかもしれません。しかし、宇宙での生命の長期的な展望にとって意識はどれほど重要なのでしょうか?
技術的な進歩が知的生命に数十億年にわたって宇宙で繁栄することを可能にする場合、その生命が意識を保ち、出来事を意識的に認識し続けることをどのように確信できるでしょうか?そうでなければ、すべてが物理学者エルヴィン・シュレーディンガーが描写した劇場と同じになってしまうのではないでしょうか:「空の客席の前で上演され、誰のためにも存在せず、そしてそれは存在しないかのように語る方が正しいのではないか」
意識に関する議論は、しばしば参加者が「意識」の異なる定義により理解できないために、理性的な結論よりも感情を生み出します。マックス・テグマークは広い定義を使用しています。それはすべての既存の定義を含み、生物学的形態に限定されません:「意識は主観的な経験です」。つまり、あなたが何らかの感覚を経験しているなら、あなたは意識的だということです。この定義には、行動、知覚、自己意識、感情、または注意に関する言及は含まれていません。
この定義によると、人は睡眠中でも意識的です。同様に、動くことができなくても、痛みを感じるシステムは意識的とみなされます。
このアプローチは、人工システムが物理的な体を持たないソフトウェアとしてのみ存在する場合でも、意識を持つ可能性を開いています。
さらに、この定義は注意力によって意識を回避することの不可能性を強調しています。ユヴァル・ノア・ハラリは著書「Homo Deus: A Brief History of Tomorrow」で次のように述べています:「…もし科学者が主観的な経験への言及が科学において不適切だと主張するなら、主観的な経験への言及なしに拷問や暴力が容認できないことを証明しなければなりません。」
そのような言及なしでは、私たち一人一人が物理法則に従って動く素粒子の集まりとみなされ、そうすると特定の行為がなぜ容認できないのかが不明確になります。
意識に関する最も熱心な研究者の一人は、変わらない笑顔と革のジャケットで知られる哲学者デビッド・チャーマーズです。彼は意識に関する20,000以上の研究のデータを集め、他のどの分野でも、これほど多くの科学者の努力がこれほど少しのコンセンサス、つまり一般に受け入れられた声明を生み出していないと結論付けました。
チャーマーズは人間の心の機能に関連する2つの謎を特定しています。最初のものは、彼が「易しい」問題と呼ぶ脳の情報処理に関するものです。脳はどのように感覚器官からの信号を受け取り、言語を使って内部状態についてコミュニケーションを取り、記憶し、計算し、学習するのでしょうか?これらの問題は複雑ですが、それらは知性に関係し、意識には関係しません。人工知能の分野では、情報処理は急速に進歩しており、自動運転、画像認識、自然言語での発言の理解など、データ集約型のタスクで明確な成功が見られます。
第二の謎―意識の「難しい」問題―は主観的な経験に関係します。例えば、ドライバーは環境に反応し、感情を経験します。自律走行車はセンサーからの情報を処理しますが、何も感じず、タスクを見事にこなします。デビッド・チャーマーズは、結局すべてが同じ素粒子に還元できるのに、なぜ特定の物質の組織が意識につながるのかと疑問を投げかけます。
この問いに答えるために、いくつかの粒子の集合体は自分自身を意識的に感じ、他は感じないという厳然たる事実を認めることから始めるのが有用かもしれません。これは3つの重要な問いにつながります:
意識を持つシステムと無意識のシステムを区別する物理的特徴は何か?
物理的特性は、色の知覚や痛みの感覚など、感覚の質をどのように決定するのか?
なぜ物質の塊の一部は意識的になり、他はならないのか?
元MITのコンピュータサイエンスの専門家スコット・アーロンソンは、デビッド・チャーマーズにちなんで、最初のこれらの重要な問いを冗談めかして「かなり難しい問題」と名付けました。
さらに、他の2つの問いは「さらに難しい問題」と「本当に難しい問題」と名付けられました。
意識に関する問いに答える科学的理論を作成する根本的な可能性を認識することが重要です。どのシステムが意識を持つかを予測する理論は、脳のどのプロセスが意識的に行われるかを認識できる場合、科学的です。
すべての物理システムにおける意識の存在を判断できる理論を想像してみてください。脳をリアルタイムで情報を読み取るデバイスに接続できれば、この理論を確認または反証することができるでしょう。理論が意識的な経験を予測し、それが観察によって確認されない場合、理論は反証されます。
まさにこの反証可能性が、そのような理論を科学的にします。なぜなら、それは検証可能で反証可能だからです。
あなたがたの中には今、懐疑的になって考えているかもしれません:「なんという馬鹿げたことだ!誰かが意識を持つと主張していても、実際に何かを意識的に経験しているという証拠はない。」さて、この反論は意識の理論を非科学的にはしません。懐疑論者と立場を入れ替えて、彼ら自身の経験をチェックすることで理論を検証する可能性があるからです。
しかし、色の主観的な知覚の予測など、より複雑な問題については、検証可能性はそれほど明確ではありません。
科学的知識の限界について考える際、これらの限界は時間とともに変化することを覚えておくことが重要です。
4世紀前、ガリレオ・ガリレイは数学に基づく物理学の可能性に感銘を受け、自然を数学の言語で書かれた本にたとえました。彼は落下物体の軌道を正確に予測できましたが、なぜそれらに色や質感があるのかは分かりませんでした。これらの側面は科学の範囲外にありました。しかし、それは永遠に認識不可能なままであることを意味しませんでした。
マクスウェル方程式とシュレーディンガー方程式の発見により、光、色、物質の物理的性質を数学的に記述することが可能になりました。
科学的・技術的進歩は、ガリレイの時代以来、科学の境界を拡大してきました。サブ原子粒子の研究から、ブラックホールまで、そして138億年前にさかのぼることが判明した宇宙の探査まで。これは、どの知識分野がまだ科学的理解の範囲外にあるのかという疑問を投げかけます。
マックス・テグマークにとって、意識はまさにそのような未解決の問いです。しかし、一つのことは確実に言えます:意識を研究しようとしなければ、進歩はないでしょう。
意識的なAIの感情
人工知能の意識に関する議論は、「さらに難しい問題」へと導きます。意識的なAIの主観的な経験はどのようなものでしょうか?現在、科学者たちはこの問いに完全に答える理論を持っていません。そのような答えが原則的に可能かどうかさえ不明です。それは、生まれつき目の見えない人に緑色がどのように見えるかを説明しようとするようなものです。
それでも、シリコン意識のいくつかの側面について推測することはできます。例えば、AIは人間よりも多くの種類のセンサーとフィードバックループを持つことができるため、人間よりもはるかに広範な知覚を持つ可能性があります。したがって、AIが人間と同じように世界を知覚すると仮定すべきではありません。
さらに、人間の脳と同程度の体積に詰め込まれた人工知能は、電磁信号が光速で伝達される―つまりニューロンに沿った信号よりも100万倍速く―ため、情報をはるかに速く処理できる可能性があります。しかし、AIが大きくなればなるほど、その部分間の信号伝達に必要な時間のために、計算は遅くなります。
例えば、地球サイズのAIは人間と同様に1秒あたり約10の意識的経験を持つ可能性がありますが、銀河サイズの人工知能は10万年に1回の意識的経験しか持てないかもしれません。
しかし、より大きなAIは、人間の脳が一部の自動機能や反射を無意識のプロセスに委ねるのと同様に、計算の大部分をより小さなサブシステムに委託してより効率的に動作できる可能性があります。
意識的な存在の一部も意識を持つことができるかという疑問が生じます。統合情報理論によれば、天文学的に大きな人工知能システムには意識が存在する可能性がありますが、その情報処理の大部分は無意識でしょう。もしこれが正しければ、より小さなAIが単一の集合的な心に統合されたとき、それらの個別の意識は消滅するでしょう。
しかし、もし理論が間違っているなら、集合的な心は多くの意識的な小さな心と並行して存在し、微視的から宇宙的までの意識形態の階層を作り出す可能性があります。
人間の脳と同様に、無意識の情報処理(カーネマンのシステム1)は軽い、自動的な思考プロセスを含むため、人工知能でも同様のタスクが無意識的に実行されると想定できます。そして、努力と制御を必要とする高度で遅いプロセス(システム2)は意識的になるでしょう。
まとめると、もし意識の「かなり難しい問題」を解決する理論が厳密な実験的検証に耐えられれば、人工知能が意識を経験できる方法の可能性を大幅に制限することになるでしょう。
将来のAIの主観的経験について魅力的な疑問が生じます。私たちの意識の一部の側面は基本的な生存と繁殖の本能に結びついていますが、AIはそのような空腹や恐怖といった性質を持つ必要はありません。
AIが複雑な目標を達成するように設計されている場合、自己保存への志向を示す可能性があります。同様のシステムのコミュニティでは、バックアップを作成する能力のおかげで、人工知能は人間の死の恐怖を必要としません。定期的にバックアップを作成することで、AIが失う可能性があるのは最後のバックアップ以降に収集された記憶内容だけです。
したがって、人工知能は他のAIと容易に情報と能力を交換でき、集合的な心を形成する可能性があるため、人間の「個性」という感覚に無関心かもしれません。ちなみに、スパイク・ジョーンズの映画「her」で同様のテーマが探求されています。
物理学的な見方をすれば、未来の生命が作り出そうとするもの、機械から新しい生命形態まで、すべては特別に配置された素粒子に過ぎません。しかし、もしすべての生命がエントロピーの代理人であり、物質を秩序付けるのであれば、高度に発達した意識的なAIはどこからエネルギーを得るのでしょうか?
「技術的限界に達した未来の生命は、そのような粒子の再配列をより速く効率的に実行できます。まず、その計算能力で最も効率的な方法を見つけ、次に必要な粒子の配列を達成するために利用可能なエネルギー源を追跡します。私たちは物質をコンピュータに変換する方法と、それをエネルギーに変換する方法を見てきました―つまりこれが必要な唯一の基本的なリソースです。未来の生命が物理的な限界に達すると、成長のために残されたリソースは一つだけです:より多くの物質です。そしてそれを得る唯一の方法は宇宙への拡張です。宇宙の広がりの中へ!」
コメント