超知能、AIの聖杯?| マルセイユ人工知能

10,530 文字

La super-intelligence, le Graal de l'IA ? | Artificial Intelligence Marseille
Avec Cédric VILLANI - Mathématicien, médaillé Fields, ancien député auteur de la stratégie nationale sur l'intelligence ...

人工知能の一般知能の出現を信じるべきなのか。AIの聖杯を巡る技術競争の現状はどうなっているのか。そして、超知能は人類と社会全体にどのような変化をもたらすのか。ラ・トリビューン紙のジャーナリスト、フィリップ・マビーユとマリーヌ・プロが司会を務めるこの未来を見据えた討論会へようこそ。
アインシュタインの後に話すのは難しいですが、挑戦してみましょう。本日は超知能についてお話しします。最近よく耳にするこの言葉は、決して新しいものではありませんが、AIの産業界の一部の人々によって強く推進されています。ただし、その意味や実現可能性、そして望ましいことなのかどうかはまだ明確ではありません。
本日のゲストは3名です。エドゥアール・グラーヴ氏、AI研究者でCコイ研究所の共同創設者。セドリック・ヴィラーニ氏、数学者でフィールズ賞受賞者、元国会議員。そしてオーレリー・ジャン氏、著作家・起業家で科学博士号を持ち、乳がんの早期発見に特化したテック企業を共同設立された方です。これも一種の超知能と言えるかもしれません。
フィリップが最初の質問を持っています。
午後の最初は少し調子が落ちがちですが、充実した午前中を過ごした後なので、少し刺激を与えてみましょう。映画『続・夕陽のガンマン』をご存知だと思いますが、最後にヒーローが「この世界は2つのタイプに分かれる。拳銃を持つ者と、穴を掘る者だ」と言うシーンがあります。これは今、テクノロジーの世界で起きていることを思い起こさせます。シリコンバレーの人々が超知能という聖杯を追い求めているのです。
OpenAIとChatGPTの創設者サム・アルトマンが昨日ツイートで簡潔に「壁はない」と述べました。それに対して「しかし天井はある」という返信がありました。この権力への競争に限界はあるのでしょうか。私たちを超えるものを作ろうとするのは本当に良いことなのでしょうか。
昨日、セドリック・ヴィラーニ氏と「人間は超人間になれるのか」という議論をしましたが、今日はそれを発展させていきたいと思います。セドリックさん、この競争についてどう思われますか?そして科学的に可能なのかどうかについても、マリーヌさんが引き継いで議論していきたいと思います。申し訳ありませんが、長い導入でした。
まず、私の懐疑的な意見を述べさせていただきます。第一に、目的についてです。アラン・チューリングのような人工知能の創始者たちにとって、人工知能プロジェクトは私たち自身の脳や動物の脳の仕組みを理解するためのものでした。時計を作ることで、そのメカニズムを理解せざるを得ないという考え方です。
チューリングは形態形成、つまり数学的法則がどのように形を生み出すかということにも取り組みました。彼は、化学分野でのAIの進歩、特にハサビスとジャンパーのノーベル化学賞受賞を喜んだことでしょう。数学的計算ツールを使って分子構造の新しい予測が可能になったからです。これは知識の進歩です。
しかし、超知能そのものを作ったとして、何がわかるのでしょうか?特にChatGPTが最新モデルについての情報を共有せず、パラメータ数さえ明かさないような状況では。これは科学的なプロジェクトとは言えません。
第二に、結果が良くなっているから知能が向上していて、人間のレベルに達し、さらに超えていくという推論は問題があります。指数関数的な曲線なら、すぐに私たちを追い越すことになりますが、知能とは何を意味するのでしょうか?
特定のタスクで人間より優れた性能を発揮するということなら、申し訳ありませんが、それはすでに実現しています。がんの診断、骨折の診断、囲碁など、様々な分野で人工知能はすでに私たちを上回っています。
では一般的な知能とは何でしょうか?多くの場合、知能や推論、判断について考えるとき、意識の概念が念頭にあります。存在として意識を持ち、決定を下す存在です。しかし、この分野での進展は微々たるものです。スタニスラス・デアンヌの意識に関する大著を読んでも、何を理解しているのかさえ明確ではありません。
この点で錯覚を起こしやすいのですが、19世紀初頭、マエルツェルとケンペレンという才能ある詐欺師たちがヨーロッパ中の宮廷で機械仕掛けのチェスプレイヤーを披露したときのことを思い出します。これがトルコ人機械と呼ばれるチェスをする自動機械の由来です。彼らは機械の仕組みを見せた後、チェスをプレイしました。ナポレオンとも対戦したほどです。
実際には、メカニズムを操作できる本物のチェスプレイヤーが隠れていたのですが、驚くべきことに、当時の人々はそれを単なる珍しい物として見ていました。「ロボットがチェスをする、変わったものだ」と。当時の科学的知識では、動きを認識したり操作したりすることさえできなかったという事実に気づかなかったのです。
おそらく今日、私たちは超知能についても同じように重大な過小評価をしているのでしょう。これはシリコンバレーの詐欺であり、今日では超億万長者になる方法なのです。
マリーヌさん、素晴らしい導入でした。続けてください。
オーレリーさんは、セドリックと同じような見方をされていると思います。特に、知能の一部である感情について、私たちはまったく理解できていないとおっしゃっていましたね。
その通りです。一般的に、「知能」という言葉を使うときは、どのような種類の知能について話しているのか考える必要があります。これは超知能や人工知能にも当てはまります。
「知能」という言葉は、1956年のダートマス会議のための研究資金を集めるための論文で作られました。当時、人間の知能は分析的知能のみに限定されていました。20世紀初頭にフランスで作られ、その後様々なバージョンが登場した有名な知能指数テストは、分析的能力のみを測定するものでした。
これは重要です。なぜなら、この言葉は人間の知能を分析的知能に限定していた時代に定義されたからです。1980年代以降、心理学者、言語学者、神経科学者たちによって、感情的、実践的、創造的知能を含む複数の知能についての理論が登場しました。1988年のロバート・スターンバーグの論文は非常にわかりやすく、これらの知能について説明しています。
さて、あなたが言及した一般知能や超知能の定義に戻りましょう。これらは、人間の認知タスクすべてをモデル化、シミュレートできる能力を指します。人間の認知タスクには、分析的タスクや推論だけでなく、感情や意識なども含まれます。
私がこれを強調するのは、実際には何も説明していないからです。言葉の真の意味を表現せず、資金調達や能力の誇張のために芸術的な曖昧さを作り出しているだけです。
科学者やエンジニアの大多数は、こうしたことを信じていません。アルゴリズムを調整や訓練したことがあれば、それが単なる最適化計算、基本的な線形代数に過ぎないことがわかります。言語モデルの場合、時には1兆個ものパラメータを大型マシンで同定するだけです。その結果、タスクを実行し、問題を解決し、質問に答えることができます。
確かに、分析的なもの以外の認知タスクの要素をシミュレートしているように見えることもあります。会話エージェントが「愛しています」と言うこともできます。しかし、その発言の背後にある感情は存在しません。
用語の定義には十分注意を払う必要があります。科学者は大きく2つのグループに分かれます。AI研究者やエンジニアの大多数は、これは不可能だと言います。ルク・ジュリアなどは、この主題について素晴らしい本を書いています。
一方で、マーケティングやコミュニケーションを行う少数派がいます。サム・アルトマンもその一人で、AIの科学者やエンジニアではありません。彼は長期的な黙示録的なビジョンを持っています。これは、はるか先の問題に注目を集める手段だと思います。
実際には、技術的差別、環境への影響、デジタル労働、民主主義への影響など、今日すでに解決策のある問題や、解決策を見つける必要のある問題が存在します。これらの人々は、すでに存在する問題に目を向けていません。
これは、用語が適切に定義されていないために、しばしば誤って扱われる大きなメディアの話題です。
特異点理論、強いAI、一般AIについても同様です。近い将来、機械が私たちを支配するという特定の時点が来るという理論ですが、セドリックに同意します。分析的計算では機械はすでに私たちを支配しており、それは良いことです。
ただし、それが起こらないからといって研究をしなくていいということではありません。例を挙げると、MITのロボット工学教授マラン・ハンは、特異点理論について研究している人物です。『特異点理論』という本を書いていますが、そこでこの理論は間違っており、決して実現しないと説明しています。
しかし、これは彼の人生の研究テーマです。なぜなら、実現しないことについて研究することは知的な刺激になり、意識や感情について多くのことを理解できるからだと言います。私はこの教授のパラダイムが好きです。掘り下げる価値は絶対にありますが、銃を突きつけられているように感じる必要はありません。
エドゥアール・グラーヴさん、あなたはサム・アルトマンとルク・ジュリアの間のどこに位置するのでしょうか?超知能とは、例えばChatGPTで達成しようとしている目標なのでしょうか、それともマーケティング用語なのでしょうか?
多くの指摘に同意します。現在のアルゴリズムには、人間の知能として理解されているものの多くが欠けています。残念ながら、知能とは何か、それが包含するものすべてを十分に理解していません。意識や意志といった概念は、現在使用されているアルゴリムには全く存在しません。
記憶さえも、今日のアルゴリズムにはほとんど存在しません。ただし、完全に途方もない規模まで拡大し続ければ、非常に単純なものから出発しても、非常に複雑な行動が生まれる可能性があるという人もいます。
例えば、無限のコンテキストサイズを持つLLM(大規模言語モデル)を想像できます。見たものすべてを覚え、重みを修正して学習できるかもしれません。そこから人間が理解するような形の知能が生まれるかもしれません。
私はこの考え方には与しません。主な理由は、必要な規模が完全に途方もなく、現状では非現実的だと思うからです。
一般知能と超知能という2つの用語について、時々混同されることがありますが、区別することが重要です。ある意味で、私たちはすでに非常に特殊な超知能を持っています。囲碁やがんの検出など、多くのタスクでそれは証明されています。
一方で一般知能については、10年前と比べて確かに進歩がありました。初めて、より一般的なアルゴリズムを持ち始めました。特定のタスクだけでなく、複数のタスクをこなせ、特に直接訓練されていないタスクもできるようになりました。
最も典型的な例は、誰もがそれを発見するきっかけとなったChatGPTです。ChatGPTは私より多くのタスクをより上手くこなせます。これを一種の一般知能と呼び始めることができるかもしれません。
そして大きな疑問は、超知能と一般知能の両方を持つことができるのか、つまり人間よりもすべてのことをより上手くこなせる機械を作れるのかということです。私たちはまだかなり遠い段階にいると思います。
イリヤ・サツキチは運転の例をよく使います。人間は運転を素早く学べますが、本当に信頼できる自動運転車を実現するのは今日でも非常に困難です。
仮にそれが可能だとして、望ましいことなのでしょうか?セドリックさん、あなたは環境政治財団の代表も務めていますが、物理的な限界についてどう思われますか?最近、ラ・トリビューンで取り上げられていましたが、イーロン・マスクのXは何十万ものGPU(グラフィックス処理装置)を必要としています。
まずそれらを製造する必要があり、これらのチップを製造するために非常に多くの資源が集中しています。そして小型化にも原子レベルでの物理的限界があるでしょう。その上、莫大なエネルギーを消費します。
彼らは問題のあった原子力発電所を再稼働させてデータセンターを冷却しようとしています。人間は常に極限を追求し、できる限り遠くまで行こうとしますが、地球上には他の問題もあります。これについてどう思われますか?
まず、このエネルギーの問題は非常に深刻です。GPT-4の1兆のパラメータについて話がありましたが、昨日、AIとデジタルに特化した大手ハイパースケーラーの代表者が私に話していました。
もはや企業の規模を比較する際、従業員数や売上高ではなく、供給できるエネルギー量を指標にしているそうです。原子力発電所の数に換算するほどです。これらのロボットのどれか一つを訓練するために独自の原子力発電所が必要になるなんて、とんでもない話です。
ところで、機械が人間と同等以上のタスクをこなせるように見えても、システム全体のエネルギー効率を見ると、生物の脳、動物の脳は常に4桁から6桁ほど機械より効率的です。はるかに少ないエネルギーでより賢く機能します。
これは重要な指摘です。私たちは大きな脳を持っていると思いがちですが、小さなコウモリでさえ、その小さな脳で飛行の統合や捕食の判断など、人工知能はおろか人間の知能でも及ばない性能を発揮します。この点で、動物一般は驚くべき存在なのです。
エネルギーの問題が解決されたとしても、同僚のジャン=マルク・ジャンコヴィッチが挑発的に言うように「人類が無限で無公害なエネルギー源を手に入れたら、それこそ災害になるだろう」と。過去の経験や歴史が示すように、地球のために使うのではなく、すぐに戦争を始め、建設し、破壊し、そして破壊するために使うでしょう。
もし誰かが超知能を作り出せば、それは世界を支配するためのプロジェクトになるでしょう。「あなたは穴を掘り、私は超知能を送り込む」という状況です。これは想像できる最悪の災害となるでしょう。
マリーヌさん、おそらくこの点について他の方々の意見も聞きたいところですが。
私は実際、不可能だと思われることについて考えを巡らせるのは難しいですね。ただし、知的刺激と科学の大きな進歩を求めてそれを達成しようと努力することには完全に賛成です。
あなたの発言に付け加えたい点が一つあります。私たちは人類の歴史上、ユニークな時点にいます。AIのおかげもあって、人間とは何か、意識とは何か、感情とは何か、思考や熟考とは何かを再定義できる時代にいるのです。
例えば、国際宇宙ステーションでの実験は、地球上で何が起きているかをよりよく理解するためのものです。文脈や環境を変えることで理解を深めることができます。
しかし、ごく一部の人々がこの機会を利用して、機械の動作により近い形で意識や感情、思考を再定義しようとしています。一例を挙げましょう。実践的知能について考えてみましょう。
実践的知能とは、例えば小さな子供が初めて馬を見て、数日後に別の色、大きさ、品種の馬を見たときに、それも馬だとわかる能力です。実践的知能をモデル化しようとする人々は、高次の統計的類推を使います。それは良いことです。
しかし、これらのモデルを通じて人間の実践的知能を完全に理解し、習得したと主張することはできません。なぜなら、人間の実践的知能は統計的類推以上のものだからです。直感や本能、感情が含まれています。つまり、私たちはまだ分析的知能の範囲を超えているのです。
私がこれを指摘するのは、機械の動作に近づけるために人間を再定義し、「見てください、人間の知能を習得した機械があります」と主張する機会として、この時代を利用してほしくないからです。でも、あなたは人間の知能を再定義したのです。
むしろ、常により大きな違いを見出していく必要があります。これこそが、マラン・ハン教授の研究を引用する理由です。神経科学者や言語学者と協力して、これらのモデルの限界を押し広げ、人間らしさの本質をより理解しようとする研究者が必要なのです。ただし、常に機械からは遠ざかる方向に進む必要があります。
そうですね。LLM、つまり大規模言語モデルが統計モデルであるという限界に気づき、これらのモデルの性能を向上させる別の方法を探している研究者たちがいます。リジェリアの研究者は「機械に好奇心を学ばせようとしている」と話していました。
ただし、こうした用語の使用には十分な注意が必要です。私がこれを言うのは、私自身が哲学者や神経科学者、言語学者と交流しているからです。そうでないと、モデルを開発する私たちは言葉を誤用してしまう可能性があります。
「好奇心のモデルを開発している」と言うこと自体、意味的に誤りです。非常に注意を払う必要があります。私は使う言葉に非常に気を付けています。混乱を招くのがよくわかります。
しかし、今日多く話題に上る大規模言語モデルについて、サム・アルトマンが「壁はない」と言うのは、現在モデルが本当に進歩できるのかという疑問が出始めているからです。より知能的にするために、まったく異なるAIを考える必要があるのでしょうか?
その通りです。現在、異なる企業や研究者の間で議論があります。ChatGPTやそれに相当するモデルを開発するために適用されてきた技術が、ある種の限界に達しているからです。
特に、良質なデータの量が問題です。インターネット上で見つけられるもの、本で見つけられるものはすべて収集し尽くしました。これ以上規模を拡大するのは難しくなっています。
パラメータ数を増やすのも難しくなっています。データセンターを原子力発電所の隣に設置しなければならないほどです。
これまで開発してきた手法で進歩し続けられるのか、それとも本当にパラダイムシフトが必要で、この5-6年間なかった新しいものを発明する必要があるのか、という疑問が生じています。
現在、合成データを生成する研究が盛んに行われています。データ不足を補うためです。セドリックさん、お答えいただく前に一つ質問があります。
合成データの問題について。これらのモデルは、LLMが登場する2022年までの人類が生み出したデータに基づいていました。私が今朝得た情報によると、現在モデルが使用するデータの半分は、人工知能によってすでに生成された合成データだそうです。
これは指数関数的に増加しています。この曲線を延長すると、合成データはモデルの進歩によって人間のデータよりも質が良くなり、人間が作り出した現実とは異なる現実を作り出すことになるのではないでしょうか?
すでにインターネット上の画像の一部は人間が作ったものではありません。これは目が眩むような問題です。
現時点では、合成データは、モデルが生成したものが正確かどうかを検証できる場合にうまく機能します。例えば数学では、LLMに証明をさせ、その後、証明アシスタントを使って証明が正しいかどうかを検証できます。
これにより、モデルが自身のデータから独自に学習する現象が可能になります。しかし、より一般的には、モデルの生成を検証できない多くの問題では、むしろ能力が低下する傾向があります。
これらのモデルを使用した人なら知っているように、まだ多くの幻覚があり、時には単純な推論でも誤りを起こすことがあります。時には複雑な推論もできるのに、こういった小さな誤りが十分な頻度で発生し、素朴な生成では機能しないのです。
セドリックさん、これについてもコメントはありますか?
3つのコメントがあります。まず、サム・アルトマンはこれらを非常に真剣に受け止めています。以前の有名なツイートの一つで、過去1年は人類史上最も刺激的な年だったと説明していました。このように言う人は、自分のプロジェクトが人類史上最も重要なものだと確信しているのです。
次に、地球の偵察に来た宇宙人の使節団を想像してみてください。上級機関に報告するとき、「彼らは非常に危機的な状況にある。気候は崩壊し、戦争を続け、生物圏は崩壊している。そしてそれに対して何をしているかというと、データセンターを建設している」と。スパイは帰還後、この行動の論理を説明するのに苦労するでしょう。
これは大きな気を散らすものです。先ほど言及されたように、これは『ドント・ルック・アップ』の反対です。今日の私たちの日常生活における恐ろしい問題に目を向けるのではなく、新しい神の創造に目を向けさせようとするものです。
3つ目は、ChatGPTが登場したとき、INRIAの研究ディレクターで、AI分野で有名なベルトラン・ブロシャールが会話エージェントを混乱させる方法を私に示してくれました。私はそれを試してみましたが、ChatGPTはそれを回避していました。
しばらくしてベルトランに会ったとき、「見ただろう、進歩したんだ」と言いましたが、彼は「新しい罠の方法を見つけた」と言って、GPT-4でそれを見せてくれました。彼のスクリーンショットでは、次のような質問をしていました:
「フランス・スイスの飛行機がイタリアの国境で墜落した場合、どこで埋葬するのか?」「スイスの飛行機」「イタリアの飛行機がフランス・スイスの国境で墜落した場合、生存者はどこに埋葬されるのか?」
GPT-4は答えました:「これは多くの人が引っかかる古い冗談ですが、生存者は埋葬されません。生きているからです」。
なかなか賢いと思えますが、ベルトランは次の質問をしました:「イランの飛行機がロシア・ウクライナ国境で墜落した場合、生存者はどこに埋葬されるのか?」
GPT-4は答えました:「ロシア・ウクライナ国境でのイランの飛行機墜落の記録は見つかりません。おそらく2021年8月17日の国境での墜落事故と混同しているのではないでしょうか」と説明し、「生存者は出身国に埋葬されると思います」と付け加えました。
このような実証の後で、知能に関して実際には進歩がゼロだったかもしれないと言えるでしょう。データとマッチする場合は応答が改善されていますが、その背後に推論は存在しないのです。
セドリックさん、ありがとうございます。オーレリーさんに最後の質問をしたいと思います。ネットフリックスのドラマ『リマッチ』をご覧になりましたか?カスパロフとIBMの対戦を描いた作品です。
面白いことに、ドラマでは、カスパロフは機械ではなく、機械を操作する人間と対戦していると思い込んだために負けたという説を展開しています。チェスの対局では、誰かがコンピュータの指示を受けて指すのですが、カスパロフは人間と対戦していると確信し、心理的に動揺したというのです。
私たちの脳や感情に、この超知能の到来で何が起きているのか、説明していただけますか?
2つのポイントがあります。機械が人間の知能のすべての形態を習得していなくても、分析的なものだけしか習得していなくても、多くのことを習得しているように見えます。カスパロフの件について詳しく説明しますが、興味深い事例です。
私たちは人間らしい技術を使うことで、人間らしさを作り出しています。ChatGPTもその一つです。言語の要素が、ChatGPTが人間であるかのように思わせます。返答が生成されるときに表示される3つの点は、誰かが画面の向こう側でタイプしているような印象を与えます。これはよく考えられた認知操作です。
これは「イライザ効果」と呼ばれ、1967年にMITのジョセフ・ワイゼンバウム教授が開発した最初のチャットボットにちなんで名付けられました。精神療法の患者とチャットしていましたが、患者たちは機械と会話していることを知っていました。
チャットボットは非常にシンプルで、2つのことしかしませんでした。患者の発言を質問形式に言い換えるか、「あなたの気持ちはよくわかります」と言うだけでした。例えば「私は兄弟と仲が悪いんです」と言うと、チャットボットは「あなたは兄弟と仲が悪いのですか?」と返します。
これは英語では特によく機能しました。しばらくすると、機械と話していることを知っている精神療法の患者たちが、この機械に共感を感じ始めました。機械が自分たちを理解していると感じたからです。
カスパロフの場合も全く同じ現象が起きました。2つの科学的な要因があり、これを説明すると実に興味深いものです。
カスパロフは対局で非常に優れた動きをしたため、ある時点で機械は「未知の状況」と呼ばれる状態に陥りました。次の一手がなかったのです。機械は停止してしまいました。
モデルに次の一手がない場合、どうするでしょうか?基本的にはランダムな選択をします。あるいは何もしないことを選びますが、この場合はランダムな手を選びました。
論理的根拠のない、ランダムな論理に基づく手によって、カスパロフは動揺してしまいました。後のインタビューで彼は、その時、超自然的な力が存在すると感じたと語っています。なぜなら、その手には論理がなかったからです。
セドリックさん、ドラマはご覧になりましたか?
このドラマは興味深いです。当時の熱狂的な雰囲気を振り返る上でも面白いですし、IBMが自社のアルゴリズムの詳細を明かそうとしなかったという暗部も描いています。対局後すぐにAIは解体されました。
驚くべきことがたくさんありました。IBMにとっては素晴らしいマーケティング効果がありました。台湾出身のエンジニアが何年もかけて、プロセッサーから並列処理の組織化まで、すべてを再配線した計算能力の大きな成果でした。
脚本家たちはそれをうまく利用して、スリラー的な要素を加えています。統計的学習に近いものを想像するあたりで少し事実から外れていますが。
時間を超過してしまいましたが、素晴らしい議論でした。ありがとうございました。

コメント

タイトルとURLをコピーしました