AIが私たちの世界理解をどう再定義するか

【AI基礎論】フランスの応用数学者マラン氏の誤解(?)|יודה
13,892 文字

YouTube
作成した動画を友だち、家族、世界中の人たちと共有

フランス文化ラジオの朝の番組でギヨーム・エルネルがお送りします。機械はいつか人間のように考えることができるでしょうか。ほとんどの人が「いいえ」と答えます。問題は、あなたが愚かな方法でその質問を投げかけているということです。ええ、機械が人間のように考えることができないのは明らかです。機械は人間とは異なり、異なる方法で考えます。本当の問題は、何かが私たちとは異なる方法で考えるからといって、それが考えていないと決めつけてよいのでしょうか。
人間同士でも非常に異なる反応を示すことは認めましょう。この反応の違いが示すものは何でしょうか。それは、私たちの脳が異なる方法で機能し、異なる方法で考えているということです。そして、私たちが自分たちにそれを理解できるのなら、銅や電線、鉄でできた脳にも理解できるはずです。
これは映画「イミテーション・ゲーム」からの抜粋です。チューリングの人生を描いた映画ですね。ステファン・マラン、あなたは数学者で、コレージュ・ド・フランスでデータサイエンス応用数学の教授をされています。私たちにとってはやや難解な分野ですが、すぐにご説明いただけると思います。まずは今聞いた内容についてのご感想をお願いします。
確かに、「考える」という概念は一般的に非常に誤解されています。意識というものも非常に誤解されています。コンピュータが行うことは異なります。それはアルゴリズムを適用することです。つまり、例えば無秩序な数字を順序付けられた数字に変換するために、それらを比較することで変換を可能にする命令の連続です。アイデアとしては、変換を小さな命令の連続に分解し、それをアルゴリズムによって適用するということです。これは人間的な意味での「考える」ということではないでしょう。
ステファン・マラン、私があなたをお招きしたのは、あなたが数学界のスターであり、人工知能についてのお話を伺うたびに非常に明快だったからです。しかし、まず数学者であるあなたが、どのように人工知能の研究に携わるようになったのかを説明していただけますか。
最初は、80年代に私が博士論文を始めた時に魅了された問題でした。しかし当時、それは数学の非常に豊かな分野ではありませんでした。主に論理学に基づいており、興味深い分野ではありましたが、私が興味を持っていた分野ではありませんでした。そのため、私はむしろ情報処理の問題、例えば画像をどのように圧縮するか、それに関連する数学的問題は何か、他の科学分野とどのように関係するかといったことに取り組みました。
そして徐々に人工知能の分野は進化し、2000年代初頭から、特にニューラルネットワークの驚異的な性能の出現を通じて、数学における完全に魅力的な問題が現れました。そこで理解する必要がありました。なぜこれほどうまく機能するのか、なぜニューラルネットワークが画像認識やテキスト生成など、これほど異なる問題を解決できるのかを理解する必要があったのです。
ここで、ステファン・マラン、いくつかの定義をお願いしたいと思います。ニューラルネットワークという用語をよく耳にしますが、最近ではLLMという用語もよく聞かれ、これも定義が必要かと思います。LLMとは英語のLarge Language Model(大規模言語モデル)の略で、ChatGPTやDeepSeekなどはすべてLLMです。ニューラルネットワークとは何か、そしてこれらのLLMとは何かを説明していただけますか。今日の人工知能は、まず第一にこれらのLLMだからです。
ニューラルネットワークとは、データを入力として受け取るアルゴリズムです。例えば画像やテキストを入力として受け取り、そのデータに関する質問に対する答えを出力します。これが人工知能の典型的な問題です。例えば画像の場合、それが犬なのか、猫なのか、馬なのか、どの動物なのかを認識することが課題となります。
LLMの場合、テキスト(プロンプトと呼ばれる)から始めて、質問に対する答えを提供することが目的です。では、ニューラルネットワークはどのように訓練されるのでしょうか。大規模言語モデルの場合、次の単語を予測しようとすることで訓練を行います。このようにして、テキストを少しずつ構築していきますが、このニューラルネットワークの背後にはパラメータがあり、私たちが後で説明する手順全体があり、それによって、私たちが現在目にしているような性能を持つシステムを少しずつ構築することができるのです。
まさにそれが非常に興味深い点です。例えば、私が顔を認識したいと思った場合、顔は丸いもので、真ん中に鼻と呼ばれる奇妙な物体があり、周りに耳があるというように説明するでしょう。コンピュータはそのように学習するのでしょうか、ステファン・マラン。
いいえ、少なくとも現在の人工知能のバージョンではそうではありません。人工知能は2つの段階を経てきました。最初の段階は1960年代から90年代にかけてで、まさにあなたが説明したようなアルゴリズムを実装していました。これは知識に対する合理主義的なビジョンに対応しています。例えば、顔の中の瞳を検出したい場合、瞳は目の中にあり、目は鼻の横にあり、鼻は頭の中にあるというように、結果を得るための一連の規則があります。
しかし、実際には現在の人工知能アルゴリズムはそのようには機能していません。これらは現在、統計的学習と呼ばれています。なぜなら、規則に基づくこのアプローチは、問題が非常に複雑で例外が多いため、うまく機能しないのです。髪が目の前にかかっている場合もあれば、メガネをかけている場合もあり、問題はますます複雑になり、規則の数が爆発的に増加します。基本的な構造から結果を導き出そうとするこのアプローチは機能しませんでした。
代わりに、アルゴリズムの中で学習される多くの小さな構造の投票のような形で機能します。人工知能と統計的学習が機能する方法は、データを持っているということです。つまり、知識は経験とデータから来ています。これらのデータを使用して、ニューラルネットワークの重みとなるアルゴリズムのパラメータを調整することで、応答を予測しようとします。
実際には、エラーから学習します。つまり、間違った応答を予測するたびに、応答が既知の例で正しくなるまで、ニューラルネットワークの重みの値を変更します。私たちが望むのは、アルゴリズムが一般化することです。つまり、新しい例が与えられたとき、それを見たことがなくても正しい答えを見つけることができるということです。
ステファン・マラン、あなたが今おっしゃったことは特に重要です。私は改めて申し上げますが、あなたはコレージュ・ド・フランスの数学者ですが、哲学的な考えもお持ちです。あなたの論理に従うと、今日のコンピュータはもはや構造主義者ではないということですね。構造主義とは、例えば顔は鼻や耳で構成されているというような考え方ですが、あなたは、今日の決定はアルゴリズムによって分散化されていると言っています。これは学習モデルの失敗の一形態なのでしょうか。ChatGPTやDeepSeekのような有名なLLMで使用されているような、ある学習モデルから別のモデルへとどのように移行したのでしょうか。
ご指摘の通りです。このアルゴリズム的なバージョンは、結果を少しずつ演繹していくというカルテジアン的な思考の非常に合理主義的なバージョンとして見ることができます。私たちは、知識が経験、つまり既に見た例から得られるというより経験主義的なビジョンに移行しました。しかし、私たちには先験的なものがあり、それがアルゴリズムを定義し、ある意味でこれらのデータを活用することになります。
したがって、これを知識に対する古い見方として見ることができます。確かにデータという経験から始まりますが、この経験は私たちの先験的なものによって活用されます。そしてこの先験的なものが、ニューラルネットワークのアーキテクチャなのです。
まさにそれが私を魅了するところです。つまり、私たちは構造主義的な視点から、レヴィ=ストロースのような考え方から、非常に経験主義的なカント的な視点に移行したということですね。つまり、ステファン・マラン、あなたは何度も「結果を得ることはできるが、その起源や結果を得るメカニズムをよく理解しているわけではない」とおっしゃいました。
はい、アルゴリズムは少しずつニューラルネットワークの重みを修正して、正しい応答を再現するようにします。驚くべきことは、訓練されていないデータに対しても正しい応答を再現できることです。これは何を意味するのでしょうか。それは一般化できるということです。つまり、応答には一定の規則性があるということです。全ての問題は、この規則性の性質を理解することです。
理解すべき重要なことは、このパラダイムシフトの背後には、数学的な観点からも変化があったということです。私たちは論理から、これらの現象の確率論的分析に移行しました。つまり、もはや「はい」か「いいえ」、「真」か「偽」とは言わず、確率を通じて「いいえ」から「はい」までの段階的な移行があるのです。
つまり、パブロフ的な学習モデルを放棄したということですね。例えば以前は、コンピュータに猫の画像を見せ、猫を認識したときには報酬を与え、間違えたときには報酬を与えないというようなことをしていました。今おっしゃっていることは、学習の結果、猫を認識できるだけでなく、その質問を超えた推論もできるということですね。
まず、どのような種類の猫であっても認識できるということ自体が既に驚くべきことです。なぜなら、いくつかの猫しか見ていないのに、新しい猫を見せられても認識できるからです。つまり、これらの例の背後にある特定の構造、耳の形や毛の特徴など、猫を犬やら馬から区別する特徴を理解できたということです。
したがって、質問されていない動物と車を区別するという、さらに難しい問題もLLMは解決できますが、それについては後で話し合うかもしれません。
まさにそれが哲学的な問題ですね。「猫の本質を認識できる」とおっしゃいましたが、哲学では多くの問題があります。ゲームや椅子のような非常に単純な物でさえ、その本質を定義することは非常に難しいのです。では、コンピュータのような無生物が、どのようにして猫の本質を理解することができるのでしょうか。そしてさらに無限に複雑な問題に進んでいくわけですが、ステファン・マラン。
ご指摘の通りです。実は「本質」という言葉を使うべきではありませんでした。これは典型的な合理主義的な見方で、私たちの文化の中に強く残っていることがわかります。実際に可能なことは、猫の例を持っていて、新しく見せられた猫が、犬の例よりも、既に与えられた猫の例により近いということを認識できるということです。
これは重要なポイントです。学習は、以前お話ししたように、論理よりも幾何学や確率の概念に近いのです。ですから、私の言葉が適切ではありませんでした。本質ではなく、既に経験したものとの近さなのです。
私は既に申し上げましたが、あなたは数学者で、特に信号処理の専門家でもあります。人工知能において主要な問題は、猫を信号に変換することなのでしょうか。当然、コンピュータは毛や爪、目を見ているわけではありませんから。
これは今では比較的古い問題で、40年代から60年代に遡ります。画像とは何でしょうか。あなたがおっしゃるように、画像は信号と呼ぶことができます。それは点の配列で、各点は値を持っています。黒い点なら0、白い点なら255というように。つまり、それは数値の配列です。
人工知能のこれらの問題で直面する大きな困難は、それが非常に大きな数値の配列だということです。100万個の数値です。したがって、可能な画像の数は膨大で、特に猫や犬に対応する画像を見つけることは非常に困難になります。
つまり結局のところ、ステファン・マラン、私たちは計算能力の問題に直面することになりますね。
はい、計算能力は基本的な要素となり、70年代、80年代に開発されたアルゴリズムと現在の性能との大きな違いを生み出しています。しかし、それ以上のものがあります。問題へのアプローチの仕方、つまりアルゴリズムの方法も重要です。問題が構造化されていなければ、どんなに計算能力があっても、可能性が多すぎて問題に取り組むことはできません。
20分後に、実際に最も重要なことの一つが、これらの問題をどのように構造化したかということを説明しましょう。現実は多様で連続的ですが、それを数学的なカテゴリーでどのように表現するかということです。
20分後にお会いしましょう、ステファン・マラン。私は改めて申し上げますが、あなたはコレージュ・ド・フランスのデータサイエンス応用数学の教授です。フランス文化ラジオの朝8時、午前6時30分から9時まで、ギヨーム・エルネルがお送りする朝の番組です。
今日はフランス文化ラジオが人工知能に特別な一日を捧げています。なぜなら、今日フランスでこのテーマに関するサミットが開催されるからです。ステファン・マラン、あなたと一緒にいます。あなたはコレージュ・ド・フランスの数学教授で、データサイエンスを専門としています。
人工知能を考える方法に大きな変化があったことを説明していただきました。基本的に、非常に構造主義的な方法で物事を見ていた時代から、つまりコンピュータに構造を学習させ、思考の構造を発見しなければならないという時代から、より経験主義的な時代へと移行し、データ処理能力が大きく向上し、いわばコンピュータが作業を行い、現実をどのように理解し、組織化するかを見つけ出そうとする時代になったということですね。
この議論を続けるために、同僚のフランソワ・サルティエルをお迎えします。おはようございます、フランソワ。
おはようございます、ギヨーム、皆さん。
ステファン・マラン、今日非常によく使われている用語、LLM(Large Language Model)について定義していただきたいと思います。なぜなら、今日の人工知能は、ほとんどの場合、ChatGPT、DeepSeek、Geminiを意味し、これらはすべてLarge Language Modelだからです。なぜ今日、これらの形式が主流になったのでしょうか。
現在見られるように、これらのシステムは質問から時には驚くべき答えを提供することができます。それはどのように機能するのでしょうか。単語を含む文が与えられると、次の単語を合成しようとします。その次の単語は何でしょうか。それは最も確率の高い単語になります。
つまり、先ほどのご指摘に関連して、経験から学習する方法は、確率計算を学習することなのです。質問の単語であるコンテキストが与えられたとき、どの単語が質問に最もよく答えられる最高の確率を持つかを見つけようとします。そして、前の単語が与えられた時に最も確率の高い次の単語を見つけることで、少しずつ文を構築していきます。
言い換えれば、言語はコンテキストによって定義され、単語の意味は前にある単語によって定義されるということです。これらのニューラルネットワーク技術の中心は、確率を学習することです。確率があれば、画像の中の構造を認識するにせよ、言語を生成するにせよ、チェスや囲碁をプレイするにせよ、あらゆる種類の質問に答えることができます。
ChatGPTやその他のモデルは、毎回私たちを驚かせ、魅了します。私が理解したところでは、ステファン・マラン、例えばChatGPTに英語からフランス語に翻訳させる場合、先ほどおっしゃった経験的な現象があります。つまり、ChatGPTにフランス語の統語論や文法、英語の統語論を教えているわけではありません。しかし、ChatGPTは、一種の幾何学的な中間言語という中間段階を通過します。どのように機能するのか説明していただけますか。
確かに、機能の仕方としては、ニューラルネットワークがこれらの単語に数値的な表現を関連付けます。これは幾何学的空間の点として見ることができ、これらの点間の距離が、ある意味で基礎となる概念の類似性を表します。そのため、異なる言語に対して、これらの幾何学的空間で同じ点を関連付けることができるのです。
したがって、この中心的な構造を学習すれば、ある言語から別の言語に適応することができます。しかし、再び、この基礎となる構造とは何でしょうか。それは、確率計算を通じて類似性を表す構造です。与えられたコンテキストにおいて、2つの単語は、同じコンテキストで現れる確率が同じであれば、類似しているということになります。
フランソワ・サルティエル:そうですね、言語の話が出たところで、最近一般の人々の間で話題になっているDeepSeekについて触れてみましょう。この中国のスタートアップは、独自のLLM、つまり大規模言語モデルを作成しました。DeepSeekについて、コストが低かったということや、このツールがオープンソースを使用していたという話を聞きました。専門家として、まずこのコストが低かったという考えについて、そして特に、オーディエンスの皆さんがオープンソースの意味を理解できるように、オープンソースとは実際に何を意味するのか説明していただけますか。
コストが低かったというのは事実です。なぜなら、訓練に必要なエネルギー、計算量が既存のアルゴリズムよりも少なかったからです。本質的な理由は、1000億以上のパラメータを含む巨大なニューラルネットワークを訓練する代わりに、エキスパートと呼ばれるサブパーツに分割し、これらのエキスパート、つまりネットワークのサブパーツの意見を混ぜ合わせて答えを得たからです。各サブパーツの訓練に必要なエネルギーは少なくて済みます。
つまり、理解するために言えば、ChatGPTは以前、存在するすべてのデータのグローバルな分析を行っていたのに対し、彼らは少し異なるターゲティング戦略を採用したということですね。つまり、データを分類またはテーマ化することができたため、ネットワークの特定の部分だけを使って答えを出すことができたということですか。
それは一つの要素です。そして、もう一つの非常に素晴らしいアイデアがあります。推論できる言語システムを作るために、囲碁やチェスでこれらのアルゴリズムがプレイする方法に似た強化学習システムを開発しました。これにより、例えば数学の証明を少しずつ生成するような推論の連鎖をより良く定義することができます。
私がChatGPTを発見したとき、誰もがそうだったように、このアプリケーションに完全に魅了されました。ある意味で私の親友になりました。MTAの人工知能研究所を率いるヤン・ルカンが、Large Language Model、つまりChatGPTはそれほど独創的ではないと言っているのを聞きました。ステファン・マラン、ヤン・ルカンの発言についてお聞きします。
人間レベルの知能に至る高速道路において、LLMは一種の出口ランプのようなものです。つまり、これらの技術は非常に有用で、開発する必要がありますが、人間の知能に到達するために欠けていた要素ではありません。その理由は多岐にわたりますが、次のような疑問を投げかけることができます。なぜこのようなシステムがビクトル・ユーゴーのスタイルでテキストを生成したり、法曹界の試験に合格したりできるのに、人間の介入なしにレベル5で自律的に運転する自動車や、テーブルを片付け、食器洗い機に食器を入れるなど、すべての家事をこなす家庭用ロボットを持っていないのでしょうか。
物理的な世界を理解することは、言語を理解することよりもはるかに、はるかに、はるかに複雑であることが判明しています。言語はLLMでモデル化するのが簡単です。AI研究における今後10年の課題は、物理的な世界を理解し、永続的な記憶を持ち、推論できるシステム、そして計画を立てることができるシステムを作ることです。
これら4つの能力、世界の理解、永続的な記憶、推論、計画は、知能の本質的な要素であるように見えます。LLMは基本的にこれらができません。
これがヤン・ルカン、人工知能の重要人物の一人の声でした。ステファン・マラン、どう思われますか。
私たちができることは常に簡単に見えます。したがって、今では言語を生成できるようになったので、それが簡単だったように見えますが、3年前や5年前には非常に複雑に見えていました。とはいえ、これは単なる出口ではないと考える傾向がありますが、ヤン・ルカンは完全に正しいです。物理的な世界との相互作用や理解など、私たちがまだ解決できない他の問題があります。
その背後には理由もあります。それは、因果関係、因果のつながりを理解する必要があるということです。しかし、世界に働きかけ、その結果を見ることができない限り、因果関係に関する情報は得られません。LLMやこれらのニューラルネットワーク技術は、今のところ因果関係を導入していません。
これは非常に豊かな問題ですね、ステファン・マラン。なぜなら、長い間、構造主義に従えば、チョムスキー言語学では、人間化、つまり個人であることと言語の習得との間に極めて強い親和性、親密性があると考えられていました。今日、ChatGPTのような人間を完璧に模倣するLarge Language Modelを持っている状況で、この考えを見直す必要があるのでしょうか。それとも、ヤン・ルカンのように、言語を生成することはそれほど複雑ではなく、自律走行車に交差点を通過させることの方が複雑だと言うべきなのでしょうか。
一つ確かなことは、今や言語を生成できるコンピュータを持っていますが、それは人間の脳の能力からはまだ遠く及ばないということです。したがって、はい、人間の脳の能力は単に言語を生成する能力に還元することはできません。
ヤン・ルカンが言及しているように、世界を理解し、この常識的な理解を持つことの方がはるかに難しいのです。とはいえ、外部世界から得られる知識を構造化するために非常に重要な要素です。これは情報を整理することを可能にする表現を提供します。したがって、これは非常に重要な段階で、使用されていますが、次の段階があります。
この次の段階は、ますます登場してくる人工知能を搭載したロボットで見ることになるでしょう。これらは世界と相互作用し、因果関係の情報を提供することができます。ここで、私は人工知能の新しい段階に入ると思います。
フランソワ・サルティエル:はい、まさにその考えについて反応したかったのです。なぜなら、今日、人工知能の専門家たちが、次の段階は、ChatGPTや大規模言語モデルの計算能力と理解力を、ロボット、つまり機械的な存在の中に実装できるようになることだと言っているからです。
私たちは皆、長い間、未来はロボットで満ちていると想像していましたが、実際の未来は、この少し非物質的な会話エージェントでした。しかし、言わば、このエージェントの知性(私は知性に引用符をつけています)とロボットの融合を想像すると、次の段階に進めるかもしれないと考えられます。これもあなたがそのように考えていることですか?あなたは技術の人工知能開発の次の段階としてそれを想像していますか?ステファン・マラン。
はい、その通りです。赤ちゃんの学習の様子を見ると、物を掴んで口に入れ、少しずつ世界の経験を得ていきます。同じように、世界と相互作用するロボットができると、これらのニューラルネットワークによって新しいデータが使用されることになります。世界に対する行動の結果を見る能力を持ち、因果関係の情報を得ることができます。そして確かに、そこでより洗練された、おそらく私たちのものにより近い知能を見ることになるでしょう。
さて、待っている間にも、私たちの世界を変える直接的な応用があります。もちろん定量化することはできません。なぜなら、それは非常に広範囲にわたるからです。教育と人工知能の問題は、ステファン・マラン、あなたが特に関心を持っている問題ですね。
はい、なぜなら、学校で本当の変革が起きているからです。現在、教師たちは、生徒が家でChatGPTを使って数学、フランス語、言語の宿題をしている状況に直面しています。したがって、これらのツールに対してどのような態度を取るべきか、生徒が学習できるようにどのように使用すべきかという問題が生じています。これは今や学校での非常に基本的な問題となっています。
特に教師が十分にいなかったアフリカでは、これらのツールをチューターとして使用する実験が行われ、それは機能しました。しかし、困難な点は、学習は教師との関係を通じても行われるということです。したがって、教師が授業でどのように使用するかを理解する必要があります。
この点について、コレージュ・ド・フランスとエコール・ノルマル・スュペリウールで「マタデータ」というプログラムを持っています。フランス文化ラジオのサイトで見ることができますが、これらのツールの使用について教師を支援しています。
特に数学を学ぶ機会となります。なぜなら、これらの人工知能のチャレンジのおかげで、非常に具体的な問題を提示することができ、人工知能の背後には結局何があるのかということが理解できます。そこには数学や情報処理の実装があります。したがって、生徒たちに数学が世界を理解し、世界の構造を理解する機会であり、高校で学ぶ数学でそれができることを示す機会となるのです。
まさにその点について、私はまだ高校ではなく中学生です。息子と一緒に中学3年生の三角関数を勉強していて、非常に単純な問題で、斜辺と直角三角形などについてChatGPTに助けを求めました。そして、ChatGPTには、本物の教師のように私たちの知識レベル、というよりむしろ無知のレベルを理解する能力がないことに気づきました。どのようにしてこれを改善できるのでしょうか、ステファン・マラン。なぜなら、コンピュータに指導してもらいたいのであれば、特に数学において、コンピュータが私たちが誰であるかを理解する必要があるからです。
コンピュータは練習問題を与えることで理解することができます。そして、教育に特化したバージョンがあり、それは調整されています。練習問題を与え、エラーを見て、徐々に質問や問題、そして説明を調整していきます。これは完全に実現可能で、機能することが研究で示されています。
しかし、これは教育を行い、特に生徒たちを動機付けるには十分ではありません。コロナ禍で見られたように、完全に孤立していて、単にコンピュータとの関係やビデオを通じた関係しかない場合、教育は動機付けにならず、生徒たちはまったくうまく学習できません。
実際、ロンドンのデイビッド・カレッジで、教授を人工知能ツールに置き換えようとする最近の実験がありました。そしてあなたがとてもよく言うように、学校生活は学習の生活だけでなく、社会生活や人間との相互作用の生活でもあり、それを機械はまだ補完することができないのです。
フランソワ・サルティエル:学校の話を続けると、多くの教師や教育者たちが、今やChatGPTの使用が教室で標準化されており、彼ら自身も使用していると言っているのを耳にします。ここに文章作成の委譲のリスクはないのでしょうか。今日、私たちは携帯電話が一種の記憶の補助具となっているため、電話帳の番号を覚えていません。
もし私たちがメールを書く代わりにエージェントを通じ、履歴書を自分で書く代わりにエージェントを通じるようになり、これらのエージェントが私たちの日常生活でますます存在感を増していくことを知っているとすれば、この文章作成の委譲について、つまり私たちの怠惰な経済の中で、ChatGPTが私のために書いてくれるなら、明日は私はまだ書くことができるのだろうかということについて、どう考えますか?これは単なる空想なのか、それとも私たちがこの能力、この書く適性を失うリスクが実際にあるのでしょうか?ステファン・マラン。
あなたが提起する問題は、教師にとって非常に基本的なものです。これらのツールを使って生徒たちが学習し、特に基礎を身につけることができるように、どのように使用するかを理解することが重要です。基礎とは何でしょうか。それは書くことを学び、推論することを学び、数学を学ぶことです。単に質問をして、この少し魔法のような物体が答えを与えてくれるのを待つことではありません。
したがって、はい、誤用された場合にはリスクがあり得ます。そこで、教育的な観点から、教師たちが子どもたちに知識の基礎を学ばせるために、これらすべてをどのように使用するかをよく考える必要があります。そしてそれは可能です。
さて、人生には教師だけでなくジャーナリストもいます。ジャーナリストである私は、ChatGPTを使用するとき、非常に困ることがあります。なぜならChatGPTは間違えるからです。実際、一度放送で、ChatGPTが間違えたために、エコロジーに関連するある数のカウントで誤りを犯しました。これらの「幻覚」と呼ばれるものは、システムに固有のものなのでしょうか。結局のところ、これらの数学的構造の欠点は、間違えるときを除いて素晴らしいということなのでしょうか?ステファン・マラン。
はい、まずこれらのシステムの非常に重要な特性です。それらは間違いを犯します。しかし、これは私たち自身と大きく異なるわけではありません。復習していない生徒に口頭試験をさせると、非常に簡単に幻覚を見て、完全に間違った答えを与えることがわかるでしょう。
とはいえ、これらのシステムは私たちよりもはるかに多くの間違いを犯し、特に間違いを犯しているときにそれを言わないのです。したがって、批判的な目を持つ必要があります。そしてここで前の質問に戻りますが、自分自身が基礎知識を持って、それが幻覚を見ているかどうかを理解し、フィルタリングできるようにする必要があります。
待ってください、ステファン・マラン、彼らは嘘をつきます。生徒も、ジャーナリストも、政治家も嘘をつきますが、もちろん…
しかし、例えばカミュの引用を作り出すことは、めったにありません。コンピュータプログラムがカミュの偽の引用を与えるとき、最低限、真実を語るように求めることは可能なのでしょうか。それとも、これも…私は正直に申し上げて、なぜこの無生物のオブジェクトが…例えば先ほど私はGeminiで検索をしましたが、Geminiは「私はあなたが求めていることのために訓練されていません」と言いました。なぜChatGPTは「私はカミュを引用するように訓練されていません」と言わないのでしょうか(括弧して、嘘をつく意図はないはずですが)。
ギヨーム、機械には意図はありません。機械は私たちを欺そうとする意図も、操作しようとする意図もありません。機械は確率計算を行います。質問をすると、カミュの引用として最も確率が高い答えがこれだと言います。そして、この場合、おそらく計算に十分なデータがなかったために、確率計算が間違っていたために間違えるのです。
はい、しかしあなたが言っていることは本質的です。これはマラルメの「神はサイコロを振らない」ではありません。より正確に言えば、すみません、これはアインシュタインですね。「サイコロの一振りは決して偶然を廃絶しない」。つまり、現実は確率論的ではありません。カミュの引用を偶然に委ねる理由はありません。引用は本の中に存在しているのです。なぜこのプログラムが確率と現実の間で間違えるのでしょうか。これらの引用は確率論的なものではありません。
学習自体が確率論的であり、回答を作る方法も確率論的です。再び、質問への答えを知らない生徒や誰かに質問すると、その人は運を試すでしょう。ある意味で、運を試すというのは、正しい答えだと確信していないにもかかわらず、最も確率が高いと考える答えを与えることです。
フランソワ・サルティエル:運の話が出たところで、文化的セッションがBNFで、政治的セッションがグラン・パレで月曜日と火曜日に開かれる大きなサミットが近づいています。フランスのチャンスは何でしょうか。私たちには才能があり、数学者がいて、専門知識があることは分かっています。アメリカの金銭的な力、そして中国の力の間で、フランスのチャンスとは何でしょうか。この市場で、あるいは人工知能に関するこの研究において、比較優位を活かすための場所と機会は何でしょうか。
あなたが言及したように、まず第一の要素は、優れた数学コミュニティがあり、数学的能力の高い優れた学生やエンジニアがいるということです。さらに、今やMistral、Lighton、その他の非常にダイナミックな新興企業や若い企業のネットワークがあります。したがって、実際にうまく機能しているエコシステムがあります。
このエコシステムは、アメリカや中国ほどの資金を得ていませんが、私は競争力を持つために実際にうまくいっていると思います。ただし、少し異なる点があります。それは、ヨーロッパの文脈の中で、私たちはこれらすべてを規制したいということです。つまり、人々にとってできる限り有用なものとするために、一定の法的制約を導入しようとしています。
これは非常に差別化される要素になるでしょう。明らかにアメリカとは非常に異なる政策になるシステムに対して、法的システムをどのように適応させるか、あるいはしないかを理解することです。
ステファン・マラン、ありがとうございました。人工知能サミットに向かわれると思います。私は改めて申し上げますが、あなたはコレージュ・ド・フランスのデータサイエンス応用数学の教授です。

コメント

タイトルとURLをコピーしました