
6,884 文字

脳とAIの類推における違いは、AIが脳のように機能するように作られたということです。AIの当初の目的は、人間の脳のように機能する機械を開発し、機械の中で脳を作ることで脳の仕組みを理解することでした。そこで最初のニューラルネットワークが作られ、1958年には「コンピュータと脳」という重要な本が出版されました。
AIで神経科学の言葉を使うのは不思議ではありません。なぜならAIは脳のように設計されたものやからです。人工ニューラルネットワークの定義を見ると、生物学的なニューロンを模して設計されたシステムとなっています。計算論的神経科学は、コンピュータサイエンスのモデルを使って脳の情報処理を理解しようとするものです。
実際に機械の中に脳を作ろうとしたんですが、AIと脳について語るときによく混同されるのが、機能と仕組みの違いです。確かにAIは脳に似た機能を持つことができます。例えば、この3つの道具は時間を測れますが、機能的には全く違う仕組みで動いています。
よく「ニューロンは二進システムのようなもので、電気信号を送るか送らないかのどちらか」と聞きますが、全然違います。機能と説明を混同してはいけません。シナプスは単なるYes/Noの1か0よりもはるかに複雑なんです。これは簡略化されたシナプスです。
私には小さな娘がいて、猫の写真を3枚見せただけで、猫や犬、そして恐らく鳥も認識できるようになりました。一方でChatGPTは約45テラバイト、つまり2,000億語ほどの学習が必要でした。私たちと機械では学習の方法が全然違うんです。
また、私たちはもっと多様性があります。これは私がCNEという粒子加速器で撮った写真で、これはパトペストです。私たちの脳は両方できますが、機械は特定の機能に特化していて、そこに柔軟性はありません。
さらに、私たちには社会的な認知があります。今ここでお互いから学び合っているように。でも、AIにAIが生成したコンテンツから学ばせようとすると狂ってしまうんです。これは私の意見じゃなく、研究者が言っていることです。
将来、ウェブ上のニュース記事の多くがAIによって書かれるようになると、そのコンテンツが生成AIの学習材料になって、全てが劣化していく可能性があります。AIは互いから学ぶことができないんです。
最後に気候の問題について触れないわけにはいきません。ケイト・クロフォードという研究者の「Atlas of AI」という本をお勧めします。AIの環境コストについて、ニッケルやクロムの採掘にどれだけのコストがかかるかについて書かれています。
私たちは機械ほどエネルギーを消費しません。むしろ私たちの生活様式の方がエネルギー消費が多いんです。だから、脳と同じような機能を持っているからといって、同じように機能していると言えないんです。
でも、脳のように機能する機械を作ったので、当然AIはそうなります。本当の危険は、脳のように機能するから信頼し過ぎてしまうことです。これは知能の戦争ではありません。電卓と計算競争をするテレビ番組を作ろうとする人はいないでしょう。そんなの馬鹿げていますよね。
むしろ、適切な政治的枠組みを設定できれば、私たちの負担を軽減してくれる可能性があります。本当の危険は2つあります。1つ目は、機械に対して防御的な姿勢を持たない傾向があることです。電話の計算機で計算をしても、計算が間違っているかもしれないと確認することはありません。
私たちの道具の大半は信頼できるので、AIに対しても同じように防御を下げてしまう危険があります。でも、AIはまだそれほど信頼できるものではありません。なぜなら、脳のように機能する機械を作ろうとしたため、AIは私たちと同じバイアスを持っているからです。
AIのバイアスには主に4つの源があります。データの偏り、AIの政治的な展開における格差、デジタルデバイド、そして既存の不平等や差別のパターンを再生産してしまうことです。
例をいくつか紹介します。これは医学雑誌のBritish Medical Journalの記事です。AIがルネサンス時代の肖像画を作成する際、オバマやオプラ・ウィンフリー、ラヴァーン・コックスといった黒人の肖像画を、学習データにルネサンス期の黒人の肖像画が少なかったため、白人に変換してしまいました。
Google翻訳は長い間、性差別の大きな問題を抱えていました。英語のテキストをフィンランド語のような性中立な言語に翻訳し、それをまた性別のある言語に戻すと、ジャーナリストやリーダーといった職業が特定の性別に偏って訳されてしまいました。幸い、今日では修正されつつあり、「developer」は「開発者または開発者」と表示されるようになっています。
結論として、私たちの脳はバイアスを持って機能します。AIが脳の言語を使うのは不思議ではありません。なぜなら、それは設計上の意図だったからです。残念ながら、時間とともにAIを使って脳を理解しようという比較的価値のある探求はほぼ完全に放棄されてしまいました。
今日のAIは単なる消費主義的な製品となり、ChatGPTやMidjourneyはジャーナリストや心理学者、神経科学者の代替を目指しています。特に視覚や運動の理解において多くの知見をもたらした基礎研究は放棄され、あまり興味深くもない知能の小さな戦いだけが残されています。
この機能の模倣において、私たちのバイアスも複製されてしまいました。電卓や温度計を扱うように、AIを扱わないよう十分注意する必要があります。これらの新しいツールに対して知的な防御を保ち続けることが重要です。時間とともに改善され、信頼性が高まるかもしれませんが。
ここで、根本的な4つの点を手短に挙げたいと思います。第一に、デジタルの直接的な有害性です。環境汚染の問題です。スマートフォンには50以上のレアアースが含まれており、特に水銀、ヒ素、シアン化物が鉱山で使用されています。
システム的なリバウンド効果があります。つまり、効率が上がっても、使用量の増加によって相殺されてしまうんです。60の産業分野でデジタル化による非物質化を進めましたが、全ての分野で原材料の量は増加しています。デジタルの成長率は年間約10%ですが、パリ協定を達成するためには年間-5%である必要があります。
第二に、間接的な物質的有害性があります。例えば、AIの大量破壊兵器への利用です。現在、残念ながらこれは非常に効果的に機能しています。脆弱性の生成も問題です。今日では食事をすることも、家に帰ることも、全てデジタルに依存しています。
しかし、これには数十年後には入手できなくなる金属の使用が必要です。非常に矛盾しています。領土の人工化、廃棄物による汚染は鉱山よりもさらに深刻です。重金属を含む廃水が地下水に放出され、国家は食料生産とシリコン生産の間で判断を迫られ、通常後者が優先されます。
第三に、直接的な非物質的有害性があります。依存症、不安定な労働環境、クリックワーカーの存在です。彼らは低賃金で一日中過激なコンテンツに晒されています。資源の略奪を伴う植民地主義、緊張経済の発展、大規模監視ツールの開発、根本的に不平等な組織への暗黙的な支援、フェイクニュースの一般化、そして一種の新しい物象化的アニミズムの到来があります。
第四に、間接的な非物質的有害性があります。物事や人々とのつながりの喪失、世界の理解の欠如、機械の根本的な独占状況です。機械が全ての空間を占有するだけでなく、20年前には全く同じことを機械なしでしていたにもかかわらず、もはやそれなしでどうするかを想像することすらできなくなっています。
座りがちな生活、消費主義的なフェティシズム、コンテンツへの強迫的な関係、選択的な記憶喪失、科学主義的で定量化された視点の体系的な裏付け、そして私たちが今まさに必要としている破壊的なアイデアを補間による機能によって不可能にすることなどが起こっています。
これらの事実的な側面について、私はグルノーブルの著名な研究者であるロマン・クイエとグレゴワール・ポワソニエの研究から多くを借用しています。そして、これら全ては、ほとんどの場合、利益がゼロかマイナスであり、特に南の国々の労働や貧困国への影響を考慮すると、常にマイナスとなります。
全ての生命が等価でないと考えない限り、楽観的な見方はできません。しかし、それは今とても流行っているようですね。しかし、私が述べた全ての災害を超えて、本当の問題は、私たちの存在の力の萎縮です。
サルトル的な意味で存在するということは、自由であるということです。それは単に刑務所や独裁から逃れることではなく、選択できることです。つまり、選択肢の氾濫に直面することです。しかし、この混乱が実際に行っているのは、私たちが選択できる選択肢の多様性の衰退です。
もし実質的に等価で面白みのない提案の中からしか選べないのなら、自由である意味は何でしょうか。したがって、私にとっての問題は、AIの脱炭素化や、先ほど述べた全ての負の外部性をどう軽減するかということだけではありません。
たとえこれらの破滅的な問題が存在しなかったとしても、AIは私たちを幸せにしてくれるのでしょうか?目覚めさせてくれるのでしょうか?恋をさせてくれるのでしょうか?驚嘆させてくれるのでしょうか?つまり、生きている感覚を与えてくれるのでしょうか?
答えは質問の中にあります。生きていて考える存在として、私たちは解釈する存在です。私たちは計算するのではありません。たとえ今日、多くの科学者、特にテクノサイエンティストや起業家、産業人が、私たちの脳が計算機のように機能すると説得しようとしていても、実際にはそれよりもはるかに複雑なのです。
私たちは意味を創造します。私たちは意味の中に存在していて、計算の中にいるのではありません。したがって、重要なのはデジタル技術を非難することではなく、常に計算の部分と解釈の部分の割合を問うことです。
例えば、ChatGPTのような自動テキスト生成の大規模言語モデルとWikipediaのようなプラットフォームを比較すると、非常に明確です。両者ともデジタル技術とアルゴリズムを使用していますが、計算と解釈の関係は全く異なります。
Wikipediaでは、様々な個人やグループの多様な解釈を共有するデジタルプラットフォームとして機能し、その後議論が行われます。対立や論争があるからこそ、ピアレビューによって信頼性が確保され、知識は常に更新され続けます。
もちろん、Wikipediaにも他の制度的な集団的装置と同様に検閲メカニズムや問題のあるメカニズムは存在しますが、知識は更新され続けます。なぜなら、プラットフォームが多様な貢献や議論、討議に開かれているからです。
一方、ChatGPTでは、記号の連続確率に基づいてテキストを生成する機械にコマンドを送ります。あなたの要求の冒頭に基づいて、アルゴリズムが入力した記号に続く最も確率の高い記号を計算し、テキストが生成されます。つまり、テキストは純粋に計算と平均に基づいて生成され、一種の統計的なテキストとなります。
解釈のプロセスや審議のプロセスは短絡化されています。結果として生成されるテキストは、真でも偽でもありませんが、信頼性も認証もなく、解釈活動の産物ではありません。
これは様々な問題を引き起こします。なぜなら、統計的な機械であるため、特異で新しいものは体系的に排除される傾向にあり、特にこれらの解釈活動はアルゴリズムによって先取りされてしまうからです。
人間と機械を対立させたり、デジタルと思考を対立させたりするのではなく、これらの様々な技術的装置を通じて、計算と解釈の関係を常に問い直す必要があります。もちろん、私たちは様々な理由でこれらを必要としていますが。
アルゴリズムは人間によって設計されており、ChatGPTの知識ベースも人間によって「クリーニング」されています。人工知能は常に同じ方法で機能し、初めにINPUT/OUTPUTがあり、質問や回答に関連してそれが機能するかどうかです。
したがって、今日では人工知能が全く役に立たないとは言えません。それでも人間がコントロールを持っています。数学の観点からは非常に明確です。まだ理解すべきことが多くあります。基本的に数学的な観点から、人工知能がどのように機能するのかまだよく理解されていません。
特にニューラルネットワークの観点から、確率的勾配アルゴリズムと呼ばれる最適化アルゴリズムを使用しています。詳細には立ち入りませんが、このアルゴリズムは人工知能のニューラルネットワークで使用される文脈では、理論的には収束する理由がないはずです。しかし、実際には収束します。
これは今日、この問題に関心を持つ数学者たちにとって未解決の問題として残っています。50年前にはできなかったことができるようになり、それは疑いの余地がありません。
しかし、アンヌと私たちの本で強調しているのは、数学的な対象として興味深いということだけではなく、経済モデルの問題、そしてその背後にある政治と人類学的な側面です。これらのアルゴリズムが今日、デジタルプラットフォームやChatGPTのようなチャットボットソフトウェアでどのように使用されているのか、それを私たちは問うているのです。
人工知能は主に企業や国家の利益に奉仕していて、公共の利益からはかけ離れていると思いますか?
これは非常に大きな質問で、答えるには3時間かかるでしょう。AIは良くも悪くも中立でもありません。それは曖昧で、私たちが何をするか、誰がそれを作り、どのように作ったのか、そしてバイアスは何かによって決まります。
あなたは私よりもよく知っているでしょう。人種差別的、性差別的、あるいは逆に極端にウォークで寛容なバイアスがあり得ます。公共の利益に関して、私が答えられるのは、環境の問題に戻りますが、AIやデジタル技術は環境のために展開されたわけではないということです。
それは成長や力のために展開され、お金のためです。地球を救うためではありません。突然、この影響が爆発的に表面化しています。電力消費、温室効果ガスの排出など。デジタル全般で温室効果ガス排出量の約4%を占めており、これは航空機よりも多いのです。
このパーセンテージは増加する可能性があります。シナリオによって異なりますが、現在のビジネスの傾向と動態が変わらなければ、この影響は爆発的に増加するでしょう。
そして突然、これが本当の問題として浮上し、データセンター産業やデジタル産業全般にとって評判の問題として認識されています。彼らはデジタル、成長、富の増大、環境を調和させようとしています。人々、地球、利益という円の二乗化を試みていますが、私はこの緑化を全く信じていません。
今日、デジタルやサイバースペースに参加していなければ、ロシアや中国、アメリカがそこにいます。自国の衛星群を持っていなければ、あなたに対してそれほど注意深くない、あまり好意的でない他の国々がそれを行うでしょう。
5Gアンテナを持っていなければ、中国のHuaweiが5Gアンテナを展開し、彼らが何をそのアンテナに組み込んでいるのか本当にはわかりません。
ヨーロッパを例にとると、私たちは完全な矛盾、一種の精神分裂的な状態に陥っています。環境に対するデジタルの影響が増大していることを認識し、パリ協定と調和させるためには、その使用方法や消費方法を変える必要があります。
しかし、一方で社会の技術化とデジタル化は加速しています。なぜなら、そうしなければ技術的主権や地政学的主権の問題があり、ヨーロッパが歴史から脱落してしまうからです。
今日、私はこれらの問題を多かれ少なかれ認識している指導者たちの立場に立ちたくありません。彼らは真の精神分裂に直面しています。デジタルを環境のために活用したいという願望がありますが、私は深く信じていますが、それはパリ協定とは両立できません。
しかし、地政学的に緊張が高まる世界で必要とされる主権の形態の具体的な条件となっている、この技術なしでは済まされないのです。
では、どうするのか。法律を制定します。2021年のフランスのRINE法、デジタルの環境フットプリントに関する法律です。最適化を図り、より少ないリソースでより多くのことを行おうとします。データセンター企業にも同様のことを求めます。
そして、丸を四角の中に収めようと最適化を続けていますが、私たちは真の精神分裂に直面しています。デジタルは、実際には過剰な物質化である非物質化のパラドックスを浮き彫りにしています。しかし、この技術の背後にある地政学的、技術的な課題を考えると、それなしでは済まされないのです。
コメント