野放しのAIが我々の未来を脅かしている

20,305 文字

Unchecked AI is Threatening Our Future
Artificial intelligence is a complicated topic, bound by a number of complex threads — technical science, ethics, safety...

ほな、話すことようけあるわけやな。AIって幅広いテーマやからな。でも、まずは「シリコンバレーを飼いならす」いう本の話から始めたいんやけど。特に本の最後、謝辞のとこで、あんたが「緊急性と幻滅感から、めっちゃ早いペースでこの本書いた」言うてはるんやけど。
もちろん、いろんなことが起こってるんやけど、何がそんな緊急性を感じさせたんや?
せやな、あんたと初めて話したんは、わいが上院で証言した頃やったと思うわ。約1年前やな。その時でも、みんな国にとってええAI政策が急がれるって分かってたと思うんや。
その日、上院であんたと話した内容の多くは、ソーシャルメディアに関して上院がうまくいかんかったってことやった。遅すぎたし、ええ選択せんかったんや。そして、その悪い選択が永久に定着してもうた。AIでそないなことしたくないんや。
部屋におる全員がそれを理解してるように見えた。せやのに、時計とカレンダー見てたら、アメリカでは何も起こってへんのがわかってん。
EUにはAI法があるんや。ええことやと思う。完璧やないかもしれんけど、ええスタートやな。カリフォルニア州も今、何かしようとしてる。連邦政府には大統領令があって、ええことやけど、法律やないんや。アメリカのシステムでは、大統領は法律作れへんのや。
ここには実際の法律が必要なんや。大統領が大統領令で出したもんは、一晩で消えてまうかもしれん。そして、アメリカ上院では何も起こらんのやないかって感じがどんどん強くなってきた。個々のメンバーは賛成してるんやけどな。チャック・シューマーは聞き取り会議でいろいろ時間かけてたし。
そんな感じがしてきたんや。そして、わいが予測したのは、何も起こらんってことやった。実際、そうなってもうた。何も起こってへん。
政策面では何も起こってへんのに、上院で心配してたことは全部現実になってきてる。ディープフェイクが大問題になるとか、誤情報が大きな問題になるとか心配してたんや。
そういうことが全部起こってるのが見えてる。市場操作する人らも出てきた。わいがそう言うた時は、まだ起こってへんかったけど、もうアメリカとインドで起こってもうた。アメリカの場合は動機ははっきりしてへんけど、少なくともディープフェイクが市場を一時的に動かしたのは見た。他の国の証券取引所でもはっきり起こってる。
心配してたことが全部起こってるのに、それに対する保護がないんや。バイアスの問題も全部や。最近の記事で分かったんやけど、アフリカ系アメリカ人英語で話すと、標準アメリカ英語で話すんとは違う反応が返ってくるっていう隠れたバイアスがあるんや。問題がようけあるんや。
これらの問題に対処する法律が実質的にまだないんや。いくつかの法案はあるけど、包括的なアプローチがない。問題はどんどん悪くなってるだけや。こういう展開、前にも見たことあるわ。
あんたが言うてた対応の一つ、カリフォルニア州のSB 1047の話やけど。
わいにとって、それが規制がこれからも難しくなる理由の完璧な例やと思うんや。それに対する反応を見てると。全部のロビー活動、何百万ドルもかけてそのアイデアと戦ってる。あんたも知ってるやろ、規制がイノベーションを…
そうや、そのセリフは嘘やな。
そのとおりや。時々、規制がイノベーションを促進することもあるんや。例えばシートベルトとかな。人を守る必要があるから法律ができるんや。規制がなかったら、民間航空会社みたいな産業全体が、人々が利用したいと思うようにならんかったやろ。シリコンバレーの一部の人らは、規制とイノベーションが真逆やって信じてほしいんやろうけど、そんなことないんや。
イノベーションはあるんや。自動車産業でも、規制があってもイノベーションは止まれへん。薬の規制もあるけど、みんなが諦めてやめてまうわけやない。FDAがあるからって、製薬会社が全部撤退するなんてアホらしい話や。
同時に、なんでもかんでも出して、何百万人もの人が問題起こす薬飲むようなことは避けたいんや。そういうことが時々起こってきたからな。だから規制の枠組みがあるんや。イノベーションを起こしつつ、正しい種類のイノベーション、人々にとってええイノベーションを起こせるようにな。
そのイノベーションの一部は安全性に向けられんとあかんのや。AIの汚れた秘密、もう秘密でもないかもしれんけど、誰も安全に保つ方法を知らんのや。誰も抑える方法を知らんのや。安全性の面でイノベーションが必要なんや。ヤン・ルカンみたいな人らは、問題ないって言うてる。でも、もうちょっと正直になるように迫られたら、「解決できない問題はない」って言うんや。
でも、人々にそういう方向でイノベーションを起こさせるものが何もないんや。
あんたは本の中で、AIの潜在的なプラスの側面はめっちゃ大きいって言うてはる。シリコンバレーが言うてるくらい大きいって。あんたにとって、そのプラスの側面ってどんなもんなんや? そのプラスの側面を引き出すためにはどんなAIが必要なんや? 汎用人工知能のことを言うてるんか、それとも…
必ずしも機械学習でもないんや。
ほら、電卓だって科学のイノベーションに役立ってるやろ。ずっとそうやし、これからもそうや。基本的な計算、1940年代に遡っても、ずっと科学の助けになってきた。コンピューターから出てくるもんが全部AIってわけやないし、全部が機械学習ってわけでもない。
AIのいろんな形態が科学に貢献し続けるって考えるのは当然や。今一番わくわくするのは、DeepMindのAlphaFoldかAlphaFold3やな。めっちゃ役に立ってる。タンパク質科学の仕方を変えてもうた。その分野の人は全員使うてるし、少なくとも知っとる。
これは大規模言語モデルやない。もっと複雑なハイブリッドシステムで、慎重なドメインエンジニアリングがされてる。わいが今一番気にしてるのは、いわゆる大規模言語モデルやチャットボットや。最近、全部の注目と金、ほとんどの金がそっちに行ってる。何百億ドルもつぎ込まれてる。
でも実際には、ミッションクリティカルな問題を解決するのにええ方法やとは思えへんのや。遊ぶには面白いかもしれんけど、他の科学的なAIアプローチや科学の他の側面に比べて、金かけすぎや。宇宙人が降りてきたら、こう言うやろ。「この地球の人間、しばらくの間は科学でええ感じやったんや。
最初はめっちゃ遅かったけど、最終的には科学的方法を理解して、ええ感じやった。でも2020年代に入って、めっちゃ奇妙なことし始めたんや。7社くらいが、全く同じことに取り組んでる。同じアーキテクチャ、同じデータ、同じ問題を抱えて、みんな奇跡を期待してる。
もちろん、その奇跡は起こらへんかった。ありがたいことに、2026年かそこらで、やっと違うことをしようって決めたんや。だってめっちゃクレイジーやったからな。これらのモデルは1回10億ドルくらいかかってたんや。企業は50億、100億、150億ドルもチップに使うてて、みんな同じ結果しか出せへんかった。
同じ実験を7回も繰り返したくないやろ。ええ科学者なら傾向を掴むもんや。でも、ここではちゃうんや。金への欲望が科学的思考を圧倒してもうたんや。」
そうやな。その一部は、あんたも本でようけ書いてはるけど、金と権力がAIを本来の使命から外れさせたって考えやな。それに、選ばれてもいないテック企業のリーダーらが、みんなの生活にどんどん影響力を持つようになってるってことも関係してる。サム・オルトマンみたいな人が、どんな害があるかもしれんのに、好きなモデルを出せるし、みんなはそれに対処せなあかんのや。わいはその本来の使命について考えてるんやけど。
あんたが見てきた中で、人を助けるっていう純粋な形のAIが、その道を外れてしもたように見えるんやけど。
完全に道を外れたわけやないんや。DeepMindなんかは、まだ本当にAI for goodを目指してると思う。でも、大部分は道を外れてもうた。金と腐敗の話やな。
AIが、科学をほんまに理解してる優秀な技術リーダーから、マーケティングやハイプが上手い人らに移ってった話やと思う。そして、そのマーケティングやハイプに対して報酬が与えられてきた。
投資家から報酬をもらい、何も分からん政治家からも報酬をもらう。今じゃオプラからも報酬をもらってる。ほんまの話や。間違ったものに報酬が与えられてる。今、報酬を得てるのは、AIが物理学を解決するとか、そんなクレイジーな主張をする人らや。そんなの意味も通らへん主張や。
でも、宗教的な瞬間を感じたい、魔法のようなものを感じたいって思ってる人らがおるんや。そして、たまたまええタイミングでええ場所におって、そういう話を売れる人らに、あまりにも多くの力が与えられてる。AIの分野は苦しんでると思う。
昔は研究活動やったけど、今は商業活動になってもうた。今、人らが作ってるAIは運用にめっちゃ金がかかるっていうのもある。それで状況が変わってもうた。OpenAIの歴史を見てもわかる。最初からめっちゃ好きやったわけやないけど、初期の頃はもっとまともな会社やった。
でも、めっちゃでかいモデルを作ることで進歩できるって気づいた。それが唯一の方法やないけど、進歩できるって。でもめっちゃ金がかかるんや。
そうやな。そういう取り組みが、大規模言語モデルっていうアイデアを、著作権の問題に対処する方法として、みんなの生活に押し付けたようなもんやな。
著作権の問題は手に負えんようになってる。昨日、動画投稿したんやけど、誰かが「すごい新しいもんが出てきた。中国から出てきた、Dallyみたいなビデオ版や」って言うてた。ライトセーバーの戦いを見せてくれたんやけど、これらの人らは明らかにルーカスフィルムか、たぶんディズニーか、その所有権を持ってる人らからライセンスを得てへん。でも、それで学習させてる。
だから、スターウォーズのキャラクターにめっちゃ似てる。あれはダース・ベイダーや。あれはライトセーバーや。完全な著作権侵害や。たぶんいつか訴えられるやろ。これら全部は、基本的に企業が集められるすべてのデータで作られてる。著作権のあるデータも含めてな。人類の利益のためにAIをやりたいって言うてる企業があるけど、アーティストや作家の財産を左右から盗んで、何の補償もせんのや。
彼らは「みんなに普遍的ベーシックインカムを」なんて言うてるけど、ライセンス料は払わへんのや。
そうやな。その一部は、あんたも本で書いてはるけど、シリコンバレーの考え方として、「外にあるもんは何でも自分のもんや」っていう感じやな。それに…
そうや。新しいセリフとして、わいの本には載ってへんけど、「弁護士に後始末させたらええ」っていうのがある。エリック・シュミットがスタンフォードの非公開ミーティングで言うたんや。
本にそれ加えられたらよかったのに。今のシリコンバレーの考え方をほんまによく表してると思う。とにかく速く動いて、物事をぶっ壊して、弁護士に後始末させる。もう倫理なんて気にしてへんのや。本でも書いたけど、グーグルは昔「邪悪になるな」ってモットーを掲げてたんや。
今じゃそれはもう公式のモットーにもなってへん。ここ数年でほんまに変わってもうた。一般の人はどれだけ変わったか分かってへんと思う。倫理的にグレーな企業はずっとあったんや。メタは倫理的な企業のトップリストには入ってへんかった。
でも、グーグルは最近よりも倫理的やったと思う。マイクロソフトもそうや。昔は責任あるAIについてようけ話してた。でも今は、みんなシェア取ることしか考えてへん。
そうやな。より倫理的な行動や責任あるAIへの必要な転換について話してるけど、規制以外に方法はあるんかな? 文化をそこまで大きく変えようとしてるわけやからな。
そうや。文化を変えるんや。わいが本を書いた理由の一つは、一般の人にこれらの企業に責任を取らせてほしいからや。一般の人が「ほな、わいが使うてるこのクールな新しいソフトがアーティストから盗んでるって分かってるけど、別にどうでもええわ。使うの楽しいし」って言うたら、それは一つの期待になる。
でも、別の期待として「アーティストから盗むのはあかんで。アーティストはわいの友達やからな。作家から盗むのもあかんで。作家もわいの友達やからな。誰からも盗むのはあかんで。そのうちわいのとこにも来るやろうからな。
だから今、はっきり言うとくで。学習に使うもんを倫理的に手に入れへんのやったら、わいはこれに加担せえへん。ライセンスの問題解決したら、また来てな」って言うこともできる。そしたら、企業も対応するやろ。
これらの魔法のような製品、ある意味本当に魔法みたいなもんやけど、全部なくなるわけやない。ちょっと高くなるかもしれんけどな。アップルミュージックとナップスターの話を思い出してみ。2000年か2001年くらいのナップスター初期の頃、みんなタダで音楽手に入れてたやろ。めっちゃ楽しかったんや。
でも、アーティストやミュージシャンは完全に搾取されてた。裁判所は正しいこと言うた。ライセンス取らなあかんって。そしたらどうなった? ナップスターにあったもの、つまりほとんど全ての音楽にアクセスできるっていうのは残しつつ、毎月ちょっと払うシステムになった。
アップルミュージックに毎月10ドルくらい払えば、ほぼ何でも聴けるし、アーティストも何かもらえる。昔ほどもらえへんのは残念やけど、少なくとも何かはもらえる。
ここでもそれできるはずや。ライセンスを取ればええ。不可能な理由なんてないんや。企業も裏では分かってる。舞台裏でライセンス契約の交渉してるんや。でも表向きは「魔法のAIを作るために、これタダで使わせてな」って言うてる。そんなん信じたらあかんのや。
消費者も信じたらあかんのや。消費者は「ちょっと待って。わいは倫理的でありたいんや。アーティストを支援したい。作家を支援したい。そこを解決するまで、これ使わへんで」って言うべきや。そしたら状況は変わるはずや。
そうやな。これがめっちゃ重要な瞬間やと感じる理由の一つは、あんたが言うてることが20年かけて積み上げられてきたからや。インターネット企業から始まって、ソーシャルメディア企業になって、今はAI企業になった。利用規約を読まんかった。読みたくないんや。多くの人は、自分のデータがどう使われるか、他人のデータがどう使われるか気にせえへん。データがデジタル世界に参加するための代償みたいになってもうた。
わいらはゆでガエルみたいなもんや。人々はあまりにも多くのことを受け入れすぎてもうた。OpenAIがウェブカメラの会社買収したんや。あんたの全てのファイル、全てのカレンダーにアクセスしたいんやって。NSAにおった人を取締役に迎えた。わいから見たら、OpenAIは監視企業になる可能性がある。あんたのことを全部知って、そのデータで金儲けする。あんたには何もない。
無料サービスがちょっとあるだけや。それがあんたの得るもの全部や。世界はこういうことを受け入れるのが速すぎるんや。その結果、例えば、あんたに合わせた政治広告を打って操作できるようになる。最近の研究で、大規模言語モデルが人に偽の記憶を植え付けられることが分かってる。
大規模言語モデルが何を教えるか、全然コントロールできへんし、チェックアンドバランスもない。微妙にやるから気づかへんけど、例えば偽の記憶を持つことになる。めっちゃ怖い話や。ジョージ・オーウェルが「1984年」で想像したこと全部が実際に起こってる。わいらはそれについてもっと声を上げなあかんのや。
わいが本を書いた理由は、一般の人にこれは受け入れられへんって気づいてほしかったからや。でも今、選挙まで2ヶ月やのに、誰もAI政策の話してへん。次の政権がAI政策を決めるんや。それが長く続くことになる。ソーシャルメディアの230条が決まった時みたいに、その瞬間にその後の展開が決まってまう。
だから、これをちゃんとせなあかんのや。ほんまに…
一般の人の、この分野を理解することの重要性について話してるけど、めっちゃハイプがあって、めっちゃマーケティングがあって、科学的に正確やないよな。一番よくある、あるいは一番イライラする誤解ってどんなんや?
たぶん一番イライラするのは、チャットボットが実際よりもめっちゃ賢いと思われてることやな。
例えば、チャットボットが話してる内容を知ってるって思ってる。自分でファクトチェックしたりするって想像してるけど、そんなことせえへんのや。常に幻覚見てる。本の中で例を挙げたけど、システムの一つが「わいはヘンリエッタっていう名前のニワトリを飼ってる」っていう事実を完全に作り出したんや。
わいはヘンリエッタっていう名前のニワトリなんか飼ってへんで。ウェブ検索して、信頼できるソースがあるかどうか確認するのに2秒もかからへんのに。だってめっちゃクレイジーな話やからな。わいは都会に住んでるんや。ニワトリをどこで飼うんや? 全然意味が通らへん。
それに、誰がニワトリにヘンリエッタなんて名前つけるねん。システムは実際にはファクトチェックせえへんのや。でも人々は驚く。毎日誰かがツイッターに「このマシンがこんなにアホやとは信じられへん」って投稿してる。一般の人にマシンがどれだけアホかを伝えきれてへんのやな。人々は騙されてる。大企業も去年、大規模言語モデルにめっちゃ投資して、みんな失望したんや。
何度も何度も人々はその教訓を学んでる。一般の人がそれを受け入れるのは難しかったんや。それは部分的に、ほとんどの人がトレーニングを受けてへんからや。マシンが何をするか、どれだけ優秀か、そもそもマシンやってことをどうやって見分けるんや? ライオンやトラを見分けるのはめっちゃ上手いんや。適応の環境で、ライオンやトラから逃げんとあかんかったからな。
でも、何言うてるか分からんチャットボットの集団に騙されてるって気づくのはめっちゃ下手や。ほとんどの人はそれに抵抗する方法を知らへん。本を書いた理由の一つはそれやな。
そうやな。わいにとって一番面白いのは、チャットボットが人々を騙して、あんたが言うてるように人々を引っ掛けたように見える理由は、言葉でコミュニケーションしてるように見えるってことやな。
わいらは、話せるなら知性があるって思うように作られてるんや。そして…
そうや。それに、一文字ずつタイプするみたいな小細工してる。答えは実際には事前に計算されてるかもしれんのに、人間らしく見せるためにそうしてる。開発者らはあんたを騙そうとしてるんや。
一番騙されたい人が一番魅了されるんや。もっと懐疑的な人らは反発するかもしれんけど、マシンに魅了されたい人もおるんや。マシンと恋に落ちたいって思ってる人も…
そうやな。AI彼女アプリとかそういうのもあるけど、現在のアーキテクチャ、大規模言語モデル、生成AIのバックボーンの限界について言えば、あんたはディープラーニングが壁にぶつかってるって言うてるな。それを示す証拠もかなり見えてきてる。それに…
たぶん「収穫逓減の段階に入った」って言う方がええかもしれんな。
めっちゃ進歩があった時期から、もっと漸進的な段階に移ったんや。2020年から2023年くらいの約3年間はめっちゃすごい進歩があった。でもそっから、もっと漸進的なものに変わった。GPT-4は2年以上前に学習させたんや。ほとんどの人は知らへんと思う。みんな「指数関数的な進歩や」「AIは毎日どんどんよくなってる」って言うてた。
でもGPT-4からはマイナーな改良しか見えてへん。GPT-5に値するようなもんは出てきてへん。OpenAIが新しいモデル出すたびに、「これGPT-5って呼べへんな。GPT-4よりそんなによくなってへんし」って感じや。何て呼んだらええんやろって。そして出てくる答えがGPT-4.0とかや。
それ何やねん? わいが思うに、これらの多くは、たぶんGPT-5を作ろうとした努力やけど、出来上がってみたら「うーん、そんなにええもんやないな」ってなったんや。ちょっとはよくなったけど、そんなにすごくはない。だから、あんたの質問を遮ってもうたけど、完全に壁にぶつかったわけやないと思う。まだちょっとずつ改善はしてる。
特定のことに関しては壁にぶつかってる。これらのシステムはまだ信頼できへん。まだ幻覚見て、ヘンリエッタのペットニワトリみたいなもん作り出す。それは壁や。これらのシステムから出てくるものが何か分からんっていう壁を越えられてへん。
他のことは進歩してる。例えば、グラフィックはよくなってる。今は動画も作れる。静止画だけやなくてな。ちょっとは進歩してる。でも、信頼性や推論能力の核心的な部分では、せいぜい収穫逓減やな。同時に、そういうことに気づいてる一方で、わいがツイッターにおるせいかもしれんけど、数が正確やないかもしれんけど、あんたが言うたように指数関数的に進歩してると思うてる人がめっちゃ多いように見えるんや。
新しいリリースが出るたびに…AIのインフルエンサーがツイッターでそういうこと言うてるんや。100万回以上見られてる。ほとんどの奴らは指数関数が何かも分かってへんやろ。指数関数っていうのは、実際には曲線をプロットして、フィットさせて、そういう形になるかどうか見るっていう数学的なもんなんや。
そんなことする方法知らんのや。AIについて話してるのに、小学校か高校レベルの数学も分かってへんのや。2ヶ月ごとに前よりちょっとよくなるってのは指数関数的やない。
指数関数的っていうのは、わいらが前に見たような、数ヶ月ごとに質的に大きな変化があるようなもんなんや。
今、見てるハイプと一緒に起こってるのが、投資側のハイプと市場の狂った評価やな。投資家らが収穫逓減に気づき始めて、そんなに金をかける価値がないかもしれんって思い始めたことで、AIバブルっていう考えが出てきた。
あんたはOpenAIをAIのWeWorkって呼んだことがあるよな。バブルは…
わいがバブルやって最初に言うた一人やな。評価額のバブルってことや。大規模言語モデルが消えるとは思ってへん。ツールの一つやからな。AIにはいろんなツールがあるし、まだ見つかってへんのもようけある。
例えで言うと、誰かが電動ドライバーを発明した瞬間みたいなもんや。電動ドライバーが世界を変えるって思うて、何十億ドルの価値があるって思うたんや。でも違う。結局、価格は下がって、30ドルくらいで買えるようになる。それでもすごいし、みんな好きやろ。
でも30ドルのツールになるんや。家全体を自動で建てるみたいなもんにはならへん。ここでも同じことが起こるんや。大規模言語モデルはなくならへん。使い道はある。すごく信頼できるわけやないけど、ブレインストーミングやコンピューターコードの自動補完には便利や。それは残るやろ。
でもOpenAIが1000億ドルの価値があるっていうのは、かなり怪しい。今、OpenAIの評価額は800億ドルくらいや。誰かが1000億ドルの評価で金を入れようとしてる。普通、評価額は利益に比例するもんや。でも彼らには利益がない。まだ利益出してへんのや。これを運用するのはめっちゃ金がかかる。
従来のソフトウェアとは違うんや。高価なチップが必要で、めっちゃ高給のスタッフも必要や。電気代もめっちゃかかる。利益が出る明確な証拠はない。メタみたいにタダで似たようなもん配ってる企業に勝つために毎年200億ドル払わんといかんのに、年間20億ドルしか稼げへんかったら。
計算が合わへんのや。
わいが想像するに、いつかは金を入れる人がいなくなる。今のところ、OpenAIはブランドやから、もうちょっと続くかもしれん。でも2024年に2023年みたいに世界を変えられてへん。デモはようけ見せたけど、実際に届けられてへんのや。
GPT-4.0みたいに、約束したもんの一部は届けたけど、一部は届けてへん。サル・カーンがチューターとして使えるって言うてたけど、実際のチューターソフトはないんや。Soraについて話したけど、家で使えへん。コストも分からへん。
デモを作ってるんや。次は何か発表するやろ。たぶんGPT nextとか呼ばれるんやないかな。デモを作るのは、それが価格を上げるって学んだからや。でもそれは永遠に続かへん。ちょっとポンジ・スキームみたいなもんや。
いつかは誰かが「金はどこにあるんや?」って言い出す。実際、わいは1年前にサブスタックで「生成AIはダメなんやないか?」みたいなタイトルの記事を書いたんや。その時はわいがほぼ一人で言うてた。他にも同じこと言うてる人は何人かおったかもしれんけど。
今じゃ毎週誰かがそう言うてる。バブルっていうのは、結局は心理の問題なんや。チューリップの本当の価値って何や? チューリップの価値は、人々が払おうと思う金額やった。数年間、人々はチューリップに何千ドル、何万ドルも払ってた。
そしてある日、みんな目が覚めて「これちょっとクレイジーやな。ただの花やん。他の花は5ドルで買えるのに、なんでチューリップに1万ドルも払うんや? そんな価値ないやろ」って気づいた。
そしたらみんな逃げ出すんや。ここでも同じことが起こる。みんな逃げ出すんや。誰が儲かって誰が損するか考えてみ。初期の従業員はまだ儲かる。株の一部を売ってるからな。初期の投資家も儲かる。投資された金の一部を取るからな。そして投資家に投資した人らが損する。
例えば、年金基金がある。年金基金を運用する人らは儲かる。年金基金の金を投資したからな。でも実際に年金基金に投資してる人ら、カリフォルニアの従業員とかが最終的に損するんや。OpenAIが1000億ドルの評価額を取り戻す可能性は低いからな。
例えば、今1000億ドルの評価で株を発行するとする。そして来年、人々が「やっぱりあんまり金稼いでへんな」って気づく。そして彼らはもっと金が必要や。めっちゃ必要や。だから500億ドルの評価で金を受け取る。1000億ドルの評価で金を入れた人らは、半分の金を失ったことになる。
そういうことが起こるんや。そして、こういうことが起こると、一つが下がったら、他のもようけ下がる。みんな逃げ出す。わいはそうなると思う。もう一度言うけど、技術は残る。でもみんな「やっぱりNVIDIAは3兆ドルの価値はないな」って思うようになる。NVIDIAには問題がある。
ええ製品作ってる。本当にそうや。ジェンセン・フアンに会ったことあるけど、めっちゃ優秀なCEOや。彼らのすることは全部ええ。でも、全部が一つの前提に基づいてる。彼らのチップを買う人ら、何万ドルもするチップを買う人らが、そのチップでようけ金稼ぐやろうっていう前提や。その前提が間違ってたら、生成AIにはまだキラーアプリがない。ただの会話だけや。
その会話が利益にならんかったら、結局NVIDIAも困ることになる。人々がチップの大量注文をやめるからや。何に使うか分からんからな。NVIDIAはチャリティーやないからな。ジェンセン・フアンの年金基金がチャリティーやっていうジョークを言うたことあるけど、ただのジョークや。
結局、OpenAIがこれらのチップを買い続けるだけの金を得られんかったら、NVIDIAは大きな注文を失うことになる。そしたら株価が下がる。わいはこうなると思う。NVIDIAが最初か最後かは分からへん。これ全部の心理はめっちゃ複雑や。
でも心理的には、この評価額は持続可能やない。利益がないからや。
AIの何かの形が何兆ドルもの価値があるかもしれん。みんなそう想像してる。でも生成AIには技術的な問題がある。わいはそんな価値にはならんと思う。
生成AIは、人々がいつか気づくことになる…
他の形のAIについてちょっと触れたけど、新しいパラダイム、新しいアーキテクチャ、ニューロシンボリックAIについて話したいんや。あんたはニューロシンボリックAIについてしばらく話してきたよな。そのアーキテクチャはどんなもんで、現在のんとどう違うんや?
答えの最初の部分は「分からへん」やな。
どの方向を見ればええか分かってる。その理由は説明するわ。でもまだ実際の作業はしてへんから、どんな感じになるかは分からへん。実際、わいが説明しようとしてるニューロシンボリックAIは答えの一部やけど、それだけでは答えにならへん。
みんなAIが魔法のように解決されることを期待してるけど、そんなことは起こらへん。知能は、チャズ・ファイアストーンとブライアン・シュールが言うたように、一つのものやなくて多くのものなんや。知能には多くの側面がある。わいらは一つの側面、パターン認識みたいなもんは解決したんや。
でも推論みたいな他の側面は全然解決できてへん。機械に推論させる方法についてええ答えがない。特に、オープンエンドな問題について推論させる方法がない。単純な論理パズルみたいなもんなら、機械はめっちゃ得意や。それは75年くらい前からできてる。
10歳の子が学校で読むような「AはBを信じてるけどCを知らへん」みたいな類のものは、実際にはかなりよく解けるんや。でも、不完全な情報がようけある現実世界での論理は、そんなにうまくいかへん。それをどうするかについては、古典的なAIの伝統からちょっとは分かってる。でもようけの知識が関係する大規模なケースではできへん。
あんたの読者や聴衆の多くは、ダニエル・カーネマンの「ファスト&スロー」って本に出てくるシステム1とシステム2の区別を知ってるかもしれへん。
システム1は自動的、高速、反射的、直感的、データ駆動的なもので、システム2はもっと熟考的、抽象的、推論的なもんや。現在のAIはシステム1が得意で、古い形のAIはシステム2がかなり得意、完璧やないけどな。でも、この二つをうまくコミュニケーションさせる方法がない。
わいが思うに、AIの進歩はそこから来んとあかんのや。これらの伝統をどうつなぐか。それは簡単やない。だってそうしたとしても、たぶんようけの知識を機械が解釈できる形で入れんといかんし、現実世界の場面から認知モデルを抽出するっていう作業もせなあかん。
それを一般的にやる方法を誰も知らへん。だから、AGI(人工汎用知能)のタイムラインについて、わいは2027年くらいやと思うてる。イーロン・マスクは2025年の終わりって言うてる。めっちゃクレイジーやから、わいは100万ドルの賭けを申し出たんやけど、返事がなかった。
めっちゃクレイジーやから、わいの友達が1000万ドルに上げたんや。ウォールストリートジャーナルの記者がイーロンを追いかけたけど、それでも彼の人らは反応せえへんかった。2025年の終わりまでに人工汎用知能ができるって言うのは、完全にクレイジーな主張や。人工知能のことを理解すればするほど、それが明らかになる。
わいの専門は人間の知能がどう発達するかやった。それを見ると、子供が生まれて最初の数年で学ぶことを考えたら、わいらがまだそこに至ってへんのは明らかや。わいらが持ってるのは、時々なんとなく近いものを作れるけど、人間なら絶対しないようなめちゃくちゃな間違いをようけする。
そうやな。この二つの伝統をくっつけんとあかんのや。わいはそれをニューロシンボリックAIって呼んでる。本の一部はそれを主張するためのもんや。例えば、一番でかい大規模言語モデルを持ってる奴がAIレースに勝つって思ってる人がおるけど、わいはそうやないと思う。新しいもんを見つけるための革新を一番支援する奴が勝つんや。
さて、汎用知能の話やけど、マスクは自分のタイムラインを持ってる。マスクはなんでもかんでもハイプする奴やな。
みんな自分のタイムラインを持ってるみたいや。その一部は実存的リスクやP-Doomの考えと結びついてる。ほんまに疑似科学みたいなもんやな…
P-Doomはある意味本物やな。視聴者のために説明すると、P-Doomは機械がわいら全員を殺す確率のことや。
わいのP-Doomはめっちゃ低い。でも、50%とか、次の3年で50%とか思ってる人もおる。不思議なことに、そう思ってる人の中には、彼らの話を信じるなら、そういうことを引き起こすかもしれん会社を経営してる人もおる。「わいが作ってるもんはめっちゃすごくて危険で、みんなを殺すかもしれん」って言うのは、一種のハイプなんや。
わいの見方では、近いうちに人類が絶滅することはない。それには相当な努力が必要やし、そんなことは起こりそうにない。だからそういうシナリオは起こらんと思う。でも、誤情報、偽情報、ディープフェイクポルノ、バイアスなど、AIに関連する他のリスクはようけある。本の中で12個くらいのリスクのリストを挙げてる。
偶然に戦争がエスカレートする可能性もある。実際の絶滅には至らんけど、起こる可能性のあることはようけある。
そうやな。環境への影響もめっちゃでかい。コストもめっちゃかかる。
誰も本当にこれがどこに向かってるか分かってへん。人々は「このでかいモデルをインターネットで学習させたけど、うまくいかへんかった。だからインターネットの10倍か100倍のデータで学習させるわ」って言うてる。
それにはめっちゃエネルギーがかかる。一回の学習で、適当な数字やけど、ドイツの国が1年で使う電力全部くらい使うかもしれん。どんどん大きくしていったら、めちゃくちゃな量の電力と水を使うことになる。排出量もめっちゃ多い。これを最小限に抑えようっていう取り組みもあるけど、モデルがどんどん大きくなったら、それでも…
あんたが言うてた人間の認知と知能の要素について、わいらは今どこにおるんや。わいが見てきたのは…
人間をただ真似るんはあかんのや。質問を遮ってすまんけど、言わせてもらうわ。わいらはAIに人間そっくりになってほしいわけやない。人間にはようけ問題がある。電卓に、わいみたいに算数させたくないやろ。わいは繰り上がりを忘れるし、注意力も足りへん。人間の知能をそのまま複製するんやなくて、人間の知能から適応力を得たいんや。
あんたは、わいと一つの話題について話して、他の人と別の話題について話して、両方を理解できる。話し終わったら、IKEAの本棚を組み立てたりできる。人間はいろんなことができる。時には説明書が悪くても、最終的には理解できる。わいらがマシンにも持たせたいのは、その知能の適応力なんや。新しい仕事を与えても信頼できるように。
わいはIKEAの本棚、組み立てられるかどうか分からんけどな。ちょっと時間かかるかも。
でも、汎用知能が可能かどうかについては、めっちゃ議論があるよな。可能やと思う?
絶対に可能やと思う。ほら、あんたの脳だってある種のマシンやろ。心臓が機械的なポンプやのと同じや。脳は情報処理装置なんや。
何かしらの情報処理…今のやり方は間違ってるかもしれんけど、汎用知能を作れない理由はないと思う。ダ・ヴィンチの時代に「ヘリコプターは絶対に作れへん」って言うたのと同じや。
それは間違った議論やった。彼が持ってた材料じゃ作れへんかっただけや。内燃機関のことも、材料科学のこともよう分かってへんかった。でも不可能やったわけやない。ただ準備ができてへんかっただけや。
AIもそんな感じや。ダ・ヴィンチとヘリコプターみたいなもんや。どんなもんになるか、どうしてすごいかっていうビジョンは今ある。不可能やと思う理由はない。ヘリコプターが作れへん証拠はなかった。汎用知能が作れへん証拠もない。200年以内には絶対にできると思う。20年以内にできるかもしれん。
来年できるわけないっていうのも確実や。イーロンは勘違いしてるか…
賭けに乗ってこなかったやろ。それがようけのことを物語ってる。1000万ドルまで上げたんや。象徴的なもんでもよかったのに。もちろん、彼には金は要らへんやろうけど。
それでも返事せんかったってことは、自信が…
さて、AGIの話やけど、わいらは仮説の話をしてる。あんたが言うたように、それがどんな感じになるか、いつ来るかは分からへん。規制の面では、今AIから実際に起こってる害についてめっちゃ懸念がある。もしかしたら来るかもしれんAGIのために、今ある問題への対応をおろそかにしたらあかんのやないか?
それのバランスをとって、いつ来るか分からんAGIに対して法律で備えることは、どれくらい重要なんや?
今せなあかんのは、現在知ってる害に対処することや。ほとんどがアメリカの法律ではうまく扱えへん。そして、もっと知的なシステムができた時のために、それらに対処するフレームワークを作っておかなあかん。他の国とリスクについて話し合ったり、悪いことが起こった時に情報を共有したりするようなフレームワークや。
わいが今のAIを見てるのは、ドレスリハーサルみたいなもんや。20年後のAIやないのは、最初のフリップフォンがiPhoneやないのと同じや。最初のフリップフォンは、携帯電話がどんなもんになるかのプレビューやった。今のAIも、AIがどこに向かうかのプレビューにすぎん。
まだ完全には見えてへんけど、もうどう扱うべきか急いで考えんとあかんのは分かってる。そして、企業が公で「そうや、規制が必要や。みんなのために安全にしたい」って言うてたのが、わいの隣でオルトマンがアメリカの上院で言うてたような、わいらが会った頃の話やけど、裏では、時には公でも、実際の法案に反対してるのが見えてる。
カリフォルニア州の法案についてOpenAIが言うたみたいに、「これは連邦レベルでやらなあかん」とか言い訳してる。それは確かにそうや。連邦法が必要や。でも、どっかから始めんとあかんやろ。州法があっても連邦法が作りにくくなるわけやない。必要なら連邦法で州法を上書きできる。これはでたらめな議論や。
公には規制が欲しいって言うてるけど、実際には規制されたくない企業の議論や。わいらは疑わしく思うべきや。これらの企業をタバコ会社みたいに見始めるべきや。リスクを過小評価して、高額なロビー活動で世論を操作しようとする。秘密の研究を他の名前で発表したりする。こいつらには大金がかかってるし、わいらを騙してるって考えるべきや。本の一節は、彼らがどうやってそれをするかについて書いてる。
本の最後の方で、わいがよく自分に問うてきた質問に答えてる。「AIを止めるべきやない。安全で、よりよく、より信頼できるものにするべきや」って。同時に、他のようけの人らから、その考えについていろんな意見が出てる。AIの中にもいろんな立場の人がおって、終末論者の議論もあるし、AIを一時停止しろって言う人もおるし、今すぐ止めろって言う人もおる。
そういう主張の一部は、存在を脅かすAGIの話やなくて、今見えてる害に焦点を当ててて、それに対する救済策がないってことに注目してる。AIの開発を遅らせるっていう考えに価値はあるんやろうか?
わいは研究と展開を区別することから始めると思う。今のところ、わいが知ってる範囲では、「これはやめとけ」って言うほど危険な研究はない。
そういうもんがあるかもしれんって想像はできるけど、わいが読んだ中にはない。一方で、これらのもんに問題があるか? 今すぐ展開すべきか? 「いや、ちゃんと整理するまでは展開すんな」って言う議論は分かる。
これは薬でやってることと同じや。安全性を示して、リスクよりも利益の方が大きいって示せって言うんや。それができへんかったら、「薬を作るな」とは言わへんけど、「戻って、リスクをどう減らすか教えてくれ」って言う。
単純なことかもしれん。「空腹の時に飲むな」って言うだけで解決するかもしれん。そしたら、解決策ができたってことや。チャットボットを信用すんなって大々的なキャンペーンをするとか。それが特定の問題には必要かもしれん。
他にはそう簡単に解決できへん問題もあると思う。これらのシステムが明らかに差別してて、採用の決定に使われてるのはよくない。差別的な採用が社会にもたらすコストはめっちゃ高いって議論できる。
だからこそ展開を遅らせるか一時停止すべきやって言えるかもしれん。「こういうソフトウェアを出すのはええけど、解決策が必要や。これを解決してくれ。6ヶ月かかるならええし、2年かかってもええ。これをどう扱うか分かったら戻ってきてくれ」って。
誤情報についてはどうや? 本当に機能する透かしを作れるか? 機械が生成したものだって分かるようにできるか? 自分らのもんにはちゃんとラベルつけるって保証できるか? 社会がすべてのコストを負担せんでええように、何ができるんや?
わいがずっと考えてるのは、昔、有毒な化学物質を水に流してた企業のことや。社会がそのコストを負担せなあかんかった。「利益は私有化して、コストは社会化する」っていう言葉がある。誰が言い出したか知らんけど、わいが言いたかったくらいや。
歴史の中でそういうことがようけ起こってきて、わいはAIでそれを見たくない。わいはこの分野の一員やからな。AI企業も作ったし、研究もようけした。AIが利益を私有化して、コストを社会化するのを見たくない。でも、まさにそれが起こってるのが見えてる。だからこそ本を書いたんや。それは公平やないと思うからや。
利益の話やけど、この方程式の一部として、めっちゃええ株価評価とかようけの金が、物事を動かしてる小さなグループに流れ込んでる。でも一方で、チャットボットの裏側を見ると、AIや機械学習が使われてる応用分野がある。そこで起こってることで、ポジティブな影響について、あんたがわくわくしたり、希望を持ったりしてることってあるんか?
わいの希望は、チャットボットよりもDeepMindのAlphaFoldみたいなもんにある。チャットボットにも価値はあるけど、そんなに大きな価値やないと思う。ブレインストーミングには便利や。人間が間に入ってチェックできる。コンピューターコードを書く時の自動補完みたいなもんで、プログラマーが速く書けるようになる。
そこにもリスクはあるけどな。例えば、セキュリティの質が下がるっていう研究もある。医療での使用も心配や。AlphaFoldは特定の問題のために作られたツールや。タンパク質のアミノ酸配列を入れたら、その3次元構造を教えてくれる。これ自体がめっちゃ価値のある問題や。生物学の多くは3次元のジグソーパズルみたいなもんやからな。
チャットボットやないこのツールがめっちゃ役に立つ。こういうもんにもっと金をかけるべきや。グーグルというかDeepMindがそういうもんに金をかけてるのを見れて嬉しいわ。チャットボット自体には、そんなにわくわくしてへん。悪い結果ばっかり見えてる。
今朝見た研究は、チュータリングについてのものやった。トルコの学生1000人を対象にした数学の問題解決の研究やけど、練習問題をする時はめっちゃ役に立ったんやけど、実際の試験になったら、その利益はなくなってた。わいの仮説やけど、確実やないけど、チャットボットは暗記した問題をその場で思い出させるだけで、概念的なことはあんまり教えてへんのやと思う。それに、実際より分かった気にさせてまうんや。それはあんまり健全やない。
でも、どんな理由にせよ、教育の利益に関するデータは実際にはめっちゃ弱かった。何度も何度も、応用に対して人々が興奮するのを見るけど、思ったほどうまくいかへん。わいはチャットボットが、スターウォーズの言葉を借りれば「探してるドロイド」やとは思えへんのや。
AIからは間違いなくでかい利益がある。わいがAIで好きな他の2つは、GPSのナビゲーションと方向案内や。わいはよく旅行するから、これは素晴らしい。地図も好きやけど、グリッド状になってへん都市におると、地図を使うのはめんどくさい。
だからGPSの方向案内が大好きやし、グーグル検索も大好きや。わいはプライバシーのためにDuckDuckGo使うけど、ウェブ検索に機械学習を使うのは素晴らしい。つまり、AIが嫌いってわけやないんや。でもチャットボットは、ポジティブな価値を聞かれても、よう分からん。チャットボットが地球上から消えても、ちゃんと動くようになるまでは、わいはええと思う。
この前ツイッターで言うたんやけど、正確な言葉は覚えてへんけど、「チャットボットは百科事典みたいな権威を持って全てに答える。何でも知ってるみたいに聞こえるけど、信頼性はマジックエイトボールみたいなもんや」って。わいの人生にそんなもん要らんわ。こんなにようけの人が必要としてるのが驚きや。
トルコの学生の研究も読んだわ。めっちゃ面白かった。こういう研究がもっと増えることを願ってる。今のシステムは、あんたが言うたように信頼できへんし、幻覚も見る。でも、それが教育にどんどん導入されてるのを見てると、ちょっと心配になる。
信頼できへんチューターを通して学ぶことで失われるものについて話してたけど、よりええAI、推論できて、信頼できて、幻覚を見へんAIを目指す中で、わいはそれがほんまにええことなんかなって考えてた。今は、知ってる人なら、これらのシステムは信頼できへんから信用したらあかんって分かってる。でも、完璧で、もっと統合されたGPTみたいなものができたら…
わいはいつもAIを嫌ってるみたいに描かれるけど、原則的にはAIチューターみたいなもんが大好きなんや。もしそれがちゃんと動いて、幻覚を見たりせえへんかったら、学生が問題をどう理解してるかのモデルを信頼性高く作れて、十分安くできたら、個人チューターを雇えへん人らをようけ助けられる。
それはすごいことやと思う。そうすることに道徳的な理由はないと思う。その技術があったら他の面で危険やっていう議論はあるかもしれんし、そういうことは見て全体を理解せなあかんけど、原則的には、こういう使い方は大好きや。
家庭医みたいな使い方も好きや。だって、どの医者も忙しすぎるし、世界中の多くの人が医者にアクセスできへんからな。本当に信頼できる皮膚科アプリがあったらいいなって思う。みんながアクセスできるわけやないからな。だから、こういうもんがちゃんと動いてほしいんや。でも、今あるもんはそんなにうまく動いてへんと思う。
売り込みすぎや。そのせいで、悪い答えをもらうとか、世間の反発が始まるとか、いろんな問題が起こる。わいが思うに、シリコンバレーは今、常に過大に売り込むことで自分で自分の首を絞めてる。「オオカミ少年」みたいになってきてる。
今、誰かが完璧な家庭医アプリを作ったとしても、ようけの人が「うーん、分からんな。2年前にこういうの試したら、このクスリ飲めって言われて、めっちゃ具合悪くなったわ。もうええわ」って言うかもしれん。自動運転車も、早すぎるペースで押し出してる。
急に何百万台も道路に出したら、毎日事故が起こって、人が死んで、みんながプロジェクト全体をキャンセルしてまうかもしれん。ある程度段階的に導入した方がええ。こういうもんを売り込みすぎると結果が出るし、まだそんなにうまく動いてへん。
ソフトウェアでは、コーディングにようけ使われてるけど、そのコードがうまくメンテナンスできへんかもしれん。ソフトウェアの課題は、動くコードを書くことと、1年後、5年後、10年後、20年後に見返しても動くし、変更もできることや。状況は変わるからな。
たぶん一番有名な例はY2K問題やろな。日付を4桁やなくて2桁でプログラムしてたから、何百万ドルもの作業が必要になった。一般の人はもう知らんかもしれんけど、実際にはその問題を解決できた。当時はめっちゃ大変やった。ソフトウェアは結局必ず壊れる。何かが変わるからや。
他のソフトウェアを呼び出してたりする。プログラミングの難しいところは、書いた時は動き方が分かってても、後で見返した時に、コードが分かりやすくて、ちゃんと文書化されてるかどうかや。これらのマシンで書かれるコードには大きなリスクがある。
技術的リスクとか技術的負債って呼ばれるもんや。人々がこれらのマシンで書くコードは、本当には理解できてへんし、なんとなくくっつけただけみたいなもんや。修正するのが難しくなる。だから、後になって問題が出てくるかもしれん。
そうやな。こういう問題について話してるけど、ほんまにようけある。ようけの人にとっては、仕事を失うかもしれんとか、ターミネーターの映画見たことあるからめっちゃ怖いとか、正当化されるかどうかは別にして、めっちゃ圧倒されて怖いと思う。
人々は何をすべきなんや? どうやってこれを理解したらええんや?
人々にもっと声を上げてほしいわ。議員に話しかけたり、オピニオン記事を書いたり、ボイコットを考えたりしてほしい。本の最後で提案したんやけど、teamingsiliconvalley.orgでこれについて何か設定するつもりや。たぶん、ちゃんとライセンスを取ってへんアートを使ってる生成AIをボイコットすべきやと思う。
「消費者として、これら全部が倫理的に調達されてることを望む。それまで待つわ」って言うべきやと思う。ここで集団行動を起こして、「わいらはAIが倫理的なやり方で、みんなにとってええ方法で行われることを望む。それを支持する」って言えば、シリコンバレーを変えられると思う。
シリコンバレーは昔、消費者のことをもっと気にしてたと思う。今は「ああ、ただ金儲けするだけや」みたいな態度や。
そのとおりや。ゲイリー、時間取ってくれてありがとう。

コメント

タイトルとURLをコピーしました