AIはバブルなのか?

Is AI A Bubble?
Go to to understand how context shapes historyand the different ways we interpret current events with Ground News. Save ...

Miriam Websterによると、AIとは3本指のナマケモノのことを指します。Al Perkinsによると、ナマケモノとは木に住む動きの遅い哺乳類で、高い声で鳴くことからAIという名前がつけられたそうです。面白いですね。
一方、人工知能とは、コンピュータシステムやアルゴリズムが人間のような知的な行動を模倣する能力のことです。これは新しいものではありません。技術的にはコンピュータの始まりとほぼ同時期までさかのぼります。しかし、今日大きな話題となっているAIは、ビデオゲームの敵キャラクターや何十年も前からあるチャットボットとはやや異なるものです。明らかにChatGPTはクリッピーとは同じではありませんね。
おそらく、このAIという言葉についてはかなり複雑です。大規模な言語モデルやニューラルネットワークの究極的な可能性については分かりませんが、同時に、株価を上げたい企業が可能な限りAIという言葉を使っていることに気づくのは、天才である必要はありません。企業がAIという言葉を口にするだけで、投資家は何を意味するのか、何をするのか、何ができるのかを理解していなくても、お金になると思って投資せずにはいられません。
ゲーミングPCやその他のコンピューティング製品向けのGPUメーカーとして知られていたNVIDIAは、AIのおかげで、成功企業から一気に世界で3番目に大きな企業になりました。その価値の上昇は、まさに法外としか言いようがありません。
マイクロソフトは現在、世界で最も価値のある企業となっています。同社はAIのハイプトレインに乗っており、オペレーティングシステムのあらゆる部分にAIを押し込み、OpenAIと非常に密接な関係を築いています。一方で、この技術が私たちの社会の基盤そのものを変えるのか、それともまた別のはかない技術的流行に過ぎないのかについては、誰も意見が一致していないようです。
皆、皆、意見を持っています。結論に達することのないこの行ったり来たりの議論を見るのにうんざりしています。Ground Newsの話をしましたが、これは世界中の5万以上のソースから関連記事を1つの場所に集めるウェブサイトとアプリで、同じストーリーをさまざまなメディアがどのように報道しているかを比較することができます。各ストーリーには、報道しているソースの政治的バイアス、所有権、見出しが明確に分類されており、3つの独立したニュース監視機関の評価に裏付けられています。
OpenAIが次のフロンティアモデルのトレーニングを開始するために安全保障委員会を設置しているという記事を見てみましょう。以前の安全チームのリーダーが最近同社を去ったため、これは多くの議論を呼んでいます。
このストーリーは73以上のソースでカバーされており、そのうち37%が左寄りで、14%が右寄りです。所有権の情報も見ることができ、このストーリーでは報道機関の40%がメディア・コングロマリットに所有されています。また、見出しを比較することで、このバイアスがどのようにフレーミングに影響を与えるかを見ることもできます。いくつかの組織が、クリック数を稼ぐためにAIに対する一般の人々の既存の恐怖心をあおったり、ここ数ヶ月でSam Allmanが獲得した不信感に乗じたりしている一方で、他の組織はそれを利用していることがすぐにわかります。
Ground Newsには「Blind Spot」という機能があり、左寄りまたは右寄りのニュースメディアが都合よく報道しないストーリーをすぐに表示してくれます。
ぜひground.news/huskにアクセスするか、動画の説明欄にあるリンクから購読してください。私のリンクから登録すると、私が使っているすべての機能に無制限にアクセスできるVantageプランが40%オフになります。私はGround Newsが非常に重要なウェブサイトだと思いますし、ぜひチェックする必要があります。では、動画に戻りましょう。
はい、AIはコンピュータの初期からかなり前からありましたが、今の注目は大規模な言語モデルの進歩に集まっています。これらのプログラムは大量の情報を取り込み、ユーザーのプロンプトを必要とし、複雑なアルゴリズムを通じて出力がどうあるべきかの確率を基本的に生成します。それらが生き生きと見えるかもしれませんが、実際には生きているわけではありません。考えることは一切ありません。完全に独創的または斬新なアイデアを生み出すことはできません。何かをするためにはトレーニングデータが必要です。
これを証明する最良の方法の1つは、AIモデルがトレーニングデータで提供されていない答えを持つ質問をすることだと提案されているのを見たことがあります。例えば、ChatGPTに行って、「この文の21番目の文字は何ですか?」と聞いてみてください。別の答えが返ってくるかもしれませんが、私が得たAIの答えは自信を持って「eです」というものでした。「それは正しくないと思う」と言うと、再度数えて今度は別の文字、「i」を出してきます。時々、2と1を文字として解釈することもあります。おそらくアポストロフィのことでしょう。このような質問でAIが破綻する理由は、文字が何であるかを実際に理解していないからです。何も理解していませんが、インターネットとトレーニングデータを検索して最も可能性の高い答えを探しているのです。
こうした限界があっても、この技術は明らかにいくつかの印象的なことができます。コンピュータプログラムの作成を支援したり、短編小説の校正を手伝ったり、宿題でカンニングするのを手伝ったりと。しかし、それでもAIとして宣伝されているものの多くは、実際にはAIではありません。AIが持っていると報告されている革命的な能力の多くは、実際には従来のソフトウェアができていたことです。これにより、この技術のアイデアが実際にできることよりもはるかに価値があるという問題が生じます。繰り返しになりますが、AIと言うだけで株価が上がるからです。
少し前に、Amazonは実店舗を立ち上げました。レンガとモルタルの店舗で、客は店内を歩き、棚から商品を取って、カートに入れ、レジを通ることなく帰ることができます。これらの商品は、レジ係と話をしたり、セルフサービスシステムを使ったりすることなく、自動的に人々のアカウントに請求されます。すべて自動的に行われました。多くの人は、これがコンピュータやセンサー、スキャナーの配列を使って処理されていると思っていましたが、実際には、同社はおそらく多くのインド人従業員を雇って、カメラで人々の買い物の様子を見守り、ユーザーのAmazonアカウントに請求していたのでしょう。
Googleは、ChatGPTの即時の成功に不意を突かれ、独自のAI競合製品を立ち上げるために懸命に努力してきました。彼らは何百万ドルもの費用を払って、ウェブサイトの投稿へのアクセス権をRedditから購入し、AIをトレーニングしましたが、予想通りの結果になりました。ユーザーが「ピザのチーズを固定するにはどうすればいいですか?」という質問をすると、Googleは「無毒性の接着剤を使う」のが最良の答えだと判断しました。ちなみに、この情報はRedditユーザーのfoxsmithによる11年前の投稿によって提供されたもので、GoogleのモデルはこれがPOIの情報の最も信頼できるソースだと判断したのです。1日に食べるべき石の数について尋ねられた時、正解のゼロという答えは出てきませんでした。ご想像の通り、インターネットを使って自分自身をトレーニングするどんな技術でも、おそらくいくつかの間違いを犯すでしょう。そしてその間違いにより、AIは今、非常に簡単で楽しいパンチングバッグになっています。
しかし、すべてのAIが平等に作られているわけではありません。LLMや機械学習やニューラルネットワークが完全に役に立たないとは言えません。多くの人がそれを使っているのですから、ここには可能性があります。自然言語プログラミングにより、人々はコードを書かずに独自のプログラムを作成できるようになるかもしれません。どのようなアプリケーションを作りたいかを説明するだけで、AIが残りの処理を行います。これを使って情報を調べることを学ぶこともできますが、繰り返しになりますが、AIは間違うこともあるので、私はこれをWikipediaと同じように見ています。便利で、良い出発点にはなりますが、情報源を確認する必要があります。100%正確というわけではありません。
多くのデータをすばやくまとめて、地主協会に逆らうのに使うこともできます。これには実際の価値があります。以前のソフトウェアでも可能だった自動翻訳や文字起こしなどは、これまで以上にアクセスしやすくなっています。しかし、人々はこれを行き過ぎています。
OpenAIの最終目標は、AGI(Artificial General Intelligence)を達成することです。AGIは、トレーニングを受けていないスキルやタスクを学習できる強力なAIを指すことになっています。これは機械の感覚、意識、特異点につながる可能性があります。そして今、誰もが、より多くの計算能力、より多くのエネルギー、より多くの情報をこれらのアルゴリズムに投入し続けるだけで、今日の人工知能の種類からAIを単純に顕在化させることができると信じているようです。
誰もがAGIの定義を異なる方法で行っています。そう、誰も本当にそれがどのようなものになるかわからないからです。私たちはしばしばAIを2つのカテゴリー、弱いAIと強いAIに分けます。弱いAIはプログラムされた非常に特定のタスクを実行できますが、これまでに作られたものはすべて弱いAIでした。AGIは強いAIになり、多くの仕事ができるようになります。あなたの仕事を奪うかもしれませんが、これはどのように見えるのでしょうか?
AGIのテストにはいくつかの異なる方法がありますが、私は常に、実際のロボットで行われるものが最良だと思っています。ロボットを連れてきて、20世紀初頭の家の配管、電気システム、家電製品を修理するように頼んでください。特に、そのような情報がインターネット上のドキュメントで入手できない場合は。すべての家がわずかに異なるので、ロボットは仮定を行い、カスタムの1950年代のトースターがなぜ動作しないのかを理解し、おそらく試行錯誤を通じて、それをトースト作りの状態に戻す方法を理解する必要があります。
今日、家庭で単純なタスクを完了するロボットのデモはありますが、これらは制御された環境で行われ、以前の経験から作成されたトレーニングデータのおかげで可能になっています。このAGIロボットは、ユニークな状況から学習し、自分の意思に基づいて質問し、自分で解決できる必要があります。しかし、これが起こるという証拠はありません。実際、研究では、この種のものには収穫逓減の法則があることが示唆されています。私たちは、従来のシリコンチップやプログラミングのバイナリコードでこれが可能かどうかさえ知りません。これを達成するには、まったく新しい形のコンピューティングが必要になるかもしれません。私たちは人間の脳がどのように機能するかを完全には理解していないので、はるかに単純な技術、はるかに硬直した技術でそれを複製しようとすることは、少し過ぎているように思えます。
人々は、ロボットがすべての仕事を奪い、生きて、人類を奴隷にし、永遠に人生を変えるまであと5年だと考えているようです。正直なところ、ChatGPTはこれらすべてへの足がかりになるかもしれません。AGIへの足がかりになるかもしれません。火薬の発見が核兵器への足がかりになったのと同じように。あるいは熱気球が銀河間宇宙飛行への足がかりになったように。つまり、それほど大きな一歩ではないのです。私たちの知る限り、LLMとAGIは関係ないかもしれません。正しい道筋にいるかもわかりません。私たちにはわかりません。
このようにより強力なAIに発展する可能性があるかどうかわからない、AGIへの道をたどっているという実質的な証拠がない場合、なぜこれほどの大騒ぎなのでしょうか?明らかに、この技術が真に革命的なものになりつつあると人々が信じることは、企業の最大の利益になります。実際よりもはるかに高度であるかのように見せかけ、より大きな成長の可能性を示唆し、株価を上げるのです。彼らにはこの技術を売り込む方法があります。
多くの企業は、製品に全く適用されない場合でも、「AI」という言葉を気軽に使っています。通常はゲーム用マザーボードやメモリなどを製造しているGIGABYTEは、AIに全面的に取り組むことを決定し、製品に大きな「AI」と書かれたものにリブランドしました。そう、リブランドです。実際には、他のどこでも見つけられるようなものとほとんど同じものですが、今では「AI」と書かれています。何を意味するにせよ。
数年前にも同じようなことがありました。「メタバース」ブームの時です。投資家がそれを聞きたがっていたので、すべての企業が既存のビデオゲームやオンラインサービスが実はメタバースだと宣言し始めました。そして、メタバースという言葉は、ソフトウェアの同義語以上の意味を持たないほど希薄になってしまいました。
AIが間違いを犯すと、企業はそれを「幻覚」と呼びます。これは非常に誤解を招く言葉です。機械に人間の性質を適用しているのです。実際には幻覚を見ているわけではなく、一連の確率を取って、そのトピックに関する十分なトレーニングデータや正しいアルゴリズムを受け取っていないため、正確な答えを出せないだけなのです。幻覚を見ているのではなく、単に間違いを犯しているだけです。技術が十分ではなかったのです。それが改善されるでしょうか?はい。しかし、どれだけ良くなるのか、どれだけ正確になるのかはわかりません。
AIの感覚については、5年後かもしれませんし、10年後、100年後、1000年後かもしれません。あるいは、私たちにはこれを構築することができないかもしれません。わかりません。起こるまでのすべては推測に過ぎません。あなたが耳にするAIの安全性の多くは、実際にはより現実的な懸念を指しています。将来、AIサービスが従来の検索エンジン(Googleなど)の代替となった場合、人々がChatGPTに頼ってすべてのニュースを入手するようになれば、そのサービスを担当する人々は、AIを担当する人々の利益になるように、情報を操作したり改変したりすることができます。彼ら自身の動機、彼ら自身の議題を推し進めるために。これが安全性への懸念がしばしば存在する場所です。ロボットが世界を支配するというファンタジーではなく。少なくとも、恐れるべきはそこにあるはずです。
そして、ファンシーな量子コンピューティングか、まったく前例のないものがロボットの革命を可能にし、AGIを可能にするなら、今日の技術とLLMがこのすべてへの正しい道筋にあり、必要なのは数兆ドルと小国の消費電力を合わせただけなら、私は真っ先に間違っていたと認めるでしょう。ウープスデイジー、顔に卵が付いちゃった。でも今は、ちょっと懐疑的です。
このビデオでは、AIの将来は革命的ではなく進化的だと仮定しましょう。そうだとすれば、それはバブルなのでしょうか?はい、そうです。でも、それが価値がないという意味ではありません。私は今のAIを1990年代後半のドットコムブームのようなものだと思っています。これは、投資家があらゆるウェブサイトが何百万ドルも稼ぐと信じていた時代でした。特定のウェブサイトだけが人気になり、収益を上げることがわかると、多くの人がお金を持って逃げました。その結果、ドットコムバブルが崩壊しました。しかし、これは World Wide Web の終わりではありませんでした。
AIがインターネットほど重要になるとは言いませんが、明らかにこれは単なる流行で消えてしまうようなものではありません。バブルは崩壊し、業界はその価値を現実的に見る必要がありますが、根拠のない約束や無秩序な投機に頼るのではなく。しかし、AIはここにとどまるでしょう。AIはずっと前からここにいたのですから。
AIはすでに私たちの世界を変えています。アルゴリズムが検索エンジン、YouTubeチャンネルのおすすめを動かしています。インターネットのほとんどがこの自動化によって動いています。この技術が価値を持っていることは知っています。それはしばらくの間ここにあったのですから。問題は、AIのこの新しい形態であるLLMが、私たちの生活や仕事にどのような重大な影響を与えるか、またはその影響がどれほど重大なものになるかということです。そして、多くの人がこのすべてについていくつかの疑問を持っているようです。
ロイター・ジャーナリズム研究所は、6カ国の12,000人をオンラインで対象に、AIに対する意見を調査しました。12,000人というのは多くはありませんし、オンラインで世論調査を行っても完璧な結果は得られませんが、一般の人がこの技術についてどう考えているかを知ろうとすれば、これが最善の方法でしょう。そして、ほとんどの人はそれが何であるか、何をするのか、何ができるのかを知りません。多くの人はAIとこれらの新しいサービスについて聞いたことがありますが、大規模な言語モデルと従来のコンピュータソフトウェアの違いを知りません。
これらの人々の多くが実際にはAIが何であるかを知らないことを考えると、私はそうは思いません。これらの調査結果のいくつかは非常に役に立ちませんが、いくつかのことを取り出すことはできます。人々はこの技術に単に混乱しているだけでなく、根本的に嫌っているようです。それがもたらす可能性のある損害について多くの懸念があります。人々は仕事を奪われることを恐れ、公衆を操作するためのツールとしてしか機能しないと考えています。そして、ほとんどの人はこの技術のポジティブな側面に全く興味がないようです。ほとんどの人はそれが何であるかを特定することさえできません。
時には、技術は単に十分であるだけでなく、完璧である必要があります。スクールバスを運転したり、数兆ドル規模の企業の税務をしたりする場合、おそらく間違いを犯す、あるいは犯すであろうロボットにその責任を負わせたくないでしょう。人間は完璧ではありません。多くの場合、AIは人間よりも優れているかもしれません。しかし、人間は物事がうまくいかない時に責めるべき相手を与えてくれます。AIにはないアカウンタビリティを提供してくれます。
AIについて、Googleは2024年のGoogle I/Oで、そのAIイニシアチブについて話しました。しかし、人々はそれほど気にしていないようでした。多くの人々は目をそらしています。それはまたAIのスラップだからです。マイクロソフトは新しいAI PCのラインを大々的に宣伝しましたが、ほとんどの人はプライバシーへの懸念すべき侵入だと見なしました。価値があるものとは思えません。同社はWindowsオペレーティングシステムの未来をAIに賭けています。うまくいきそうにない賭けです。実際、WindowsがこのAIゴミに感染したため、Linuxに移行することについてより多くの人が話しているのを見ました。
今後、LLMや機械学習、AIが価値あるものに発展することは間違いありません。これにより日常生活に大きな変化が生じる可能性さえあります。しかし今のところ、この全体が悪意のある人々や偽りの約束、そして私の意見では、かなり誤解を招くマーケティング戦術によって汚染されています。人々が数年前の「メタバース」ブームのことをすっかり忘れてしまっているのが不思議でなりません。最終的にその言葉自体が何の意味も持たなくなってしまったのです。基本的な技術さえ理解していないアナリストたちが、数年のうちにNVIDIAは1兆ドルの価値になると主張し、私たち全員がこれからどれだけのお金を稼ぐことになるかを宣伝しています。そして、私が見る限り、これらの主張には合理的な根拠がないようです。
ハイテクは成長への渇望が強すぎるあまり、かなり予測可能で標準的なソフトウェアの進歩を取り上げ、新しいバズワードを適用し続けているだけのようです。バブルが弾けるころには、すでに次のバズワードのマーケティングに移っています。AIを次のメタバースと呼んで、AIの可能性全体を否定したくはありません。しかし、ここにはたくさんの問題があります。そして今のところ、多くの人にとって、この技術は長年にわたって一般的になったデジタルパーソナルアシスタントのすべての、少しより侵入的で、あまり正確ではないバージョンに過ぎないように思えます。今のこの業界全体は、私にはとてももろく感じられます。
ここで言っていることのすべてが、牛乳のように古くなる可能性が高いことはわかっています。私は間違っていたと認めるでしょう。たぶん5年後には、私たち全員が家にロージーのようなロボットを持つことになるでしょう。私は私のロボットをプールから出さなければなりません。彼女は息ができないと思います。
今日のビデオのスポンサーをしてくれたGround Newsに大きな感謝を。ground.news/huskにアクセスするか、動画の説明欄にあるリンクから購読してください。私のリンクから登録すると、私が使っているすべての機能に無制限にアクセスできるVantageプランが40%オフになります。

コメント

タイトルとURLをコピーしました