ChatGPTを予言した男に新たな衝撃的予測が!

The Man Who PREDICTED ChatGPT Has A New SHOCKING Prediction!
Learn A.I With me - 🐤 Follow Me on Twitter 🌐 Checkout My website -

AIのブームは行き過ぎているのでしょうか?MIT のロボット工学のパイオニア、ロドニー・ブルックスはそう考えています。彼は、人々が生成AIを過大評価していると主張しています。この動画では、大規模言語モデルの台頭を予測した人物と、彼が次に予測しているAIについて、そしてそれが私たちの将来の見方をどのように形作るかについて掘り下げていきます。正直なところ、これは本当に驚くべきものかもしれません。
TechCrunchの記事によると、MITのロボット工学のパイオニア、ロドニー・ブルックスは、人々が生成AIを過大評価していると考えています。この記事は非常に興味深いものです。なぜなら、彼の予測の性質に踏み込んでいるからです。彼は1997年、実際にはそれよりも少し前から、この分野に携わってきた人物です。それ以来、彼はAIの未来について予測を行い、自身のブログでその的中率をスコアカードとして記録しています。
基本的に、この記事は次のように述べています。ロドニー・ブルックスがロボット工学と人工知能について語るとき、耳を傾けるべきだと。彼は現在、MITのロボット工学の名誉教授であり、重要な3つの会社を共同設立しています。その中には、iRobotや現在の取り組みであるRobust.AIが含まれます。また、1997年から10年間、MITのコンピューターサイエンスとAI研究所を率いていました。つまり、彼は自分が何を話しているかをよく理解しているのです。そして、彼は生成AIに関する熱狂的な騒ぎにブレーキをかける時期が来たのではないかと考えています。
ブルックスは、生成AIは印象的な技術ではあるが、多くの人が示唆するほど有能ではないかもしれないと考えています。「大規模言語モデルが重要でないと言っているわけではありません。しかし、それらをどのように評価するかについては慎重でなければなりません」と彼は言います。後ほど彼の予測についても触れますが、まずは現在のAIの状況について彼が述べていることを見てみましょう。
彼は、生成AIの問題点は、特定のタスクを完璧にこなす能力がある一方で、人間ができることすべてをこなせるわけではないということだと指摘しています。そして、人間はその能力を過大評価する傾向があるのです。「人間がAIシステムがあるタスクを遂行するのを見ると、すぐにそれを似たようなことにも一般化し、AIシステムの能力を推定します。ただし、それは単にそのタスクのパフォーマンスだけでなく、その周辺の能力についても推定してしまいます。そして通常、人々は楽観的になりすぎます。なぜなら、特定のタスクにおける人間のパフォーマンスのモデルを使ってAIを評価するからです」と彼は説明しています。
基本的に、人々はAIシステムが一つのことをうまくできると、他の多くのことも同様にうまくできると考えてしまうのです。彼はさらに、生成AIは人間ではなく、人間らしくすらないため、人間の能力をAIに当てはめようとすること自体に無理があると付け加えています。「人々はAIをとても有能だと見なすあまり、意味をなさないような用途にまで使おうとします」と彼は言います。
ブルックスは、彼の最新の会社であるRobust.AIの倉庫ロボットシステムを例に挙げています。最近、誰かが彼に、倉庫ロボットに大規模言語モデルを組み込んで指示を出すのがクールで効率的だろうと提案したそうです。しかし、彼の見積もりでは、これは生成AIの合理的な使用例ではなく、実際には物事を遅くしてしまうでしょう。代わりに、ロボットを倉庫管理ソフトウェアからのデータストリームに接続する方が遥かに簡単だと彼は言います。
私が本当に興味深いと思うのは、人型ロボットに対する彼の立場です。彼は基本的に、現在一般的に作られている人型ロボットは全く間違っていると考えています。彼は、ロボットと人間が協力して働くことも重要だと説明します。そのため、彼の会社は人型の歩くロボットではなく、実用的な目的のためにこれらのロボットを設計しています。この場合、それは取っ手付きのショッピングカートのような形をしています。
「私たちが使用している形状は人型ではありません。周りを歩き回る人型ロボットではないのです。私は他の誰よりも多くの人型ロボットを作り、納品してきましたが」と彼は言います。「これらは買い物カートのような形をしています。取っ手がついているので、ロボットに問題が発生した場合、人がその取っ手をつかんで好きなように操作できるのです」
長年の経験を経て、ブルックスは技術をアクセスしやすく、目的に合わせて作ることが重要だと学びました。「私はいつも、人々が理解しやすい技術を作ろうとしています。そうすることで、大規模に展開できるのです」と彼は基本的に述べています。
彼の現在の会社では、人型の形状が最も効果的ではないと言っています。なぜなら、彼が言うように、問題が発生した場合に人間が簡単につかんで操作できないからです。ここには少し変わった例があり、これを説明するようなコメントもありますが、結局のところ、これは20年以上もこの分野にいる非常に信頼できる情報源からの意見なのです。
彼はさらに、主にムーアの法則のおかげで、技術に関しては常に指数関数的な成長があるという誤った信念があると付け加えています。「ChatGPT-4がこれほど優秀なら、ChatGPT-5、6、7はどうなるのか想像してごらん」というような考え方です。彼はこれを欠陥のある論理だと言い、技術は常に指数関数的に成長するわけではないと指摘します。
彼はiPodを例に挙げています。最初の数世代では、確かに10GBから160GBまで記憶容量が倍々に増えていきました。もしその軌道が続いていたら、2017年には160テラバイトのiPodができていたはずだと彼は計算しました。しかし、もちろんそうはならず、2017年に販売されていたモデルは実際には256GBか160GBでした。彼が指摘したように、誰もそれ以上の容量を必要としなかったからです。
確かに、ムーアの法則があらゆる技術の分析に当てはまるわけではないという点で、これは正しい指摘だと思います。しかし、私はこの例が適切だとは思いません。もし完全に的外れなことを言っているのであれば申し訳ありませんが、より適切な比較はプロセッサの速度ではないでしょうか。なぜなら、それこそがコンピューティングパワー、つまり大規模言語モデルに比較できるものだからです。
彼はここで、大規模言語モデルがいつかは家庭用ロボットの助けになる可能性があると認めています。特に高齢化社会で、世話をする人が足りない状況では、特定のタスクを実行するのに役立つかもしれません。しかし、それでもそれには独自の課題が伴うと彼は言います。
「人々は『大規模言語モデルがロボットにこれまでできなかったことをさせるだろう』と言いますが、それは問題の所在ではありません。問題は、物事を実際に行うことは制御理論や他の種類のハードコアな数学的最適化に関するものだということです」
この投稿で最も有用だと私が感じたのは、投稿全体ではなく、彼のブログへのリンクでした。そこで彼は自身の予測の的中率をスコアカードとして記録しています。これが最も重要だと思った理由は、ここで彼がAIやロボット工学の未来についてどのように考えているかを実際に見ることができるからです。
すでに生成AIに対する彼の意見や、人型ロボットについての彼の考えを見てきましたが、今度は彼の予測のいくつかを見てみましょう。過去にはその一部が的中していますが、今回も再び誰かがAIと生成AIの世界の能力を過小評価しているのではないかと私は思います。
ここに彼のロボット工学、AI、機械学習に関する予測があります。彼は、この記事を読む価値があると言っています。その記事はサム・アルトマンについてのものです。彼は言います。「シリコンバレーのCEOたちが、詐欺と言えるほど自社を誇大宣伝して刑務所に入るケースが増えています。多くの人々がその境界線上を歩いており、中には同時に複数の会社でそうしている人もいます」
この『ニューヨーク・タイムズ』の記事から、彼が実際にスタートアップの詐欺とそれがどのように明らかになっているかについて言及していることがわかります。サンフランシスコのスタートアップ界隈に注目していなかった人も、これはサンフランシスコに限ったことではありません。多くの異なるスタートアップが…私はそれが彼らの責任ではないとは言いませんが、スタートアップ文化が人々を常に実際以上に成功しているように見せかけたい状況を生み出していると言えるでしょう。
そうすることで、彼らは途方もない主張をするようになり、そしてそのような途方もない主張をすることで、人々は自分のエゴを満足させるためにあらゆる試みをするようになります。場合によっては刑務所に入るほどです。基本的に、この記事全体が述べているのは、シリコンバレーには「成功するまで偽り続ける」という態度があり、人々は次の大物になりたがっているということです。そのため、単なる詐欺であることが判明した驚くべき数のスタートアップが生まれるのです。
テラノスについて聞いたことがあれば、これは史上最大の詐欺の一つです。30分のドキュメンタリーがありますが、長い話を短くすると、この人物は天才レベルのCEOのふりをして、革命的な製品を開発したと主張しました。その製品は、わずかな血液サンプルで数秒以内にあらゆる診断結果が得られるというものでした。しかし、実際には全く機能しない酷い機械だったのです。
これによって人々は一歩下がって、「一体何が起こったのか」と分析することができました。数百万ドルの資金提供があり、誰もがこれは良い製品だと言い、何百万人もの人々が彼女を支持していたのに、今では彼女は刑務所に入っており、詐欺で有罪判決を受けています。FTXでも同様のことが起こりました。
彼が言いたいのは、物事が本当にハイプ(誇大宣伝)になっているとき、私たちは常に頭の中で理性的な声を持つ必要があるということです。なぜなら、時には地上レベルで実際に何が起こっているのかを見失うことがあるからです。
彼はまた、ここで見られるように、これは誰もが自分だけの別の事実を持つ権利があると思っているときに起こることだと述べています。現在の若くて大胆で心配性のCEOたちは、熱心な投資家たちに自分たちの別の事実を押し付けることに抵抗がありません。そして、約束された魔法のようなバラ色の未来のために批判的な判断を脇に置く人々がいるのです。
基本的に、これは彼が言及している記事で、サム・アルトマンがどのように取締役会での試練や苦難を乗り越えてきたか…まあ、これを試練や苦難と呼ぶのは適切ではないかもしれませんが、彼がどのように影響力のある人々の支持を得て危機から立ち直ってきたかについて書かれています。
OpenAIの取締役会から不誠実さを理由に解雇された後、彼はAirbnbのCEOであるブライアン・チェスキーやMicrosoftのCEOであるサティア・ナデラなどの影響力のある人物たちからすぐに支持を集めました。この回復力のパターンは、彼の最初のスタートアップであるLooptからのキャリアを通じて見られます。多くの人々が彼の解任を求めたにもかかわらず、Y Combinatorでは個人的な製品を優先したために辞任を求められました。
基本的に、彼が強力なネットワークを活用する能力が、一貫してより強力な役職に登りつめるのに役立ってきたと述べています。しかし、この指導力は依然として精査の対象となっています。OpenAIでの最近の混乱に関する調査は、実際に何が起こっているのかという疑問を投げかけています。
この情報をこの動画に含めた理由は、市場の現状について現実的な見方を提供するためです。なぜなら、このチャンネルを見ていてこのコンテンツを視聴している皆さんは、ある種のバブルの中にいるからです。これは良いことです。なぜなら、大多数の人々はAI技術に注目しておらず、通常はニュースに登場するか、誰かがウイルス的に広まる魔法のような新しいデモを見せるまで待っているからです。
しかし、ここでのポイントは、現在起こっていることの根本的な見方を実際に取ると、現在のスタートアップシーンについていくつか少し奇妙に思える点があることがわかるということです。
ここで彼は言っています。「今年は表に3つのコメントしか追加しませんでした。そのうち1つだけが予測されたマイルストーンが達成されたことに直接関係しています。そして、ご想像の通り、それらはすべて生成AIと大規模言語モデルに関するものです。2023年は、これらのトピックが科学的、文化的、政治的世界の一般的な意識に到達した年であることは間違いありません。
私は1976年から正式にAI研究者として活動してきました。その前は高校生や大学生の時からの趣味でした。しかし、これは世界中の政治家たちが『人工知能』という言葉を口にし、それを聞いても誰も驚かず、皆がそれが何を意味するかを理解している最初の年です。」
彼は続けて言います。「私は人型ロボットにバラ色の未来を予測することに煩わされませんでした。予測を立てた時点で、私はその分野で25年以上働いており、研究用の人型ロボットと数千台の実用的な人型ロボットを作ってきました。根本的な研究のブレークスルーを必要とする特に難しい課題は私には明らかでした。数年以内に人型ロボットが仕事を変えるだろうと言っている素朴な起業家は多くいます。彼らは間違っています。」
私はこの発言が、イーロン・マスクやおそらくNVIDIAのジェンスン・フアンを含む多くの人々を指していると推測しています。彼らは人型ロボットが仕事のやり方を変えるだろうと述べています。イーロン・マスクは2030年代から40年代には何十万台、何百万台もの人型ロボットが存在すると言いました。
私は、彼が1976年からAI研究者として働き、この分野に直接携わってきたことから、彼の全体的な貢献は、これらの「新しい」起業家たちよりも関連性が高いと言っているのではないかと思います。
彼は言います。「人型ロボットに関する私の予測の欠如は、少なくともあと25年は重要な役割を果たさないだろうという私の期待に基づいています。」これは驚くべき予測です。もう一度言います。「人型ロボットに関する私の予測の欠如は、少なくともあと25年は重要な役割を果たさないだろうという私の期待に基づいています。」
基本的に、彼は現在の日付が2024年であることを考えると、2050年まで人型ロボットが重要な役割を果たすことはないと述べているのです。私はこれが真実だとは思いません。なぜなら、私たちがすでに見てきたことに基づいているからです。しかし、もちろん私は完全に間違っているかもしれません。私はただ技術デモに夢中になっているだけかもしれません。そして、私たちが見てきたすべてのデモが完全に偽造されているかもしれません。なぜなら、そういうことは実際に起こるからです。
私はその会社にいるわけではありません。私はそこで働いているわけではありません。私は舞台裏を見ているわけではありません。しかし、もちろんこういったことは起こり得ます。
彼はここで、彼と彼が率いたチームが作った人型ロボットのいくつかを示しています。ここで見ることができますが、彼らが何をできるかは本当に興味深く、本当にクールです。そしてもちろん、ロボット工学は皆さんが考えるよりもずっと難しいのです。そう、これはかなり驚くべき発言です。
しかし、ここからが彼のAIに関する部分です。彼は言います。「私は、ディープラーニングを超える次の大きなものがAIで登場するのは早くても2023年、遅くとも2027年だと予測していました。また、2018年1月の予測表で、誰かがすでに次の大きなものに取り組んでおり、それについての論文がすでに発表されている可能性が高いと言いました。私にはそれが何になるかわかりませんでしたが、何十万ものAIプロジェクトのうち、人々のグループがすでに成功し、取り組んでいるものの一つが、誰もがすぐそこにあると期待している次の大きなものになると確信していました。
なぜ私はこれらの予測に成功したのでしょうか?それは、AIにおける次の大きなものとその時間定数に共通のパターンを見つけたからです。」
ここからが生成AIに関する部分です。これは非常に重要です。なぜなら、ここで彼の特定のデータに触れているからです。彼は言います。「次の大きなこと、生成AIと大規模言語モデルは、昨年12月に一般のAI意識に入り始めました。昨年の予測更新で少し触れましたが、2022年末に異なる陣営が宣言し始めたように、これは人類の救世主でも破壊者でもないと言いました。両サイドは落ち着くべきだと。また、次の大きなものはおそらくニューロシンボリック人工知能になるだろうと言いました。」
これは基本的に、人間のように考えることができる複数の異なるAIシステムの異なるレベルと推論能力を組み合わせたものです。私は、次の10年でこの「ニューロシンボリックAI」という用語をより頻繁に目にするようになると信じています。なぜなら、これは人間がそうであるように、より類似した意味でAGIシステムに近いものだからです。
ニューロシンボリックAIは本質的に、ディープラーニングでよく使用されるニューラルネットワークと、高レベルの人間が読める知識と推論に焦点を当てたシンボリックAIを組み合わせた人工知能へのアプローチです。このハイブリッド手法は、両方のパラダイムの長所を活かして、より堅牢で汎用性のあるAIシステムを作ることを目指しています。
基本的に、ニューラルネットワークはディープラーニングで、パターン認識、大規模データセットからの学習、非構造化データの処理に優れており、特に音声認識と自然言語処理に適しています。しかし、その弱点は…ブラックボックスの性質、明示的なルールや知識を組み込むことの難しさ、推論や理解の課題などがあります。
一方、シンボリックAIは、シンボルとルールを使用して明示的な知識を表現し操作することに優れており、論理的推論、計画、理解のタスクに秀でています。基本的に、非構造化データの処理や生のデータからの学習には限界があり、これはかなり難しいです。
これがニューロシンボリックAIが登場する理由です。両方の世界の長所を組み合わせることで、本当に有用なシステムが得られるのです。
彼は言います。「2023年3月までに、次の大きなものがAIに到来したことは明らかでした。それは大規模言語モデルでした。主要なイノベーションは2018年以前、実際には2017年に発表されていました。だから、私はその特定の予測について勝利を主張します。括弧付きの年数で…まあ、私は少し幸運だったかもしれません。次の大きなものに関する主要な論文が2018年の初めまでに発表されていたのですから…そう、私はさらに幸運だったのです。」
私はこれが皮肉かもしれないと思います。
ここで、実際の予測に入ります。彼はすでにこの分野全体について驚くべき主張をいくつかしていますが、正直なところ、彼が言おうとしていることは理解できます。
ここで見ることができるように、これらは彼の2018年のコメントの一部です。そしてもちろん、これらはいくつかの…更新です。これらは彼の2018年の予測の一部です。
そして、ここで見ることができるのは、AIにおけるディープラーニングを超える次の大きなものの出現または一般的な合意についてです。もちろん、これは彼が…予測したものです。彼の…略語を知りたい場合、NEはその年より前には起こらないことを意味します。つまり、この年より早くは起こらないということです。BYはその年までに起こるということを意味します。そして、NIMLは生涯中に起こらない、つまり2050年より前には起こらないということを意味します。
色は、緑は彼が行った正確な予測を意味します。つまり、これらは正しかったということです。赤は、予測が悲観的すぎた、つまり実際にはもっと早く起こったということを意味します。そして青は…楽観的すぎたということを意味します。
ここに戻って見てみましょう。彼が言っていた、AIにおけるディープラーニングを超える次の大きなものの出現または一般的な合意について、これは2018年の正確な予測でした。2023年より早くはなく、遅くとも2027年までというものでした。これはかなり正確な日付です。
彼は言います。「これが何であれ、誰かがすでに取り組んでおり、それについての論文がすでに発表されているものになるでしょう。2023年より前にこのタイトルを主張する人々がいるでしょうが、そのどれも実現しないでしょう。」
彼は言います。「これは確かに2023年に登場しました。2022年12月には一般の意識の中にありましたが、まだ大きなものとはなっていませんでした。2023年の間にそうなりました。1年前、私はそれがおそらくニューロシンボリックAIになるだろうと思っていましたが、明らかに大規模言語モデルとChatGPTとその親戚たちです。そして、2018年に私が予測したように、すでに取り組まれていたものでした。『Attention Is All You Need』の論文がそうです。」
もちろん、ここで彼は、いわゆるチューリングテストとアシモフの3原則、AIと機械学習の進歩の有効な尺度の間で、報道機関と研究者が一般的に成熟することについて語っています。彼はこれが2022年より早くは起こらないだろうと言いました。そしてもちろん、ここで見ることができるように、彼はこれについてあまりにも楽観的でした。チューリングテストは、2022年のChatGPTとその仲間たちに関する息をのむようなプレス報道からは欠落していました。そして、彼らのパフォーマンスは一貫していませんが、古い比較をはるかに超えています。
ここから、いくつかの人型ロボットの予測に入ります。彼は言います。「一般的に利用可能な器用なロボットハンドは…2030年より早くは利用できず、2040年までには利用可能になることを期待しています。」彼は言います。「いくつかの印象的な研究室でのデモンストレーションにもかかわらず、過去40年間、広く展開されているロボットハンドやエンドエフェクターに実際の改善は見られていません。」
そのため、彼はこれが2030年までには起こらず、2040年までには起こるだろう、少なくともそう望んでいると考えています。
また、ここにあるのは…これはかなり驚くべきものです。なぜなら、私たちは今後数年でこれを本当に目にすることになるからです。彼は言います:
「アメリカのほとんどの家庭を、その階段、雑然とした状態、家具の間の狭い通路を含めて、自由に移動できるロボット。例えば…」
彼は言います、これの研究室でのデモは2026年より前には来ないでしょう。購入可能な高価な製品は2030年より前には来ないでしょう。そして、家庭に手頃な価格で導入できる製品は2035年より早くはないでしょう。もちろん、人間にとって簡単なことはロボットにとってはとても難しいのです。
これについては、まだ約1年半ほどの時間があると思います。この課題を達成する可能性が高い会社の一つは、おそらくテスラか、あるいはFigure AI社だと私は考えています。これらの会社のうちの1つがこれを実現し、アメリカの家庭内を自由に移動できるようになると思います。彼らは異なるデモを見せるかもしれませんが、何が起こるか興味深いところです。
もちろん、彼は言います:「高齢者に対して、複数のタスクにわたって物理的な支援を提供できるロボット。例えば、ベッドの出入り、洗濯、トイレの使用など、単なるポイントソリューションではなく。」これは2028年より前には起こらないと彼は言っています。
彼は言います:「それ以前にポイントソリューションのロボットが出てくるかもしれませんが、すぐに高齢者の家はあまりにも多くのロボットで混雑してしまうでしょう。」
これは興味深い予測です。すぐに高齢者の家には非常に多くのロボットが存在するようになるということです。私はこれをアプリケーションとして見ています。ゆっくりと動き、力が強く、家の中で誰かを助けることができるロボットは、確かに現実世界での使用例だと思います。
彼はここで言います:「配達の最後の10ヤードを行うことができるロボット。車両から家まで移動し、パッケージを玄関の内側に置くことができるもの。」研究室でのデモは2025年より早くはないと彼は言っています。そして、展開されたシステムは…これは実際に興味深いです。彼は展開されたシステムが2028年までにここにあるかもしれないと言っています。
つまり、彼は近い将来、アマゾンのロボットが近隣を走り回り、トラックから降りてパッケージを配達するような状況が2028年より前には起こらないが、その時期には起こる可能性があると言っているのです。これはかなり興味深い予測だと思います。なぜなら、私たちはすでにロボットがこれに似たようなことをしているのを見ているからです。Agility Roboticsが何をしているか見たことがあれば、それほど信じられないことではありません。
もちろん、彼は長期的な文脈を維持し、簡単に認識できるパターンに陥らない会話エージェントについて話しています。これはすでに存在します。彼は展開されたシステムが2025年になるだろうと言っています。ChatGPTをスピーカーとマイクに接続するのは難しくありません。しかし、もちろん、それは発言されたこと以外の更新可能なメモリを持っていません。そして、もちろん長期記憶は…来ることになっています。
そして彼はここで言います:「継続的な存在を持つAIシステム。2030年より前ではない。」彼は言います:「どの日も他の日の繰り返しではありません。現在のすべてのAIシステムがそうであるように。」
これはかなり驚くべきことです。なぜなら、私はこれが実際に達成するのがとても難しいと思うからです。これについて私はあまり聞いたことがなく、研究論文も見たことがありません。
基本的に、現在ChatGPTに何が起こっているのかを尋ねると、「ああ、今日は2023年12月23日です。これが現在の日付です」と言うようなものです。それが、本当に興味深いものになるでしょう。AIシステムが「ワオ、今日はどう?新しい大統領ができたね。何が起こっているの?」などと言うようになるのかと思います。
もちろん、彼はこれについて全体的なブログ投稿を書くでしょう。そして、ここから、ルンやゲイリー・マーカスのような人々の予測に似たものが出てきます。
「犬と同じくらい知的で、注意深く、忠実に見えるロボット。これは人々が想像するよりもずっと難しいことです。多くの人々は私たちがすでにそこに到達していると考えています。私はそうではないと言います。」彼は、これは2048年より早くは起こらないと言っています。これはかなり遠い将来です。2048年は今から24年後です。
24年前の生活を振り返ってみると、その頃から技術は非常に進歩しています。もちろん、彼は言います:「これは私の生涯中には起こらないでしょう。」つまり、2050年までは起こらないということです。
「6歳児が人間を理解するような方法で、自分の存在や人間の存在について本当の理解を持つロボット。」私の推測では、これはLLMが人間を理解する方法、つまりただテキストベースで人間が何であり何をするかを理解するのとは違います。6歳児の人間に対する理解、世界における彼らの位置づけ、彼らがどのように相互作用し、人間が実際に何ができるかについての理解のようなものです。
彼は言います:「私の生涯中には起こらないでしょう。」
一つ言えることは、これは予測であり、未来についての予測は非常に難しいということです。これらの予測が非常に難しい理由は、未来を予測することが非常に難しいからです。未来の性質上、本質的に未知の未知があります。そして、未知の未知があれば、それらの未知の未知が起こり得ることの方向性を変える可能性があります。
これらの予測は非常に難しいものです。そして、一部の人々は「このやつは間違いを証明されるだろう」と言うかもしれません。それは興味深いことになるでしょう。なぜなら、この人物はこの分野で数十年の経験があり、ChatGPTと大規模言語モデルの台頭を予測しました。そして、人型ロボット工学についても非常に多くの経験があります。彼ほど精通している人を見つけるのは非常に難しいと私は主張するでしょう。
ここでのポイントは、これらの予測が特定の予測についてのあなたの考え方を再構成するものだと思いますか?そして、彼がただ「AIは終わりだ、何も来ない」などと言っているわけではないことに注意することも重要です。彼は、これらのツールは有用であり、これらのことの一部はすぐに来るだろうし、これらのことの一部は非常に長い人生の中で起こるだろうと述べています。
もちろん、これらの予測を加速させるブレークスルーがあるかもしれません。しかし、独自の情報なしにそれを行うのも難しいです。私が知りたいのは、これらの研究所で実際に何が起こっているのか、そして彼がこれらの研究所で正確に何が起こっているのかを知っているかどうかです。
なぜなら、研究はもはや公開されていないからです。そして、私はこれが人々がどのような予測を行うかの性質を変える可能性があると思います。基本的に、私が言っているのは、2018年、2019年、2020年以前は、これらのすべての研究所で行われた研究は本質的に公開され、共有されていたということです。そして、誰もが同じペースで進歩していました。
しかし今では、これらの企業が競争しようとしているこのような終末的な競争状態があります。多くの研究者たちがブレークスルーを起こしていますが、彼らは自分たちが行っているブレークスルーを共有していません。つまり、現在、内部で行われているブレークスルーについては、デモを見せられるまで知ることができないシステムがあるということです。
彼らが正確に何ができるかは、彼らが実際に見せてくれるまでわからないでしょう。私の推測では、彼はおそらくこのことを考慮に入れているでしょう。なぜなら、彼はそのような先進的な分野で働いているからです。しかし、これは私が思うに、未来では予測することがさらに難しくなる理由の一つです。
なぜなら、私が言ったように、GPT-4で彼らは登場して私たちを驚かせました。そして、もちろんSoraでも彼らは登場して私たちを驚かせました。ですので、これらの予測のいくつかが実現するかどうか、興味深く見守る必要があります。
皆さんがこの動画を楽しんでいただけたことを願っています。これらの予測が実現すると思うかどうか、ぜひ教えてください。なぜなら、もちろん、これらの一部はレイ・カーツワイルのシンギュラリティとは少し矛盾しているからです。しかし、私はそのいくつかはかなり合理的だと思います。
例えば、アメリカのほとんどの家庭を自由に移動できるロボット…2026年までの研究室でのデモは、まだかなり早いですね。そして、彼は2026年から2030年の間というかなり合理的な期限を設定しています。これは彼が「絶対に起こらない」と言っているわけではありません。私はただ、これは読む価値のある文書だと思います。

コメント

タイトルとURLをコピーしました