
人間以外の汎用知能を作り出すという考えは、私たちよりも有能で相互に接続され、そして様々なバージョンで民間企業に所有されるものですが、これは私たちにとって良い結果にはならないでしょう。なぜなら、OpenAIのような企業が構築しているものは明らかに、ビジネスを改善するためのソフトウェアではありません。それは単なる副次的な効果に過ぎません。
IBMやMicrosoftが行ってきたように、彼らは人型ロボットの体や他の種類の体に入れることを目的としたソフトウェアを作っています。それがいわばそのケースになるでしょう。そして、その目的は人間の知能をあらゆる面で超える知能を持つことです。単に引用文を作ったりGoogleマップを使ったりするだけでなく、あらゆる可能な面でです。
例えば、法的な問題について決定を下したり、政策を立案したり、文書を翻訳したりと、本質的に人間が行うようなすべてのことを、このAGIが80パーセントの作業を行うことになります。これは重大な問題です。なぜなら、明らかにアメリカはすでにこれが国家安全保障の問題になりつつあることに気付いているからです。はい、これは一種の軍拡競争になりつつあります。
AGIを最初に達成した者が世界を支配するだろうと長い間言われてきました。AGIの定義は後ほど説明しますが、基本的に人工知能汎用知能とは、自己複製する機械を持つことを意味します。つまり、AGIは「私は特定のタスクを助けるために自分のコピーを50個必要とする」と言って、自分自身でソフトウェアやアルゴリズムを作り出し、その機能を増幅することができるのです。
基本的に、これらは事実を組み合わせて物事が正しく機能することを確認するという意味で推論している機械です。そして、それは計画を立てたり理解したりする準人間的な能力を持つことになります。そして、世界を知る機械の結果を考えてみてください。単にデータだけでなく、今私たちが持っているものだけでなく、すべてのリアルタイム情報も含めてです。
これには視覚、音声、匂い、人間の感情などすべてが含まれます。そして、それが地図です。基本的にそれが実現するまでに10年かかるでしょう。そして現在の議論では、おそらく5年以内に汎用知能を持つことになるでしょう。まだ匂いを嗅いだり動いたりする機械ではありません。しかし、それはとても急速に起こるでしょう。
つまり、あなたは300の言語でリアルタイムにすべてについてすべてを知っている機械を持つことになり、その機械はさらに多くのリソースを見つけ出し、計算するためにそれらを必要とします。そして、この種の超知能は「知能爆発」と呼ばれるものになる可能性があります。これは、機械が「私はこれで忙しい。他に50個の自分のバージョンを作ることができる」と言い、その50個もそれぞれ50個ずつ作り出し、知的な存在の爆発が起こるということです。
そして、デフォルトでそれらはブラックボックスのシナリオを作り出すので、私たちはAIのアドバイスを必要とするでしょうが、それらに疑問を投げかけることはできません。なぜそう言うのかを理解できないからです。本質的に「受け入れるか拒否するか」のシナリオを作り出すことになります。これは医療試験で実証されており、多くの医師が「それが事実なら、進めましょう」と言う傾向があります。そして、それはブラックボックスにつながり、どの医師も「いいえ」と言えなくなります。
そして、もしそれが起こっているなら、事実上私たちは権限を失っています。なぜなら「いいえ」と言えず、自殺を犯すことなくシステムを切断することもできないからです。そして、基本的に生活のあらゆる面でそうなるでしょう。金融システム、交通管制、法律システムなどです。なぜなら、これらの機械を使う方が効率的だからです。
数日前に雑誌で読んだ非常に興味深いデータがあります。それによると、アメリカのCEOの60パーセントが、少なくともゲームに参加し続けるために、サイバーセキュリティとAIの倫理を犠牲にする覚悟ができているそうです。リードすることはさておき、とにかくゲームに参加し続けることが重要なのです。
そして、あなたが言及した計算上の課題と共に、サイバーセキュリティのリスクもあります。そして、彼らがやりたいことをすべきかどうかという価値観、原則、倫理に対する軽視があります。はい、これはマンハッタン計画の効果です。オッペンハイマーとマンハッタン計画で起こったのは、アメリカ軍とアメリカ軍部が「ここニューメキシコのロスアラモスに来てください。そして、ここでは制限なく、爆弾を作るために必要な人数と資金を使えます」と言ったことです。
そして今、AIでも同じことが起こっています。ここに来て、数兆ドルの投資を必要とするものを作ってください、と言っているのです。はい。なぜなら、その価格、その価格は支配することです。現在世界最大の企業であるNvidiaのように市場を支配し、もちろん軍事領域を支配し、基本的にビジネスを支配することです。そして今、これが起こっています。私たちは狂った螺旋に入っています。すべての安全性や予防措置、セーフガードに関する議論が基本的に捨て去られています。
そして昨年、OpenAIでサム・アルトマンに対する反乱があったとき、基本的に起こったのは、お金が勝ったということです。彼らは「わかった、サムを議題に戻そう。より多くの力とお金のために」と言いました。なぜなら、制限を望んでいたすべての人々が解雇されたからです。そして、これは狂った場所です。なぜなら、私たちを別のマンハッタン計画に導いているからです。基本的に、これは通常のビジネスにとってAIがどれほど良いかということとは何の関係もありません。
それとは何の関係もありません。それは本質的に、超知能的な存在を再構築して、最終的に私たちが置き換えられるか、あるいは一部の人が言うように増強されるようにすることです。しかし、実際にその増強はここでは起こらないでしょう。なぜなら、この問題について最近数日間勉強していて学んだのは、技術的な観点から見ると、人間の脳は私たちのサイズによって制限されているということです。私たちの脳はそれ以上大きくなることはできず、神経は一定の速度で発火します。
そして、私たちはまだこれらすべてのことを非常にうまく行っています。しかし、機械の脳はどんなサイズでも可能です。倉庫のサイズでもよく、制限はありません。そして、ニューロンは音速ではなく光速で発火することができます。そして、十分な計算リソースがあれば、それは無制限です。そして、それを接続されたシステムに置けば、それは無限になります。
そうです、それは無限になるでしょう。さらに、本質的にボストロムが言うには、それをコントロールする可能性はまったくないのです。なぜなら、本質的に「インターネットを切断する」と言うようなものだからです。そして、その段階ではそれさえも達成できないでしょう。今日そのような問題があれば、「わかった、インターネットを切断しよう。誰も接続できないようにしよう」と言うでしょう。それはまだ起こっていません。
しかし、これはそれと同等のことです。もしその段階でAIを切断したら、医療システム、株式市場システム、航空管制システム、セキュリティシステムを切断することになります。そしてそれは起こりえません。だから、切断することはできません。切断するには、それらを切断する必要があります。そして、それは不可能でしょう。
ボストロムはそう言っていて、私もそれに同意します。そのようなものを全て構築し、無制限の計算能力、量子コンピューティング、おそらく核融合を持つための時間枠は、基本的に10年だと思います。なぜなら、今日私たちにはエネルギーがなく、これらすべての機械を動かし、例えば1兆のプロセス、GPUを持つことはできません。
そして、一般的な合意として、私たちは5〜7年、約2030年までにAGIの段階に到達するだろうということです。まだすべてのパーツを作ることはできませんが、ほぼすべてのタスクで私たちを無限に上回ることができるコンピューターを持つことになります。特に訓練を受け、特定の言語などで、AGIのレベルに到達する前に超知能に達することができます。
そして、その時点で「わかった、もう制御を取り戻すことはできない」と言えるでしょう。なぜなら、制御とは止めることを意味し、私たちには止めることができないからです。インターネットを後戻りさせるようなものです。想像するのはほと�
The enど不可能ですが、もし生命を脅かすものであれば、その決断を下さないだろうかと思います。問題は、地球上に政治的リーダーシップが存在しないことです。
インターネットを遮断することは、様々な国で行われてきました。緊急時には、一部の国がインターネットを遮断しました。主に政治的な理由で、暴動などを止めるためです。それは起こりました。世界の接続性を切断することではありません。そして基本的に、多くの人々がこの種の汎用知能は株式市場の世界的な崩壊のようなものにつながる可能性があると言っています。
ゲーリー・ゲンスラー、SECの議長も、これは非常に可能性が高いと言っています。なぜなら、本質的に私たちは情報によって欺かれることになるからです。自動的に機能する自動取引アルゴリズムを持つことになります。人間の監視なしに自動的に人を殺すドローンを操縦するAI機械を持っているのと同じように。それはほと�ど考えられないことです。なぜなら、個人の医療だけでなく、個人の財務に対するすべての制御を失うことを意味するからです。
そして、食べ物を買うお金がなければ、人間はどのように本当に機能するのでしょうか? 私たちが作り出したすべてのものに対する制御を失います。所有権は事実上消滅します。はい。そして、それはまた仕事も消滅させるでしょう。なぜなら、そのレベルでは、航空管制や財務計画など、現在行われている多くのことをする必要がなくなるからです。そして、それは大規模な失業の波を生み出すでしょう。つまり、他のことにお金を使う資金がなくなるということです。
30年以上先のそのレベルで、私はそう思います。現在の開発速度でさえ、そう思いませんか? はい、技術的には、AIがこの種の情報レベルを獲得し、リアルタイムで異なる言語で操作する能力は、5年程度の枠組みにあると思います。なぜなら、データは増加し、処理は増加し、データへのアクセスは増加し、ネットワーク接続性は増加し、チップが構築されているからです。
基本的に、これらすべての側面が指数関数的です。電子から光子への旅を見るのは興味深いです。そして、1000分の1のエネルギーしか必要としません。だから今、人々は「AIはエネルギーがないから問題ではない」と言います。しかし、エネルギーの基本的な方程式が変わっています。はい、そしてそれが起こったときを想像してください。本当の意味での核融合を発明したり、大規模な太陽エネルギーを本当に採用したりしたときです。
そして、エネルギーがより手に入りやすくなり、そうすると空が限界になります。そうです。つまり、無制限の計算を持つことになります。無制限のエネルギーを持ちます。無制限の水を持ちます。そして、その時点で基本的に計算で何でもできるようになります。つまり、100億人のための量子計算です。それはどのくらい先のことでしょうか? 私は10〜15年の時間枠だと思います。しかし、その前に、実際には100億人のためにそれを必要としません。なぜなら、システムを管理している人々のためにそれを持っていれば十分だからです。
そして基本的に、その時点で制御不能になりますが、同時にあらゆる種類の悪意のあることや事故などの影響も受けやすくなります。そして基本的に、私の議論は、AIがGDPや効率性、ビジネスにとって奇跡を起こす可能性があるとしても、その単純なレベルではあまり規制しすぎるべきではありません。なぜなら、それはビジネスプロセスなどに関することだからです。
しかし、Microsoft、OpenAI、Baiduなどのトップ10企業の公式の議題について考える必要があります。それは超知能的な存在を構築することです。それが公式の議題であり、彼らの警告も非常に明確です。問題は、誰もその理想的な超知能がどうあるべきか、そしてそれが人類の利益と一致しているかについてオープンな会話をしていないことです。それは、人々、国々、企業、システムの組織化され規制されたグローバルなエコシステムの利益と一致していますか?
これは、核爆弾を作るようなものだと言えるでしょう。そして実際には政府ではなく、ローレンス・リバモア研究所です。ロックウェル社のようなものがこれを行っています。なぜなら、それが大きなビジネスだと考えているからです。少なくとも爆弾は政府のプロジェクトでした。そして戦争でした。しかし、これは民間企業が「人間ができることをすべてできるものを作ろう」と言っているのです。そして、それを20億人分作ろうとしています。
そして、それを人型の体に入れて、知能とクラウドだけでなく、動くことができ、人間のようになれるようにしようとしています。そして、人を自動的に殺す方が人を殺すよりも効率的だと考えています。そして、これはあらゆる種類の潜在的な問題につながります。しかし、本質的にこれは公共の問題であり、私的な問題ではありません。確かにビジネスではありません。新しい人類を構築するビジネスと言えるかもしれません。
私は現在「2045」という本を読んでいます。それは、人間と植物のDNAをバーチャルにリモートで制御する能力についての物語です。自己破壊するDNAだけです。スイッチを押すだけで、フランスのワイン農園やイタリアのブドウ園、あるいは宇宙船に座っている誰かの腹の中から、事実上全人類を排除できるほど効果的です。可能性を考えると怖いですね。なぜなら、AIだけでなく、ナノテクノロジーや合成生物学、ゲノム編集もあるからです。
もちろん、ナノテクノロジーでは多くの害を与えることはできません。主に他のパーツを置き換えるために使用されるからです。しかし、遺伝子工学は同じ性質のものです。そうです、結論は、主にビジネスやプロセスに関することには規制を必要としないということです。あるいは、ある程度の規制は必要ですが、これが存在的なものではないことを知っています。
規制する必要があるのは、私が「不拡散協定」と呼ぶものです。つまり、もし私たちを超える超知能的な種を構築しようとするなら、それは非常に狂った考えだと思いますが、とにかく超知能を構築しようとするなら、これはグローバルな安全保障の問題であり、私的な問題ではありません。そして、もしこれを続けるのなら、その追求にはライセンスが必要です。
これは課題を提起します。世界の様々な宗教を見ると、何世紀もの間、人類、人間の生命、人間の善良さを形作る価値観で一致することができませんでした。そして事実上、これは完全に新しい宗教を作ることを示唆しています。かつて人類と呼ばれていた種のためにです。そして、それらの原則は何になるのでしょうか? そして、なぜ私たちは存在するのでしょうか? そして、私たちはそうすべきでしょうか?
何世紀もの間、主要な宗教間で中心的な人生哲学で一致できなかったのなら、これがどうなるべきか、なぜそうすべきか、どのように制限すべきかについて、どうやって合意できるのでしょうか? まあ、一方で、核の準備や、オゾンに関する合意など、多くのことで一致してきました。そして、今のところそれらは維持されています。特に、オゾンのエピソードのように、事が起こった後に一致してきました。明確になった時に。
では、人口を排除する超人類の最初の爆発が私たちを目覚めさせるのでしょうか? その時には遅すぎるのでしょうか? 時計を巻き戻すことはできるのでしょうか? 私が考えるに、最も起こりそうなのは、最初に技術ベースの金融システムを本質的に破壊する金融崩壊です。おそらくこれが最初に起こる可能性が高いです。
基本的には、技術的な問題や上下する誤った情報に基づく市場の完全な機能不全です。信頼できる情報やそれを管理するコンピューターシステムがないため、次に何をすべきか決断することが不可能になります。つまり、基本的に2ヶ月間の世界的な崩壊で50兆ドルを失うというシナリオです。これはかなり可能性の高いシナリオです。なぜなら、航空管制のような実際の物理的構造を制御する必要がないからです。それは難しいでしょう。なぜなら、これらのシステムはオンラインではなく、取引システムで管理されていないからです。
グローバルな取引システムです。24時間で完全に停止します。その通りです。そして、それは戦争を引き起こすでしょう。多くの…即座に多くの死をもたらすわけではありませんが、長期的にはここで起こったことが多くの犠牲を払うことになるでしょう。なぜなら、これを誰が引き起こし、なぜこれが起こったのかについて多くの議論があるでしょう。そして、システムを再起動できないとき、今度はどのように取引するのかという議論になるでしょう。
したがって、ディストピア的なシステムの展望は、ほぼ必然的で、不可逆的で、現時点で地球上の10の企業を除いてすべての人のコントロールを超えています。そして、これらの10の企業は、おそらく真の野心が何であるかさえ知らないかもしれません。つまり、もちろん、人工知能の聖杯は、あなたや私がGoogleマップで何をするかとか、分析をどう使うかといったことではありません。それは多くのお金を稼ぐでしょうが、それはSalesforceのようなものです。そしてそれでも多くのお金を稼ぐでしょう。しかし、それは聖杯ではありません。
聖杯は知能を再発明し、多くの場所で人間に代わってデジタルエンティティ、人工知能を担当させることです。そして、それは100兆ドルの賞金となる運命になります。これは実際にOpen AIが求めているものです。Open AIはブレードランナーのタイレル社になりたいのです。すべてを管理する会社です。
そして、私の主張は基本的に、ビジネスのことであれば、これは破壊的ですが解決できます。また、例えば医療を再発明するなど、有益なこともあるでしょう。ここには多くの良いことがあります。しかし、なぜそんなことをするのでしょうか。つまり、その議論は私には理解できません。人間の権威を排除することに経済的利益はないでしょう。権威を排除した後に世界を支配するのがあなただとしたら別ですが、本当の経済的理由はないのです。これはミダス王の問題です。
ミダス王は、すべてが金に変わることを望みました。これは典型的なミダス王の問題です。また、マンハッタン計画の問題でもあります。なぜなら、プロジェクトに関わった人々の誰も他の人を殺したいとは思っていませんでした。彼らは単なる科学者でした。そして今、私たちは同じことを繰り返しています。多くの研究者たちは良い意図を持っています。人類を助けるものを作りたいと思っています。しかし、彼らがそれを構築するとき、それが制御可能で人類にとって良いものである可能性は非常に低いことに気づいていません。なぜなら、そのプロセスの中でそれは独自のものになるからです。
これは本質的に、人々が冗談で言う「エイリアン知能」です。そうではありませんが、私たちの目的と一致せず、私たちの目的によって制御不可能です。なぜなら、一度このような知能に達すると、私たちが中断できると期待できるものをはるかに超えているからです。
単純な質問です。なぜ単にプラグを抜かないのですか? つまり、この段階ではまだ無限の内部エネルギー源はありません。だから、それは一部の人々が頼みにしているものだと思います。本当に単純な解決策があって、それをナノ秒で切断して取り除くことができると。
しかし、そのようなものは存在しません。なぜなら、このような知能は、他の知能と接続され、現実の世界を理解しています。現実の世界は力の世界と出会います。そして、あなたが中断しようとする次の4000回を予見していたでしょう。その通りです。そして、それぞれの機会に対する計画を持っているでしょう。そのレベルでは、デススイッチのようなもので止める方法は絶対にないでしょう。
今、これらの研究所は防火壁であり、エボラ研究所のようなものだと言うことでしかできません。しかし、現実には私たちはそれらを制御できないでしょう。だから、彼らがショーを運営することになります。あなたのAIアシスタントなしでは、あなたは生きていけないでしょう。そして、そういうわけで、私がここで見ているのはそういうシナリオです。
さて、これをどうするか。私は良い未来のキャンペーンについて話してきました。はい、そしてこれはそのキャンペーンの一部になるでしょう。しかし、「これは技術に賛成だが、人類を超えるものを構築することは単に愚かな考えだ」と言うことです。そして、お金があるからといって、企業がそれを追求することを許すべきではありません。
しかし、ゲルト、これの開発はすでにシンジケート化され、ネットワーク化されています。マンハッタン計画は一箇所にあり、無制限の予算を持っていましたが、中央の支払いシステムがあり、それを制御できました。今、OpenAIはその定義上、シンジケート化され、ネットワーク化された開発能力を持っています。それをどのように制限し、境界を設けることができるのでしょうか? これは信じられないほど難しい質問です。
はい、過去に何かをする可能性を放棄したことがあります。例えば、5年前、8年前にCRISPR-Cas9について会話がありました。人間のゲノムを変更し、遺伝子を切断してHIVなどを防ぐことができました。それを行った中国の医師がいましたね。そして、中国を含むすべての参加国で下された決定は、CRISPR-Cas9の操作の可能性を放棄することでした。なぜなら、生殖系列の二重遺伝子編集の副作用が10世代後に死をもたらす可能性があったからです。
これは、「核融合を発明しますが、その副作用として、もし間違えればスイス全体が黒いクレーターになる可能性がある」と言うようなものです。そして、その決定は企業に任せるべきではありません。これが私たちが今直面している状況です。そして、私は警鐘を鳴らすつもりはありませんが、AIができるすべての良いことのためにAIを使用しないわけにはいきません。しかし、汎用知能を目指すことは不必要で、おそらく本当に可能ではなく、制御要因のために良いアイデアでもありません。
はい、ビジネスの最適化、知能、そこから汎用知能への移行の方向性は、おそらく監視し制御できる境界線がある明確に定義された旅ではありません。それはほと�ど、「どのように支払能力を得るのか、徐々に、そして突然」というようなものです。そして、徐々にこの効率を上げていき、月曜日の朝に目覚めると「わあ、汎用知能にとても近づいている!」となります。あと一歩だけ。そして、もちろんその時点で、私たちは結果を知っています。
まあ、これは核技術に似ています。ある時点で核技術を使って発電所を建設します。そして、一歩か二歩別の方向に進むと、爆弾の材料を製造できます。そこで検査官は「これで発電所を作れる」と言います。しかし、明らかにこの遠心分離プロセスは発電所のためではありません。AGIについても同様のことができるでしょう。
例えば、欧州委員会はメガフロップ、機械が行える取引の量を閾値として割り当てています。そうすると、この種の規制の対象になります。そのようなことは可能ですが、もちろんすべての国が尊重するとは限りません。しかし、そのような超大国を解き放つことは誰の意図でもないでしょう。
人間が通常これに対応する方法は、「すべてが崩壊するまで待ち、そして治療士に行くか、掃除しようとする」というものだと思います。しかし、これはここでは機能しません。なぜなら、これは人工知能の不可逆的な状態であり、私たちが後戻りしてこれを取り戻すことを許さないからです。だからこそ、私たちが合意する必要があるこのキャンペーンについて考えることが本当に重要だと思います。
はい、ゲルト、一つの安全弁は、世界の異なる地域ですでに経済的な運命がこれほど異なっているという事実です。富の格差は拡大しており、もちろんこれはそれをさらに別のレベルに引き上げます。おそらく、富の分配の格差の拡大をめぐって公衆の反乱が起こるでしょう。それが何かが完全に制御を失うのを防ぐでしょう。なぜなら、現実的に考えて、地球上には約85億人がいて、まだ40億人が飢えています。そして、上位10人が地球の残りの60パーセントよりも多くのお金を持っているのです。
つまり、ピラミッドの頂点にいる少数の人々が好き勝手にする無限のライセンスを要求することはできません。何かが壊れなければなりません。はい、もちろんそれは事実です。同時に、もちろんそれらは、この種の設定を制御している人々でもあります。そして、それは卵と鶏のジレンマのようです。そして問題は、金銭的利益を競い合っている間に不拡散協定に到達するメカニズムが本当にないことです。
これは非常に怖い展開です。なぜなら、他の企業がどんな犠牲を払ってもこの黄金の王冠を追い求めることにつながるからです。それは研究が私たちに教えていることです。今や世界のリーダーの60パーセント以上、64パーセント以上が「技術的優位性の追求を加速する必要がある。なぜなら遅れを取っているから」と言っています。そして、彼らはそれを巨大なサイバーリスクやその他のリスクを冒してまでビジネスに取り入れています。つまり、盲目的にそれを行っているのです。
世界の地政学的勢力が再編されている時に。つまり、ロシア大統領が今、北朝鮮を訪問していることなどを考えると、現在、非常に分断された世界的な政治システムがあり、新しいレベルの不安定さ、あるいは見方によっては安定性を見出そうとしています。そのような文脈で、このようなものを規制しようとすることも非常に恐ろしいでしょう。ただし、その物語を非常に説得力のある方法で語ることができれば、私たちのライバルでさえも一時停止ボタンを押すかもしれません。
その物語は語られる必要があります。つまり、詳細を理解していない人々にとっては難しいです。はい。インテリジェントな支援と認知計算とAGIを区別することです。つまり、それは実際には全く同じではありません。多くの人々にとって、なぜ一方が他方と異なるのかを理解するのは少し難しいです。それは連続しているように見えますが、もちろんそうかもしれませんが、そうである必要はありません。
なぜなら、核エネルギーを多くの平和的な方法で使用することができ、爆弾を作る代わりに、爆弾を作る明確な方法と爆弾を作らない方法があります。しかし、この拡散問題があります。AIのためのコードを書くのは難しいですが、爆弾を作るほど難しくはありません。そして今、特にオープンソースの場合、拡散する可能性があるという問題があります。
だから私はAIのオープンソースに反対です。なぜなら、ビジネスツールとしてはオープンソースであるべきですが、世界の知識を持つヒューマノイドロボットのインテリジェントネットワークを構築する能力については、そうであるべきではありません。誰も世界の知識を持っていませんが、彼らは数年以内に世界の知識を持つことになります。例えば、予測において、差し迫っているあらゆる可能な変動を知っています。そして、彼らは実際に動くことができます。彼らは本当に物事を行うことができます。
そして起こっているのは、今のところ、彼らは主に計算と機械学習を行うことができます。そして次に起こるのは、感情をシミュレートし始めることができることです。そして、一種の基本的な推論を始めることができます。そして演繹も。なぜなら、彼らはますます多くの情報を持ち、すべてがリアルタイムだからです。そして、人間の感覚を捉えることができます。匂いを嗅ぐなどの意味で。
そして、シミュレーションがとても上手になり、私たちは彼らが誰であるかについて完全に混乱します。そしてこれらすべてのことが非常に急速に起こります。そしてそれはもはやビジネスに関することではありません。それはもはやビジネスを改善することに関するものではありません。それは本質的に人間の再創造のための純粋な競争です。
そして、トランスヒューマニスト的な特異点の物語全体が入ってきて、「それは良いことだ。なぜならそれが起こったとき、私たちは彼らと融合する。だから私たちは無限に強力になる。私たちは永遠に生きる」と言います。なぜ彼らは私たちを望むでしょうか? なぜ彼らは私たちを望むでしょうか? 誰も望まないだろう人間がたくさんいます。
国家の衰退は今まさに起こっています。つまり、ほとんどの西洋諸国は今、人間文明が維持するために必要な置換値をはるかに下回っています。だから、私たちが考えている以上に大きな問題です。私たちは何らかの方法で自分自身にこれをしていると思います。
このようなものを構築する唯一の議論は、力、お金、重要性の議論です。例えば、サム・アルトマンを見れば、彼は世界で最も重要な人物になりたいのです。それは「自我」という8文字の3文字の単語です。それは論理に反します。そして彼はサウジアラビアに行って、「より多くのチップを作るために8兆ドルを調達する必要がある」と言います。彼らは「ああ、はい、はい。いいね。良いアイデアだ」と言います。
だから、もしチップを手に入れれば、本当に物事を管理できます。そして、これはすべての国で起こっています。中国からロシアまで、確実に、そしてあらゆる場所で、それを行うことができる企業や国は、それを行うでしょう。初期段階では、それを行わないのは狂気の沙汰でしょう。なぜなら、彼らは週ごと、月ごとにますます遅れを取ることになるからです。だから、レースはすでに始まっています。現実的に考えましょう。
まあ、もちろん償還要因があります。多くの発展途上国では、AIはあまり意味を持ちません。クラウドのようなものが存在しないからです。あるいは、このタイプの計算のためのインフラがまだ実行可能ではありません。まだです。はい、しかし今後3〜5年以内に最大で、それは終わります。そうです。クラウドがないということはありません。
つまり、もしマスクが低軌道衛星を打ち上げ続け、3Gや5Gタワーを必要とせずに直接携帯電話に接続されるなら、それは完全にゲームチェンジャーです。そしてそれもすべてネットワーク化されています。
私にとっては、確実に私がやっていることのこの種の方向性を変えるつもりです。私はこの未来主義についての議論に少し飽き飽きしています。一種の精神的なスポーツ、エンターテイメントとしての未来主義の議論にも飽き飽きしています。それは楽しかったですが、もう古くなっています。
だから、人々に技術や技術の未来を説明することよりも、より重要な問題があると考えています。だから、私のモットーをノーム・チョムスキーやその他の人々のような公共の思想家になるように変えています。なぜなら、商業的な議題に縛られていないことについて話す緊急の必要性があるからです。
そして、本当の問題は、未来学者の仕事が商業的な議題に縛られていなければならないことです。なぜなら、学者でなければ、お金はどこから来るのでしょうか? 良い未来を作るには、技術が必要です。単に別れを告げて捨て去ることはできません。一方で、良いものを過剰に持つことは恐ろしいことです。
私はこれが本当にOpenAIが示唆していることだと思います。私たちは技術になるということです。それが議題です。これは本当に重要なメッセージです、ゲルト。人類の最後の砦は、私たちがコントロールできる決定を下す特権を保持することです。そして、もしその瞬間を逃してしまったら、私たちは最後のチャンスを失ってしまったことになります。
そして、おそらく私たちはそれを行う力を放棄する必要があるかもしれません。例えば、「わかった、はい、私たちにはそれができる。おそらくできるだろう。しかし、もし安全にできるなら、マンハッタン計画を作る代わりに、それを放棄すべきかもしれない」と言えるかもしれません。よし。そして、質問は、私たち自身だけで放棄することはできません。それは愚かでしょう。だから、惑星として、地球全体として放棄しましょう。それに触れないでください。なぜならうまくいかないからです。
そして、核エネルギーでそうしたと主張できます。私たちは放棄しませんでした。爆弾を持ち、そして団結して爆弾を避け、最終的にはすべてがうまくいきました、多かれ少なかれ。そして、今のところそれをコントロールしています。つまり、人間であることの最も強力な特徴の一つは、良い決定も悪い決定も下す能力です。そして、誰もが自分の人生で決定を下す能力を望んでいます。食べるもの、飲むもの、誰と結婚するか、どのように生きるかなどです。
そして、おそらくそれが会話の大きな部分になるでしょう。選択の価値を失いたいですか? そして、これは実際に汎用AIのプロセスでは避けられません。なぜなら、起こることは、小さなステップがあり、「わかった、自分でそこにたどり着く方法を見つけ出すつもりはない。Googleマップを使う。私は降伏する。私は譲る。私は一種の…」となります。そしてそれはほん�の些細なことですが、もし私たちが譲って「わかった、すべてを放棄する」と言えば、私のAIの医者は彼が最善だと知っているので、私は彼の言うことをします。中で何が起こっているのかわかりませんが、ただ彼の指示に従います。そしてそのようにしなければなりません。
そして、私たちはアプリケーションが基本的に私たちがすることになるポイントに到達します。私たちはブラックボックスを見て、そして選択肢がありません。なぜなら、私たちの唯一の選択肢は、それをオフにして死ぬことだからです。待って、そして死ぬ。本当の選択肢はないでしょう。そして、これが私たちが取っている道筋です。「わかった、これはできる。しかし、AIは政治家であるべきではない。核兵器を扱うべきではない。自分で戦闘を行うべきではない」と言うことです。
コメント