

最近、非常に洞察に富んだインタビューがありました。それは実際、AGIの未来がどのように発表され、様々なレベルで実装されるかについて驚くべき予測をしたOpenAIの従業員によるものでした。このインタビューはHard Fork New York Timesポッドキャストで行われ、私が話している人物はDaniel Kokotajloです。これはかなり驚くべきことです。なぜなら、4つの洞察に富んだポイントがあり、インタビュー全体はもっと長いのですが、私が話したい4つの洞察に富んだポイントがあるからです。それらは実際に、OpenAIについて多くの人が知らなかった新しいことを示しています。OpenAIの実際の安全構造に関すること、そしてもちろんOpenAIで実際に起こったいくつかのこと、Microsoftの役割に関するいくつかのこと、そして彼がAGIを予測する日付についてです。
他のビデオで話したAGIの以前の日付を覚えておいてください。AGIについて話した日付を覚えておいてください。なぜなら、私が見たすべてのOpenAI従業員から一つの傾向があるように見えるからです。ブログを見ました、投稿を見ました、インタビューを見ました。そして、AGIについて言及されるときに繰り返し出てくる一つの主要な日付があるようです。それは単なる偶然かもしれませんが、私はそうではないかもしれないと考えています。しかし、それ以上の前置きなしに、正確に何が起こっているのかに飛び込んでみましょう。
まず最初のクリップでは、基本的に驚くべきことに、私さえ知らなかったことについて話しています。これは一種のニュース速報のようなものです。基本的に、Microsoftの内部安全チームについて話しています。彼らはMicrosoftのGPT-4のリリースを、インドの一部またはインドのどこかに承認するはずでした。しかし、Microsoftはただ前に進んでリリースしてしまったのです。これは驚くべきことでした。これを見てみましょう。もし誰かが、もし私がフォーラムでこれを見たら、「ああ、おそらく本当ではない」と思っただろうと思います。しかし、OpenAIで働いている誰かとして、私はこれを額面通りに受け取っています。それはかなり、かなり驚くべきことです。
このボードにはMicrosoftの人々とOpenAIの人々が含まれていて、GPT-4スケールまたはそれ以上の主要な展開を審議し、最終的に承認することになっていました。GPT-4スケールに到達する前に設定されましたが、そのレベルに達したら、展開のゲートになるという期待で設定されました。DSBの承認を得る必要があります。DSBがまだ審議している間に、私や他の様々な人々がMicrosoftが勝手に展開してしまったという噂を聞き始めました。特にインドでです。そこで、私たちはこれについていくつかの会話をし、マネージャーなどに問い合わせをしました。誰が誰に何を言ったかなどの詳細には立ち入りたくありませんが、私は失望しました。なぜなら、この自己統治構造が整っていたのに、その構造に違反があり、Microsoftにこれについて責任を問うのではなく、関係を損なうことを恐れていたからです。関係する敏感な問題があり、彼らには多くのコンピューティングリソースがあります。私たちは、Microsoftとの関係を損なうことを恐れていました。関係する敏感な問題があり、彼らには多くのコンピューティングリソースがあるのです。
さて、ここで皆さん、これは驚くべき発見です。多くの人がMicrosoftとOpenAIのパートナーシップは、実際には安全性の担当者と対立することになるだろうと示唆していましたが、ここで明らかになったように、モデルを公開リリースする前に承認を得るという明確な合意があったにもかかわらず、それが守られなかったのです。安全性委員会によるこの監督が行われなかったことは、非常に注目に値します。OpenAIで起こったすべてのことを考えると、私を完全に驚かせたわけではありませんが、多くの人が、すべての人間とすべての組織が厳格で専門的で決して間違いを犯さないと考えていることを考えると、確かに驚きました。
しかし、同時に、間違いを犯し、インセンティブを持ち、時には貪欲になる人間がいるのも事実です。ここで見られるのは、人間が欠陥のある生き物であり、たとえMicrosoftであっても、自社の努力を前進させると信じれば製品を急いでリリースする可能性があるということです。これは、物事が今後どのように進展するかについて、少し示唆的だと思います。
もちろん、将来的にはOpenAIの国有化が予測されています。最近、NSAで長期間働いていた人を雇用したことを考えると。しかし、全体的にこれはかなり、かなり驚くべきことです。
さて、彼が次に話すことも驚くべきです。これは、イリヤの退任後の仕事の文化についてです。基本的に、イリヤの退任後、OpenAIには「安全性担当者なんて関係ない」という文化が全体的に広がったと言っています。これは驚くべきことです。安全性担当者が会社で最も尊敬される人々の一部だと思っていましたが、その後、奇妙な状況になったようです。
イリヤ・サツキバーとヘレン・トナーの後、あの全体的な争いの後、物事が極端に分極化してしまったようです。私たちが話し合って方向転換するとは思えませんでした。また、個人的なレベルでも、私のような安全性担当者に多くの怒りが向けられました。古い取締役会が不誠実だったという認識があったからです。彼らはサムを十分に率直でなかったから解雇したのではなく、彼らが減速したかったのにサムがそうしなかったため、口実が必要だったという認識です。その結果、はい、それはかなり物語るものでした。
イリヤが去った後、仕事を取り巻く文化が実際に変わったことに驚きませんが、安全性担当者を取り巻く文化全体がそのようなものだったことは驚きでした。しかし、今、スーパーアライメントチームが解散したことを考えると、OpenAIは基本的にチームを完全に解散したわけではありませんが、チームを解散させました。内部でいったい何が起こっていたのかと思います。これがヤンが去った理由の一部かもしれません。一部の研究者が実際に解雇されたことを考えると、これらすべてがOpenAIの一部の決定にどのように影響したのか、言うのは難しいですが、取締役会のクーデター後、これが影響要因だった可能性は否定できません。
AIの世界で安全性担当者がどのように見られていたかについて、力学の変化があったのは明らかです。これは本当に、本当に興味深いと思います。
次のポイントはさらに興味深いです。ここで彼は自身の定義について話します。上に「2027年までにAGI」と書きましたが、それが彼の言うとおりです。2027年は、私がほぼすべての利用可能なソースから聞いた同じタイムラインです。もちろん、サム・アルトマンのような人々は5〜10年と言っていますが、ハードウェア面を構築し、計算の側面を考えると、彼はもう少し慎重になっているように思います。しかし、すべてのOpenAI従業員がこのような画期的な技術について、こんなに短いタイムラインを予測しているのは興味深いと思います。
私は、これらのモデルの能力と過去4年間に起こった進歩に関する公開情報だけでも、推測して「おっと、2027年頃にはAGIに到達できそうだ」と言えるほど十分だと思います。もっと早くかもしれません。この推論を行うのに秘密は必要ありません。そして2つ目の点、これは大したことなのか、本当に危険なのかについても、特定の秘密は必要ありません。
そうです、彼は公開情報だけを見ても、本当に非公開の情報を見なくても、2027年がAGIが到来する年になると推測できると言っています。これは本当に、本当に信じられないことです。ブログ記事で見たり、3、4回聞いたりするのとは違います。OpenAIで働いている誰かにとって、彼らが取り組んでいる技術の種類と、近い将来に行う進歩に基づいて人々がどのように技術が進化すると期待しているかについて、かなり物語っていると思います。
このインタビューは素晴らしかったです。正直なところ、カメラの前でこのように話す人を見るのは興味深かったです。先日、レオポルド・アッシェンブレナーがOpenAIで起こっていることや人工知能の未来について話していたのと同じように。
このインタビューにはダニエル・ココタイロによる部分だけでなく、ニューヨーク・タイムズがサム・アルトマンの帝国について非常に興味深い報道をしています。サム・アルトマンはOpenAIのCEOであり、それは彼をかなり力のある人物にしていますが、もし私がこれが実際にはさらに異なる領域にまで及び、サム・アルトマンが世界で最も力のある男になる可能性があると言ったらどうでしょうか。これは誇張に聞こえるかもしれませんが、彼らが最初に言うことを聞いてください。なぜなら、彼らが最初に述べることは真実であり、洞察に富んでいるからです。世界で最も力のある男になることが狂気のことや悪いことだとは言っていません。ただ、サム・アルトマンがAI業界で行っている動きの動機は何なのかという非常に興味深い疑問を提起していると言っているだけです。
これはサム・アルトマンにとって何を意味するのでしょうか。なぜなら、彼はすでに裕福な人物ですが、AIにおける最大で最も重要な企業のすべてに関与していれば、ダニエルが心配しているAGIが到来する時期に、一人の人間が驚くべき量の力を持つことになるからです。彼はOpenAIのCEOであり、この分野で最も重要な多くの企業の主要な株主になるでしょう。なぜこれを取り上げるかというと、そのような世界では、この人物が誰であり、彼を抑制するためにどのようなガバナンス構造が存在するのかを知りたいからです。なぜなら、現在のところ、サム・アルトマンが世界で最も力のある人物の一人になる道筋にあるように見えるからです。
そうですね。サム・アルトマンが世界で最も力のある人物の一人になる可能性があるという事実があります。そして、これは誇張ではないと思います。AGIの最前線にいる可能性のある企業にいて、そしてあなたの技術に依存する他のすべての企業との主要なパートナーシップを持っているかもしれないことを考えると、それはソフトウェア企業の大多数にとって不可欠になるでしょう。彼が世界で最も力のある男になるでしょうか?もちろん、それほど強力なものはないと思います。政治もありますが、人工超知能が最終的に力関係を変えるでしょう。なぜなら、それを出し抜く方法がないからです。彼がそうならない理由が見当たりません。
このことについて、皆さんの考えをお聞かせください。このインタビューは完全に見る価値があると思います。説明欄にリンクを貼っておきますが、非常に洞察に富んでいます。まず第一に、Microsoftがとにかくモデルをリリースすることを決めたこと、第二に、OpenAIの文化が基本的に「安全性担当者なんて関係ない」というものだったこと、そして彼の2027年までにAGIが実現するという予測、これらは本当に、本当に注目に値します。
皆さんの考えをお聞かせください。次回またお会いしましょう。
コメント