OpenAIが大きな障害に直面

6,998 文字

OpenAI Just Hit a MASSIVE Roadblock ...
Learn AI Free for the first 30 days- Join my AI Academy - 🐤 Follow Me on Twitter htt...

最近、OpenAIにとって状況が少し厳しくなりました。「私的利益のためではない(not for private gain)」と題されたオープンレターが同名のウェブサイトで公開され、数十人の元OpenAI従業員が署名しました。このレターはカリフォルニア州とデラウェア州の司法長官に対し、OpenAIが提案している営利企業への組織再編を阻止するよう促しています。基本的に、そのような動きは「AGIが人類全体に利益をもたらし、私的利益のためではない」という非営利団体の本来の使命に違反すると主張しています。
今日は、ここで何が起きているのかを真に理解するために知っておくべき10の重要ポイントを掘り下げていきます。
このレターはかなり大胆に始まっています。「私たちは法律、企業統治、AI分野の専門家、非営利組織の代表者、そして元OpenAI従業員です」と述べています。信じてください、元OpenAI従業員は本当にたくさんいるのです。彼らは「AGIの開発と展開の管理を非営利慈善団体から営利企業へ移行させようとするOpenAIの提案された再編に反対する」と述べています。彼らは基本的に、「OpenAIはAGIの構築を目指していますが、AGIの構築はその使命ではありません。法人設立定款に記載されているように、OPAIの慈善目的は、AGIが特定の個人の私的利益を促進するのではなく、人類全体に利益をもたらすことを確実にすることです」と主張しています。
それでは、10の驚くべき事項について見ていきましょう。
まず最初に取り上げるのは、創設原則の根本的な裏切りです。ほとんどの人は、OpenAIが特に、Googleのように純粋に利益のためにAGIを開発することは極めて危険だと創設者たちが考えたために作られたということを認識していません。その元々の非営利ステータスは、お金を稼ぐことよりも人類の利益を優先する決定を確実にするためのものでした。そして覚えておいてください、OpenAIは今、利益を考慮しなければならない構造に変更しようとしています。これは根本的な考え方を覆し、OpenAIが設立された当初の理由全体に反するものです。
彼らは実際に創設時の発表を示しています。「私たちの目標は、経済的リターンを生み出す必要性に制約されることなく、人類全体に最も恩恵をもたらす可能性が高い方法でデジタル知能を前進させることです。私たちの研究は財政的義務から自由であるため、人間への肯定的な影響により良く焦点を当てることができます」これがOpenAIの創設声明です。もちろん、彼らが営利企業に移行すれば、この論理を本質的に裏切ることになります。
ここでグレッグ・ブロックマンの発言も見ることができます。「倫理的な面では、それは私の組織の中核です。それが私たちが存在する理由です。この技術の所有者は誰か、誰がそれを手に入れるか、お金はどこに行くのかという利益に関して、私たちはそれは全ての人に属すると考えています」これは2018年のグレッグ・ブロックマンの発言です。彼らは、彼らが元々言ったことに反していることを示すためにこれを参照しています。
彼らは、この再編によってOpenAIの技術開発を管理する組織によって負うべき義務が根本的に変わり、インセンティブが公共に対する執行可能な義務から基本的に利益へとシフトすることについて話しています。ここでも、これが起これば長期的な使命が危険にさらされる可能性があると述べています。OpenAIの全体的な目標は、AGIが安全で、たとえ利益が生まれなくても全ての人に利益をもたらすことを確実にすることだったことを思い出してください。現在のOpenAIの構造変更を考えると、これはかなり驚くべきことです。
さて、私たち自身がこのような思考をしていると、もし皆さんも同じような体験を楽しみたいなら、毎日問題解決能力を磨く楽しい方法が欲しいでしょう。もしそうなら、本日のスポンサーであるbrilliant.orgを是非チェックしてみてください。
Brilliantは数学、科学、プログラミング、データ分析、そしてもちろんAIに関する何千もの真に対話的なレッスンで、毎日あなたをよりスマートにします。本当に、彼らのカタログは膨大です。Brilliantが非常に効果的である理由(そして私が個人的に大好きな理由)は、実践的なアプローチです。単に講義を見るのではなく、積極的に問題を解決し、概念で遊ぶのです。それは基本原則に基づいて構築されており、なぜ物事が機能するのかを理解するのに役立ち、単に暗記するだけではありません。この方法は、実際の理解と批判的思考力を構築するためにはるかに効果的であることが証明されています。これらのスキルはどこにでも適用できます。真剣に、むやみにスクロールするのをやめて、Brilliantで強力な日々の学習習慣を構築しましょう。
微積分を最終的に理解したい、AIの背後にある論理を理解したい、Pythonスキルを構築したい、あるいはデータを視覚的に理解したいかどうかにかかわらず、Brilliantには、MITやGoogleなどの場所の専門家によって設計された魅力的なコースがあります。Brilliantが提供するすべてを30日間無料で試すことができます。さらに、画面上の私のリンクを訪問することで、年間プレミアムサブスクリプションの20%割引を受けることができます。画面上のQRコードもスキャンできます。そのリンクは下の説明欄にあります。ぜひチェックしてみてください。
彼らが話す2つ目の驚くべきことは、莫大な富が移転する可能性があるという事実です。OpenAIから語られたことの一つは、AGIがほぼ想像を絶する富を生み出す可能性があり、「全ての将来価値の光円錐」を持つ可能性があるということです。元々の利益上限構造は、その莫大な富が私的投資家ではなく、人類を代表する非営利団体に戻るように設計されていました。このレターは基本的に、この上限が投資家の要求によって撤廃されつつあり、AGIからの天文学的な利益が今や公共の利益のために使用されるのではなく、意図されていたように、少数の株主に圧倒的に利益をもたらすことになると主張しています。
彼らが実際に述べていることの一つは、もちろんAGIが前例のない経済的利益、ほぼ無限の富を生み出すだろうということです。その声明はかなり真実です。ほとんどの人はAGIがあらゆることに影響を与える技術であることを認識していません。そのような富は、私たちがこれまで見たことのない規模のものです。
彼らはまた、サム・アルトマンの元の声明を参照しています。「AGIに特有の問題は、もし私たちが成功し、おそらく宇宙のすべての将来価値の光円錐を捕捉する可能性があるということであり、それは確実に一群の投資家が持つべきではありません」と彼は言っています。人々は常に資本主義がAGIの下で崩壊するという事実について話してきたことを覚えておいてください。彼らが話しているのは、提案された再編の下で利益上限構造がどうなるかは分からないが、最近の投資は利益上限を取り除くという条件でなされたという報告があるということです。基本的に、OpenAIの資金調達ラウンドに投資している人々が、それらの投資から無制限の利益を得る可能性があり、それがOpenAIが何十億ドルもの投資を集める方法だということを述べています。
これは「人類全体からOpenAIの株主への大規模な富の再配分を構成する可能性がある」と彼らは述べています。これはもちろん人々が望まないことです。
また、法的説明責任の喪失もあります。これは本質的に、OpenAIが非営利慈善団体によって管理されているため、公的な職員がOpenAIがその使命を守ることを確実にする法的権利と義務を持つということです。提案された公益法人への変更は、この直接的な公的監視を取り除くでしょう。PBCは公益を掲げていますが、取締役会を訴える主要な法的権限は株主に移り、その主な関心は通常、公共の利益ではなく財務リターンであり、選出された職員は主要な執行ツールを失います。基本的に、これらの人々を制御できるのは、相反するインセンティブを持つ人々だけだということです。もしこの変更が行われれば、全く良いことではありません。
4つ目のポイントは最初のポイントに関連していますが、AGIも投資家のものになる可能性があるということです。彼らはAGIの所有権について話し、元々の規則の一つは、もし彼らが真のAGIを作成した場合、その技術自体は非営利団体によって作成され、人類の利益のために管理されることを明示的に述べていたということです。もちろん、このレターはこの再編により、営利会社とその投資家がAGIを所有し制御することになると基本的に主張しています。これは、以前は禁止されていた強力な技術への主要投資家の無制限のアクセスを与えることになります。この所有権が制御と使用を決定します。ここで驚くべきことは、OpenAIが提案された再編の下でAGIを所有する者について公に言及していないということです。それはおそらくOpenAIとその投資家に属することになるでしょう。信じられないような報道によれば、OpenAIとMicrosoftはMicrosoftのAI技術へのアクセスに関する契約上の制限を取り除くことについて議論しているとのことです。繰り返しになりますが、OpenAIは以前に言っていたことを変えようとしている可能性があります。
これはまた、サム・アルトマンの劇的な転換点でもあります。2023年、サム・アルトマンは実際に興味深いことを言いました。彼は米国議会で証言し、非営利団体による制御、利益上限、その他のユニークなガバナンス機能が、OpenAIがミッションに焦点を当て続けることを確実にする不可欠なセーフガードであることを強調しました。2年も経たないうちに、彼は実際にこれらの正確なセーフガードを解体しようとしており、今ではそれらを障害として位置づけています。この劇的な変化は、再編の背後にある動機について深刻な疑問を投げかけています。
彼らは「2023年5月から2024年9月の間に何が変わったのか、重要だったこれらのセーフガードが今や障害になっているのか」と述べています。これらは彼がした声明であり、これらすべてが一つの声明の中で明らかになるのを見るのは正直なところ非常に興味深いです。
また、「立ち止まって支援する」という約束の放棄もあります。OPAIの創設憲章には実際に特定の異例の約束が含まれていました。もし別の責任ある安全意識の高いグループがAGIの構築に近づいた場合、OpenAIはまず競争を止め、潜在的に危険な技術の無謀な競争を防ぐためにそのグループを支援するというものです。
「したがって、価値観を共有し安全意識の高いプロジェクトが私たちよりも先にAGIの構築に近づいた場合、私たちはそのプロジェクトとの競争を止め、支援を始めることを約束します」と彼らは言っています。現在の社会のAIレースの状況と、OpenAIの構造がどのように変わりそうかを考えると、このレターは基本的に、競争圧力に駆られた新しい営利構造がこの重要な安全への取り組みを無視または放棄する可能性が高く、それによって世界的なリスクが増大する可能性があるという懸念を表明しています。それも驚くことではありません。すべてが危険にさらされている中で、OpenAIが別の会社を支援するために一歩退くのを想像できますか?正直言って、それは想像できません。
また非常に重要なのは、AGIの支配権が他の何よりも価値があるという話です。そして最も驚くべきことの一つは、この会社が慈善寄付で設立されたということです。ここでは法律が明確です。「一般市民は様々な慈善目的から恩恵を受ける可能性がありますが、慈善寄付は信託として受けた目的のためだけに使用されなければなりません」とあります。OpenAIが設立された時、彼らは人類に利益をもたらすAGIを構築するという理由で寄付を受けました。それが彼らの使命でした。しかし、その寄付が今や営利企業を構築するために使用されているので、これは本質的に最初の約束を破ることになります。
ここでの一つのことは、投資家の圧力が引用されていることです。彼らは、再編を正当化するためにOpenAIが主に投資家の要求を引用し、単純に資本構造を簡素化する必要があると述べ、特に市場の不慣れさと利益上限について言及していると話しています。「OpenAIの利益上限付き営利企業における利益は、競合他社と比較して不慣れであり、OpenAIが直面する課題は最近の資金調達ラウンドに反映されており、その中で投資家は特定の資金提供コミットメントから解放する条件や、OpenAIが資本構造を簡素化できなかった場合に投資された資金を利息付きで最終的に償還することを許可する条件を主張した」とあります。もちろん、彼らが話しているのは、これらの投資家が実際に会社の構造を変えるよう求めているという事実によって、使命が再び道を誤っているということです。
また、高い賭け金の性質も認識されています。一方、OpenAIはAGIが深刻な誤用、重大な事故、社会的混乱のリスクを伴うと警告しています。そのウェブサイトには、「誤った方向に調整されたスーパーインテリジェントAIは世界に深刻な害を与える可能性がある」と記されています。彼らはサム・アルトマンと最近のノーベル賞受賞者でAIの先駆者であるジェフリー・ヒントンが「AIによる絶滅のリスクを軽減することはパンデミックや核戦争などの他の社会規模のリスクと同様に世界的な優先事項であるべきだ」という声明に署名したという事実について話しています。ですから、AGIに関しては本当に高い賭け金があります。これは数百人に影響を与えるような低レベルの技術ではありません。これはゲームチェンジングな技術がかかっているのです。
つまり、OpenAIが創設声明を作成した理由を振り返ると、彼らはこの技術が非常に非常に影響力を持つだろうと認識していたことは明らかでした。そのため、彼らは正しい方法でその使命を維持できるように、最初から創設声明を持つ必要がありました。もちろん、彼らが今やそれから離れつつあるなら、それは彼らが本当に困る状況になるでしょう。なぜなら、OpenAIは岩と硬い場所の間に挟まれているからです。彼らが再編すれば、悪者に見えるでしょう。そして、彼らが再編しなければ、投資家が留まるかどうかはわかりません。
最後のポイントでは、いくつかの深刻な申し立てもあります。OpenAIはモデルの展開プロセスについて批判を受けてきました。再編への反対は単なる理論的なものではありません。彼らはOpenAIによって取られている行動に関する具体的な懸念をリストアップしています。例えば、テストプロセスがより不十分になり、リスクの特定と軽減に十分な時間とリソースが捧げられていないことなどです。製品リリーススケジュールを満たすために安全性テストを急いでいます。AGIの安全性確保を担当するチームにコンピューティングリソースの20%を捧げるという約束を反故にしています。
ヤン・ルカンがOpenAIを去ったのは、この会社が使命を失い、ますます利益に焦点を当てるようになったため、彼はAnthropicのようなAI安全に焦点を当てた会社に行く必要があったと言ったことを覚えています。
彼らはまた、「アルトマン氏は、コンピューティングリソースの世界的な可用性を減らすことがまもなく重要になる可能性があると述べる一方で、米国の敵対者との間で数兆ドルのコンピューティングインフラの構築を私的に手配しようとしている」事実にも言及しています。また、「OpenAIは退職する従業員を異常に制限的な中傷禁止契約に強制した」とも述べています。基本的に、OpenAIを去った人々は、うまくいかなかったことについて本当に話すことができなかったと述べています。
全体として、10の重要なポイントがあります。この文書は絶対に信じられないものでした。10の重要なポイントを示していますが、これはほんの一部であり、ダニエル・カタルホを含む多くの元OpenAI従業員が明らかにこれに反対しています。ジェフリー・ヒントンもこれに署名しています。そして、これはかなり説得力のある文書です。
彼らがこれをどのように乗り切るのか、本当に興味深いことになるでしょう。OpenAIがまだ成功し、素晴らしい製品を提供できるような独自のケースがあると思います。しかし、AGIの管理に関しては、何らかの法的な対応が必要だと思います。なぜなら、この会社はAGIが人類全体に利益をもたらすことを確実にするという使命で作られたからです。
それはさておき、皆さんがこの動画についてどう思うか教えてください。また次回お会いしましょう。

コメント

タイトルとURLをコピーしました