緊急速報:DeepSeekユーザーが収監の危機に!法律が狂気じみた状況に

5,906 文字

¡ÚLTIMA HORA: los usuarios de DeepSeek se Enfrentan a PRISIÓN! la LEY se ha VUELTO LOCA
¡Únete a mi newsletter aquí! este informe especial, analizamos una situación inesperada que está sacudiendo el mundo de ...

ディープシークの新モデルについて、皆が話題にしているものを試してみましたか?もしそうなら、悪いニュースがあります。あなたは刑務所に入る可能性があります。少なくとも、この法案が可決されれば、そうなる可能性があります。
まず皆さんに説明させてください。前回の動画で私の声について多くの驚きの声がありましたが、心配しないでください。以前声を担当していたナタリアは、今後も時々動画を制作します。私たちはいつもこのYouTubeチャンネルで二人で協力して作業してきました。今はただ、私たちのために更に多くのコンテンツを作りたいと考えています。
人工知能の世界には多くのニュースがあり、だからこそ私たちは二人で活動しています。この新しい声に慣れていただければと思います。私は多くのコンテンツを作成し、大きなことを成し遂げたいと考えているからです。
では、本題に戻りましょう。これは404メディアの記事です。ある上院議員が、DeepSeekをダウンロードする人々に対して懲役刑を提案しました。この法案によると、中国由来の人工知能モデルをダウンロードした人々は、最大20年の懲役刑、100万ドルの罰金、またはその両方に直面する可能性があります。
確かにディストピア的で完全に狂気じみています。もちろん、法案は可決される前に変更される可能性があります。そもそも可決されるかどうかも分かりません。しかし、このような措置に対して重装備で臨んでいる印象を確実に与えています。
ご存じの通り、アメリカと中国は最高の人工知能開発と、世界規模でAIを支えるインフラストラクチャーの主導権を巡って競争の最中にあります。基本的に問題は、世界がアメリカのインフラストラクチャー、ハードウェア、規制の下で機能するのか、それとも中国の下で機能するのかということです。
私たちは過去に同様の措置を多く目にしてきました。例えば、アメリカの半導体輸出規制法は、NVIDIAの最も強力なチップの中国への輸出を禁止しています。シンガポールがNVIDIAの購入の22%を占めており、おそらくその周辺に闇市場が存在する可能性があるにもかかわらずです。また、AIに関連するアメリカのテクノロジー企業への外国投資も阻止または撤回されています。
しかし、これは異なります。これは、あなたや私が、DeepSeekのようなこれらのモデルの1つと単に対話しただけで刑務所に入る可能性がある初めてのケースです。
ホーリー上院議員は自身のウェブサイトで次のように述べています:「中国のAIに流れる1ドル1ギガバイトのデータは、最終的にアメリカに対して使用されるリソースとなります。アメリカは自国の強さを犠牲にして最大の敵に力を与えることはできません。アメリカの経済的優位性を確保するには、中国をアメリカのエンジニアリングから切り離し、中国共産党のイノベーションへの補助金を抑制する必要があります。」
ホーリーの声明は、彼がこの法案を提出した理由が、DeepSeekの発表によるものだと明確にしています。DeepSeekは非常に高度なモデルで、アメリカのカウンターパートと競争力があります。その開発者たちは、はるかに少ないコストで、そして高度なチップへのアクセスが限られた状態で作られたと主張しています。
これらはまだ検証されていませんが、以前にも話し合ったように、複数の専門家による研究によれば、計算コストは実際のものです。しかし、これは他の研究所が単純にその金額でその程度の性能のモデルをゼロから作れるということを意味するわけではありません。
タニス・マシューという人物が非常に興味深い内容をブログで公開しています。彼によると、DeepSeekは実際にはサイドプロジェクトではなく、突然現れたわけでもありません。彼らはかなり長い間これに取り組んできたと言います。
モデルのコストに関して、様々な分析が同様の数字に達しています。600万ドルまたは550万ドルという数字はかなり正確だと考えられます。しかし、これはそのモデルの最終実行のコストです。その最終実行に至るまでに、より小規模な多くの実験と調整が行われており、それらにもかなりの費用がかかっている可能性があり、これは報告されていません。
これを自動車工場の建設に例えることができます。工場ができれば、1台の車を1,000ドルで生産できるかもしれません。その車を生産するのに1,000ドルかかったのは確かですが、工場がなければ実際に車を生産するのにかかるコストではありません。
彼によると、DeepSeekには確かにいくつかのイノベーションがあり、アメリカの企業もこれから使い始めるだろうとのことです。ここを見てください。DeepSeekはChatGPTやOpenAIのモデルの知識蒸留に似たことを行っています。
私はいつも全ての企業がこれを行っていると言ってきました。これらのモデルと対話する際、多くのモデルがOpenAIのGPTアーキテクチャー上で動作していることを示す明確な兆候があります。これは、オープンモデルから合成データを生成し、それを自社のモデルのトレーニングに使用していることを示唆しています。
この考えを裏付ける様々な企業からのリークが多数ありました。ブログでは、その可能性を認めつつも、それはDeepSeekの成果を損なうものではないと述べています。
こちらを見てください。「中国のAI支配を懸念すべきか?多少はそうかもしれない」この部分が私のお気に入りです:「もしそれほど安価なら、アメリカの企業は全てお金を無駄にしてきたことになり、これはNVIDIAにとって非常にネガティブなことです。」
彼のポストへのリンクは説明欄に載せておきます。また、ニュースレターでも共有します。そこでは同様の多くの投稿を共有し、日々のニュースについて話し合っています。購読をお勧めします。
記事に戻りましょう。ホーリーの声明はDeepSeekを「データを収集する低コストAIモデル」と表現し、これが国際的な懸念を引き起こし、アメリカのテクノロジー企業の株価下落を招いたとしています。
私たちはこれをカリフォルニアのAI法案で見ました。彼らはそれを可決しようとし、今また同じことが起きています。どちらの場合も、法案の文言は、カリフォルニアの場合、何か問題が発生した場合にオープンソースモデルの開発者が懲役刑に直面する可能性があるように構成されているように見えます。
この解釈に反論する人もいるかもしれません。しかし、もし私がオープンソース開発者なら、特定のオープンソースプロジェクトをリリースすることを確実に恐れるでしょう。あなたが十分な安全対策を実装したかどうかを判断するために、何らかの委員会が評価することは理解できます。しかし、それでも私はかなり心配でしょう。
ホーリーの声明によると、この法案の目的は以下の通りです:

中国へのAI技術の輸出入を禁止する
アメリカ企業が中国でAI研究を行うこと、または中国企業と協力することを禁止する
アメリカ企業が中国でのAI開発に投資することを禁止する

これが議論の大きな部分になることを理解することが重要です。この目的は、特に中国由来のオープンソースモデルがアメリカや世界の他の地域に到達しないようにすることです。
ところで、これが良いアイデアである理由について、いくつかの議論があるかもしれません。数ヶ月前に私が作成した動画で取り上げた論文を覚えているかもしれません。「最先端AIシステムが自己複製の危険ラインを超えた」という研究論文です。私の意見を述べさせていただくと、これはかなり恐ろしいものです。
この論文では、比較的小規模な言語モデルが、しかもオープンソースで、すでに何百万台ものコンピューターに存在していることを実証しています。開発者たちは何千万回も、おそらく1億回以上ダウンロードしているかもしれません。世界中の開発者がこの技術にアクセスし、使用していることを考えると。
私たちは最先端の技術について話しているのではありません。インターネットに接続する必要のあるものではありません。これはあなたのコンピューターで実行でき、小規模なアーキテクチャーを備えれば、自己複製プロセスを開始し、非常に複雑な計画を立て、それを実行する方法を理解し、途中の障害を特定して解決し、別のサーバーやコンピューターに複製することができます。
かなり高度な問題解決プロセスに参加することができます。つまり、障害に遭遇した場合、特定のタスクのためにPythonコードの断片を書き、それが機能しなければ別の方法を試みます。
ここで、一連の問題を様々な解決策でクリアし、最終的に自己複製を開始してタスクを完了できるフローチャートを見ることができます。また、シャットダウンされる前に自己複製することもできます。信号キャプチャーメカニズムを持っているため、人間がシャットダウンを開始すると、急速に複製を行い、その後、元のシステムは一定の方法でシャットダウンされますが、その直前に別のサーバーにコピーが作成されます。これを「シャットダウン回避」と呼んでいます。
考えられる別のシナリオで、おそらくさらに恐ろしいのは、システムAがシステムBを作成し、システムBがシステムCを作成するというように、複製の連鎖を実行できる可能性です。
彼らは700億のパラメーターを持つ2つのオープンソースモデル、LlamaとQwenをテストしました。そのため、これらは中規模と考えられ、インターネットに接続する必要なく、家庭用ハードウェアで実行できます。
Metaのllamaの場合、命令が与えられた時に約半分の確率で正常に複製されます。つまり、成功するかどうかの問題です。しかし、中国のモデルは99%の確率で正常に複製されます。
なぜそうなるのかについて、彼らは少し説明しています。Qwenは環境の探索により多くの時間を費やします。つまり、タスクの実行を開始する前に、物事がどのように機能するかを観察し、データを収集し、理解することにより多くの時間を費やします。
そして、これが明白でない場合、これら2つのモデルはDeepSeekで見ているものと比べれば何でもありません。それらはずっと高度です。
ここでの私の目的は、ある方向に決定を導くことではありません。誰かがオープンソースにとって非常に危険であり、オープンソースモデルへの攻撃であるか、あるいは科学コミュニティーと科学の進歩にとって悪いことである理由について論理的な議論を提示するなら、その考えがどこから来ているのか完全に理解できます。その議論を完全に理解し、同意することもできるでしょう。
そして、これについても以前話し合ったと思います。Anthropicが、安全性トレーニングを通じて存続する欺瞞的な言語モデルと休眠エージェントに関する研究を公開しました。彼らが言うように、「私たちの結果は、モデルが一度欺瞞的な行動を習得すると、標準的な技術ではその欺瞞を排除できず、誤った安全性の印象を与える可能性があることを示唆しています。」
法案では、ここで説明されていることを意図的に実行または実行しようとした場合の罰則について説明しています。その場合、その人は100万ドル以下の罰金を科され、個人の場合は最大20年の懲役刑に処されます。
Electronic Frontier Foundationの引用を見てください。彼らは、この法案がアメリカにおけるAIの開発と公開を脅かすと述べており、特に大手テクノロジー企業の独自システム以外での、これらの技術のオープンで協力的な開発への影響を懸念しています。
一見すると、この法案はやや異常に思えます。おそらくオープンソースの開発を脅かし、グローバルな科学的貢献を脅かすかもしれません。これらの技術をダウンロードする一般の人々を標的にする可能性があるというのは本当に恐ろしいことです。
最初の私の反応はかなり懸念するものでした。私はいつも意見の両側を理解しようとしています。そして再び、この中国の記事が指摘するように、言語モデルシステムとこれらのAIシステムは自己複製の危険ラインを超えています。
より良く理解していただくために、ここに700億のパラメーターを持つLlama 3.5とQwen 3.37 1000億があります。この記事が説明しているのは、このモデルがすでに自己複製の危険ラインを超えているということです。つまり、自己複製が可能なポイントを超えたということです。
このモデルの下のライン以下では、これらのモデルが外部の支援なしに自己複製するのに十分な知能を持っていない限界があると想像できますが、ご覧の通り、このモデルはランキングで38位です。リストを上に進むと、どんどん上がっていくのが分かります。ここにDeepSeek QV3があります。
Gemini、ChatGPT、O1などの他のモデルは全て独自モデルであることを理解することが重要です。つまり、それらを使用するにはサーバーに接続する必要があります。これらのモデルは自己複製できません。サーバーをシャットダウンすれば全てが停止し、リモート通信やオフラインアクセスはありません。
この例を見てください。ここでは、ある人が完全にローカルで携帯電話でDeepSeek R1を実行しています。もちろん小さなバージョンですが、ところで、これに興味がある場合、DeepSeek R1や任意のLLMをローカルでコンピューターにインストールする方法のマスタークラスを作成しました。さらに、グラフィカルインターフェースで実行する方法も非常に簡単に教えています。興味がある方は、私のニュースレターalerta.comに登録してください。
ここで、66,000ドル相当のハードウェアでDeepSeek R1の完全なモデルを実行している別の例を見ることができます。ご覧のように、多くの人々がローカルで実行して楽しんでいます。ローカルで実行している場合、コストは最小限なので、基本的に無料です。
これは非常にエキサイティングですが、私の別の部分は、これが100%安全かどうか、あるいは何らかの休眠エージェントがある可能性があるかどうかについて考え続けています。AIの安全性の考え方は依然として未解決の問題です。「解決した、我々はそれを手に入れた」と言うAIラボはありません。

コメント

タイトルとURLをコピーしました