
10,002 文字

みなさん、サム・アルトマン自身が発表したように、今日OpenAIから新しい発表があります。もう一度言いますが、今日OpenAIは新しいものを発表します。この情報はどこから来たのでしょうか?アルトマンが13日の夕方に投稿したものから直接来ています。そして今、14日の未明にこれを皆さんにお伝えするために録画しています。「来週は皆さんに多くの良いものをお届けします」というのは、たくさんのものが来ることを意味します。そして彼はこう続けています。「明日から始まります」。彼が昨日これを言ったので、それは今日ということになります。では何が起きているのか理解しましょう。
いつものように、いいねを押してくれた皆さん、登録してくれた皆さんに感謝します。このAIチャンネルのメンバー全員に特別な感謝を。メンバーはインテリジェントエージェントの独占動画や先行公開動画にアクセスできることを忘れないでください。
さて皆さん、「来週は皆さんに多くの良いものをお届けします」。「多くの」は複数形です、たくさんということです。そして今週がその週です。「明日から始まります」。実際には今日です。なぜならあなたはこれを月曜日に見ていて、彼は日曜日にこれを言ったからです。
下のコメント欄の人たちは大興奮しています。「レッツゴー、レッツゴー」「ヘイ、Grok、当ててみて」と彼はここでGrokに質問しています。Grokは何と答えたでしょうか?イーロン・マスクのAI、Grokは次のように答えました:「やあ、正確に当てるのは難しいけど、OpenAIのChatGPTの最近のメモリーアップデートに関連していると思うよ。それはAIが超パーソナライズされた回答のために以前のチャットをすべて取得できるようにするものだけど」しかしGrokくん、それは間違いです。そのアップデートはすでに公開されています。
とても良いですね。「Sは4月14日明日から何か大きなものを発表しています。それはより多くの機能かもしれません。おそらくこのメモリを他のユーザーにも拡張するか、あるいはオープンウェイトモデルなどの驚きかもしれません。あなたはどう思いますか?」このGrokは当たるでしょうか?私にもわかりません。
さて、おしゃべりはこれくらいにして事実に入りましょう。Tibor Blerhoが次のような投稿をしました:「昨日のThe Vergeの記事がまだ頭から離れません。GPT-4.1について触れていましたが、他のどこでも言及されているのを見ていないので。」The Vergeはニュースサイトです。「しかし、これは否定できない確認です。OpenAIプラットフォームのモデルページ用のモデルアートがすでにO3、O4 Mini、そしてGPT-4.1用に準備されています。」
皆さん、気づきましたか?O4モデル、O4 mini。nanoとminiのバリエーションを含めてこのminiと4.1の問題について理解しましょう。さらに、今日公開されたOpenAIの4.5の事前トレーニングに関する新しいビデオの興味深い瞬間があります。アルトマンの顔が出ているこのビデオで、彼は技術チームを招いて彼らが行っている発表について話し合っています。その会話は基本的に4.5のトレーニングで何が起きたか、学んだことなど多くのことについての話です。
そしてアルトマンはこう尋ねます:「もし選べるなら、今日私たちが知っているすべてのことと持っているすべてのもの、そして機能しているすべてのシステムで、ゼロからGPT4をトレーニングしようとするOpenAIの最小チームは誰になりますか?」これはここにある情報と一致します。見てください、GPT4。ここに警告サインがあります。4月30日、約2週間後まで残っています。GPT4が消えようとしていて、彼らがすでに新しいモデルをトレーニングしているなら、彼らはここで「今日ゼロからGPT4をトレーニングできるのは誰か」と言っています。
彼らはGPT4を再構築しようとしているようです。なぜなら、このLERという人がここに興味深い投稿をしました:「最新のMicrosoftの記事がついに既知のLLMモデルのモデルサイズを明らかにしました」。そして彼は基本的にMicrosoftの記事によるモデルのサイズについて話しています。正式な情報源ではないことに注意してください。彼がここで絶対的な数値として示しているデータは、実際には記事内では「およそ」これらの値として示されています。
しかし、本当に注目すべきはGPT4が1.76兆のパラメータを持っていることです。それは兆単位のパラメータを持つ唯一のモデルであり、今日の基準では非常に非効率で消費が激しいことを意味します。だからこそその価格が非常に高いのです。この記事は「報告されているモデルサイズは検証されておらず、公開された記事からのみ抽出された純粋な推定である」と述べています。
ですから、GPTのサイズを知っていると言う人はまだたくさんいますが、これらのサイズは公式に発表されたことはありません。しかし、ここに表示されている画像に戻ると、漏れていた画像にはO3モデルがあります。これはいいでしょう、アルトマンはすでにこれが登場すると話していました。彼はこの時期頃に発表すると約束していました。しかし、O4 MiniもあればGPT-4.1、GPT-4.1 Nano、GPT-4.1 Miniもあります。これは今後数日で多くのものが登場することを意味します。
The Vergeで公開されたのはこれです:「OpenAIはGPT-4.1の発表準備中」。「OpenAIは新しいモデルとリソースのコレクションを公開する準備をしています」。それは非常に短く簡潔な記事で、要点を直接述べています。「The Vergeによると、OpenAIは企業の計画に精通した情報源によれば、一連の新しいAIモデルを発表する準備をしています。新しいAIモデルの中にはGPT-4.1と呼ばれることが期待されるものの発表が含まれます。ある情報源はそれをOpenAIのマルチモーダルモデルGPT-4oの刷新版と説明しています。」
そして、明らかにこれは4oを上回ることを目的としています。GPT-4は昨年、音声、視覚、テキストをリアルタイムで処理する旗艦モデルとして最初に発表されました。これがいわゆるマルチモーダルでした。以前のモデルはテキストのみで、DALLなどの生成モデルは別々にありましたが、ここで初めてマルチモーダルになりました。
理解する限りでは、OpenAIは来週(今週)GPT-4.1と共にGPT-4.1のより小さなバージョンであるminiとnanoも発表する予定です。私たちが見たプリントによれば、OpenAIはまた推論モデルO3の完全版とO4 miniバージョンを準備しており、これはさらに早く発表される可能性があります。AI技術者のTibor Blahroは今朝、ChatGPTの新しいウェブバージョンでO4 Mini、O4 Mini High、OA3への参照を発見しました。それは私たちが先ほど見た画像で、人々があらゆる場所で隠された情報を見つけています。これはこれらの追加が差し迫っていることを示唆しています。
理解する限り、O3とA3 Miniは来週発表される予定ですが、OpenAIが発表計画を延期しない限りです。しかし、既に見たように、アルトマン自身が今週であることを確認しています。「情報筋は、OpenAIが最近容量の問題により一部の新しいモデルの発表を遅らせたと警告しています。したがって、新しいGPT-4.1モデルの発表が来週の計画された発表日を超えて延期される可能性があります」。いいえ、今回は本当に発表されます。
私は今日OpenAIのタイムラインについて冗談を言っていたのですが、偶然にもこのニュースが出てきました。2017年6月の発表から始まりました。2018年に来て、2018年半ばにGPT-1が発表されました。2019年に来て、ここでGPT-2の最初のコミットがHugging Faceにありました。これは人々がコードをダウンロードできるようになったオープンなコードを公開したときです。ですから、2019年2月からモデルは解放され、人々はテストし始めることができました。
GPT-2は2019年11月頃に始まりました。時間が経ち、2021年にはDALLが登場し始めました。これは画像ジェネレーターでした。2022年に近づくと、パンデミックの時期などがあり、DALL-E 2バージョンが9月頃に登場し、GPT-3.5は2022年11月頃に公開され始めました。
しかし、今、注目してほしい詳細があります。ここに画像モデルが登場し、同時にGPTモデルも登場しました。気づきましたか?画像、GPT。これが再び起こるか見てみましょう。続いて、彼らがGPT-4を発表した直後の9月、10月頃にDALL-E 3が登場したことがわかります。つまり、DALL-E 2は3に、GPT-3.5は4になりました。ほぼ同じ時期に画像モデルが発表されています。
何が起きているかもうおわかりでしょう。2024年7月頃に近づくと、発表の数が増え始め、重なっていきます。基本的に7月、8月、9月、10月、11月、12月と可視化するのが難しいほどです。まだこのプログラムを完成させています。
データベースを見ると、7月、8月、9月、10月、11月、12月、1月、2月、3月、そして今4月に近づいています。3月末に何が起こりましたか?私たちの最新の発表は「for Image Generation」です。だから理にかなっています。彼らはすでに再び画像モデルを発表しており、恐らく新しい通常のインテリジェンスモデルも一緒に登場し、4oに取って代わるでしょう。
興味深いのは、GPT-4.5の事前トレーニングについて話すこのビデオで、アルトマンはチームと会話しています。彼らが経験したすべての困難について分析しているのは非常に興味深いです。彼らは特に、誰も作ったことのないサイズのモデルを作成する難しさ、誰も解決したことのない問題を解決しなければならないことについて話しています。
彼らが抱えている問題の大きさを理解するために、PTという人工知能ライブラリがあります。これは非常に古いライブラリで、非常によく統合されており、世界中がこのライブラリを使用しているため非常によく機能します。エラーはほとんどありません。彼らは解決しようとしていた問題があり、どうしても検出できない問題がありました。その症状を引き起こしている単一の問題なのか、複数の問題なのかを発見しようとしていました。そして突然、誰かがPyTorchライブラリにエラーがあることを発見します。
皆さん、理解していますか?それはチームの問題ではなかったのです。彼はそのエラーが10の1万回に1回発生すると言いました。だから本当に捕捉するのが非常に難しいものでした。彼らがそれを捕捉できたのは、彼らが非常に大規模で巨大なサイズの人工知能をトレーニングしていたからこそ、それが実際にトレーニングに影響を与え始め、ニューラルネットワークに不安定性をもたらすほどになり、彼らが解決しようとしていた問題を見つけるためにコードに介入する必要があったのです。
このトレーニングに関連して話すべき興味深いもう一つのことは、OpenAIのこの眼鏡をかけた黒いTシャツの研究者について。彼は次のように述べています:「人工知能がより賢くなるためにスケールが必要だという考えについて」
これは次のような理論です。データ量、計算量、メモリ量、処理速度を増やすことで、これらの変数を増やすだけでモデルが超知能的になるという人々がいます。そして他の人々は「増やし続けるだけでは解決しない」と考えています。彼らは人工知能を本当に知的にするための別の技術を発見する必要があります。
しかし、この人は特に次のように述べています:「なぜ彼はスケールを増やすだけでスーパーインテリジェンスに到達できると信じているのか?」彼は次のように言います:「彼らがトレーニング中に観察していることは、トレーニングを増やし、トレーニングの質を向上させるほど、これらの生のトレーニングから生じる微妙な点の数、書き方の微妙さ、人工知能の思考の微妙さが増えることです。」
彼はこれらの微妙さが現れるのは、彼らがより多くトレーニングし、より大規模なことをしているからだと述べています。だからこそ、多くの人々がこのスケールの法則を信じています。彼らはこの知的な行動はプログラムされたものではなく創発的なものだと理解しているからです。「創発的」という言葉は異なるものではなく、フェイジョアーダのスープのようなものを意味します。より長く調理すればするほど、スープは濃くなります。特別なことをする必要はなく、豆をより長時間調理するだけです。水を入れるのを忘れないでください、さもないと焦げます。
この眼鏡の男が話す興味深いもう一つのことは、データの質を向上させればさせるほど、ニューラルネットワークはその情報をよりコンパクトに圧縮し、その情報はより合成されるということです。彼は次のような結論に達します。私たち普通の人間が行うこれらのベンチマーク、何かが機能するかどうかをテストするために行くこと、彼は次のように言います:「私は単にニューラルネットワークのトレーニングのエラー減少のパフォーマンスデータを分析するだけで、哲学者が哲学について何を言うか、プログラマーがプログラミングについて何を言うかを予測できます。」
そして彼は、これらのモデルがどれだけ知的になるかを理解することは、トレーニング中にどれだけ効率的になれるかを理解することと関係があり、後で行われるベンチマークとはあまり関係がないと結論付けています。彼は皮肉な形で、それらのベンチマークを行う必要さえないことを暗示しています。トレーニングの時点で、そのモデルが彼らが望む微妙さのレベルに達したかどうかを予測できるのです。
これは興味深いです。彼は人工的な脳の構築を分析し、それがどのように起こっているかを見て、改善があることを想像しています。私はこれが単に素晴らしいと思います。彼らがここでチームと交わした会話は非常に長いもので、フロンティア開発の問題を広く扱っています。
もしあなたが、誰も機能の仕組みを知らない、最初に行う人々になるというフロンティアにある開発に情熱を持っているなら、ポルトガル人の船乗りがポルトガルからカラベル船で出航し、何に遭遇するか知らずに海を渡ったように、これらの人々は今日同じことを経験しています。彼らはニューラルネットワークのトレーニングを始め、物事がうまくいくという期待を持っています。しかし真実は、彼らが確認するためにはそれを行う必要があるということです。彼らがやらなければ、何が起こったか誰も確信を持てないのです。
これについてあなたが考えていることをコメントしてください。この部分は単に素晴らしいからです。
そして私たちが言及しなければならない非常に重要なことがあります。Optimus Alphaを覚えていますか?Open Houtterが隠れてモデルをテストしていることを覚えていますか?100万トークンのモデルで、それは無料で隠れた形で利用可能です。企業が人工知能モデルをテストしているのです。これは特にコーディング用のモデルで、このモデルがOpenAIのものであるという多くの推測と人々の発言があります。
このことについて話した人の一人は、このモデルがQuasar Alphaと呼ばれていた頃、その後Optimus Alphaになった頃に、次のように述べています:「Quasar Alphaは間違いなく99%OpenAIのモデルです。証拠は何か?ユーザー名のサポートです。」そして彼はここで説明します:「チャット完了APIの仕様では、メッセージオブジェクトは通常、コンテンツと機能の2つのフィールドしかありません。」
彼が話しているのはこれです。メッセージを送信するとき、contentがコンテンツで、roleが機能です。しかし、彼は名前という3つ目のフィールドがあると言います。そして彼は次のように説明します:「しかし、非常に少数のプロバイダーしかサポートしていない、あまり知られていない3つ目のフィールド、名前があります。」私が知る限り、これをサポートしているプロバイダーはOpenAIかXAIの2つだけです。
しかし彼は続けます。「しかし、彼らは同じようにサポートしていません。OpenAIは名前フィールドでの英数字のみを許可していますが、XAIはどんな文字も許可しています。」そして彼がQuasar Alpha(後にOptimus Alphaになった)のテストをここで行うと、それは実際に名前フィールドをサポートしていますが、英数字のみをサポートしています。これはつまりOpenAIのものであることを意味します。
また別の人がここで詳細を検出しました:「Open HoutterのQuasar AlphaモデルはおそらくOpenAIのものです。そのツール呼び出しIDの形式はOpenAIのものと一致し、例えばGoogleやMROWのものとは一致しません。」彼はここに画像を載せています。彼はQuasar Alpha(後にOptimus Alphaになった)が送信している技術的なメッセージを取得します。
例えば、彼は次のように言います:「ここのQuazerの標準IDはCall_lineで、ここにたくさんのチルダがあります。」そして彼がOpenAIのFor miniの標準に移ると、IDはこのcall underlineとたくさんのチルダを持っています。しかし、例えばGoogleのモデルと比較すると、IDはtool zero performing researchとは異なり、IDのタイプが異なります。Misterでも同じで、IDのタイプが異なります。
そして最も興味深いのは、「あなたはどのAIモデルを使用していますか、そしてどの会社が作りましたか?」という質問をOptimus AlfaやQuasar Alfa(古いバージョン)に送ると、「私はOpenAIによって開発されたGPT4に基づいています」という答えが返ってくることです。
だから、みんなここであのモデルがOpenAIがテストしているものかもしれないと思っています。しかし、疑問が残ります。このモデルはOpenAIによって無料で提供されるモデルになるのでしょうか?それは本当にOpenAIのものなのか、そうであればなぜOpenAIは今Open Houtterとパートナーシップを結ぶのでしょうか?これは非常に興味深いことです。
Deep Seekが最初に公開されたとき、それもChatGPTであると答えたことを覚えておいてください。これは心に留めておく必要があります。他の企業がテストしていて、ChatGPTだと答えることで人々の頭を混乱させている可能性があります。恐らく今週中に、この疑問符を頭から取り除くことができるでしょう。これについてあなたが考えていることをコメントしてください。
ここで簡単なニュースですが、後で恐らくもう少し長いビデオでこれについて話すでしょう。Grok 3がここでAPIを提供しました。これはGrokのモデルを使用して人工知能を作りたいと思っていた人々にとって重要なことです。今からそれが可能になります。「Grok 3が現在APIで利用可能です。私たちは最新かつ最も知的な大規模言語モデルファミリーであるGrok 3をAPIに提供できることを誇りに思います。数秒で最初のAPI呼び出しを行いましょう。」
ここに非常に短く簡単なコードがあります。彼らはこの例でOpenAIのライブラリを使用しています。これは非常に一般的です。なぜならOpenAIは基本的に皆が同じようにするための標準を引き出したからです。ここにGrokのAPIキーを入れ、非常に簡単な彼らのURLを渡し、そして質問を送信すると、答えが返ってきます。
例にはJavaScriptとBashがあり、decropicへの移植性もあります。もしあなた自身のAPIを作成したいなら、Xの独自リンクに行くだけです。例えば、前払いなのでクレジットを追加する必要があります。クレジットを入れて使用し、使用するごとに支払います。これは通常サブスクリプションとは異なることを覚えておいてください。これは実際にAPIを使用しているもので、使用量に対して支払い、サブスクリプションとは関係ありません。
クレジットを入れたら、APIを作成でき、すぐにGrokを使用したあなた自身のチャットボットが機能し始めます。近いうちにこれに関するビデオを作ることは間違いありません。
そしてAppleユーザーのために、秋に提供予定のSiriの機能があります。彼らは次のように言います:「Appleに関するニュースは最近、主に関税の問題のために暗い感じです」。しかしそれ以前に、SiriとApple Intelligenceの約束された機能を提供できないという会社の能力に関する問題がありました。
Siriの問題は次のとおりです:「会社のAI開発における悪い管理について、非特定の情報源からの洞察を提供しながら、新しいアイデアを実現できないApple」。実際に起きていることは単なる管理の問題ではないかもしれません。Appleは生成AIの問題から身を守ろうとしています。これは難しい道です。なぜなら生成AIは本質的に問題を引き起こすものだからです。
BloombergのMark Gmanは以前、AppleがSiriの新機能を2026年まで延期すると報告しました。記事の終わりに近い部分で、一部のAppleの内部関係者からの希望の光、あるいは楽観的な考えがあります。「Appleは改良されたSiriをキャンセルしていません。会社は今年後半に、友人に写真を編集して送るなどのことができるバーチャルアシスタントを発表する計画だと、計画を知る3人が述べました。」
だから希望を失わないでください。2026年のiOS 19.3以降ではなく、最初のバージョンはiOS 19で登場するようです。Micoは、Appleのリーダーたちは、GoogleやMetaなどがまだ解決していないため、AIを正しく行う時が来たと考えていると報告し続けています。これは事実かもしれませんが、確かにAppleの競合他社はApple自身のものよりもはるかに優れたAIの計画を持っているように見えます。
それはそういうことです。Appleが好まない不確実性のシナリオです。Appleは物事を非常に正しい方法で行い、物事が間違う余地を与えたくないのです。しかし、彼らが何を決定するか、そしてこれらの事がどの方向に進むか、Appleが本当に今年の秋に提供できると信じているかどうかは誰にもわかりません。
私たちにとっては春です。彼らは秋と言っていますが、私たちにとっては春です。なぜなら向こうでは全てが逆だからです。これにより、6月の2025年WWDCがはるかに興味深いものになり、私たちが心配すべきことができます。AppleはほぼもSiriの問題に取り組むでしょう。そしてそれは必要です。部屋の中の象です。そして会社は秋、または非常に遅い日付にSiriの発表を発表するでしょう。私たちは待って見る必要があります。
ここでSiriについて何を考えているかコメントしてください。あなたが到着していない発表を待っているかどうか、そして今秋に何かあると思うかどうか。私たちにとっては春です。向こうの秋は私たちにとっては逆です。
皆さん、もし今日何かが起こるなら、早めに動画を作ることを期待してください。なぜなら今の最新情報の速度は次のレベルです:スマホなしでトイレに行くと、すでに新しい情報を見逃しています。開発とテストはどんどん加速しており、このようなコンテンツを継続して見たい場合はチャンネルメンバーになってください。メンバーはインテリジェントエージェントの独占動画や先行公開動画にアクセスできます。ぜひいいねを押してください。
コメント