
23,407 文字

なぜそもそも私たちはAIに取り組んでいるのか? とりあえずJaredに聞いてみましょう。なぜAIなのですか?
そうですね、長い間物理学をやっていて飽きてしまい、友達ともっと一緒に過ごしたかったので。
ええ、Darioがあなたを説得したと思っていました。
実際には明確な説得はしていないと思います。ただAIモデルの結果を見せて、それらがとても汎用的で一つのことだけに適用されるわけではないということを指摘しようとしていました。そして何度か見せているうちに、あなたは「ああそうですね、それは正しいようですね」と。
教授になってどのくらい経っていましたか?その時は。
6年くらいだったと思います。私はSamの採用を手伝いました。
私と話をして、あなたは「ここに良い環境を作れたと思う」と。
ええ。
「そして私の目標はTomを呼び戻すことだ」と。それはうまくいきました。
解釈性の研究をGoogleでやっていた時に皆さんと出会ったのですか、Chris?
いいえ。実は19歳の時に初めてベイエリアを訪れた時に何人かの方々と出会いました。DarioとJaredにはその時会いました。当時彼らはポスドクで、私はそれがとてもかっこいいと思いました。その後、Google Brainで働いていた時にDarioが加わり、実際に隣同士のデスクで一緒に働きました。Tomとも一緒に仕事をしました。もちろんOpenAIに行った時にも皆さんと一緒に働くことができました。つまり、多くの方々と10年以上のお付き合いになるわけです。それはちょっと不思議な感じがします。
思い出してみると、2015年にDarioに会ったのは、あなたが参加していた学会に私が行った時でした。あなたにインタビューしようとしましたが、GoogleのPRから、あなたの研究論文を全て読まなければいけないと言われました。
ああそうですね、Googleにいた時に「AI安全性における具体的な問題点」を書いていたと思います。
その論文について記事を書いたと思います。
あなたと働き始める直前、オフィスに招待していただいて、AIについて全て話を聞かせていただいたのを覚えています。その後「なるほど、これは私が思っていたよりもずっと深刻な問題なんだ」と気付きました。計算力の大きな塊や、パラメータのカウント、脳のニューロンの数などについて説明してくれたと思います。
Darioはよくそういう効果を人々に与えますね。「これは私が思っていたよりもずっと深刻だ」と。
ええ、私は幸せな知らせの使者です。
でもOpenAIにいた時のスケーリング則の話を覚えています。物事をより大きくしていって、それが効果を発揮し始めた時、そしてそれが不気味なほど様々なプロジェクトで効果を上げ続けた時、私たちは皆密接に協力するようになりました。GPT-2から始まり、スケーリング則、GPT-3へと。
ええ、私たちは物事をうまく進めるグループでした。
そうですね。
安全性にも熱心でした。その時代、AIは非常に強力になるけれども、おそらく人間の価値観を理解できないか、私たちとコミュニケーションを取ることさえできないかもしれないという考えがありました。
そのため、言語モデルを使ってAIシステムが暗黙知を理解できるようにすることに、私たちは皆とても熱心でした。
そして言語モデルの上に人間からのフィードバックによる強化学習(RLHF)を実装することです。これらのモデルをスケールアップする理由の全ては、モデルがRLHFを実行するのに十分賢くなかったからです。これが、今日も私たちが信じている安全性とモデルのスケーリングの相互依存関係です。
ええ、スケーリングの研究はOpenAIの安全性チームの一部として行われました。なぜなら、AI技術のトレンドを予測することは、安全性の問題を真剣に受け止めてもらうために重要だと考えたからです。
その通り。
ええ、イギリスのある空港でGPT-2からサンプリングを行い、フェイクニュース記事を書くのに使って、Darioにスラックでメッセージを送ったのを覚えています。「これは本当に機能する。大きな政策的影響があるかもしれない」と。Darioは彼特有の方法で「そうだね」と言ったと思います。でもその後、リリースの件も含めてたくさん取り組みました。それはちょっと野心的でした。
ええ、リリースの件は覚えています。私たちが初めて一緒に仕事をした時だと思います。
楽しい時期でしたね。
はい。
GPT-2のローンチ。
ええ。でも私たちにとって良かったと思います。なぜなら、私たちは一緒に少し変わった安全性重視の取り組みをして、その後Anthropicという、より大きな少し変わった安全性重視の取り組みをすることになったからです。
その通り。
一緒に。
具体的な問題に戻りますが、私は2016年にOpenAIに入社しました。最初の20人くらいの従業員の一人としてあなたやDarioと一緒でした。その時、AI安全性における具体的な問題は、最初のメインストリームなAI安全性に関する論文だったと思いますが?
はい。
そうでしょうか?その経緯について聞いたことがないと思います。
Chrisは知っています。彼も関わっていたので。そうですね、私たちは二人ともGoogleにいました。他にどんなプロジェクトをしていたか忘れましたが、多くの場合と同様、それは私が今では完全に忘れてしまった他のプロジェクトから気を紛らわそうとした試みでした。
でもChrisと私でAI安全性に関する未解決の問題を書き出そうと決めたと思います。また、AI安全性は通常とても抽象的な方法で議論されていました。当時行われていたMLの文脈で具体化できないかと考えました。今ではその方向性での研究が6、7年分蓄積されていますが、当時はほとんど奇妙なアイデアでした。
ええ、ある意味で政治的なプロジェクトだったと思います。当時、多くの人々は安全性を真剣に受け止めていませんでした。そこで、人々が合理的だと同意できる問題のリストを集め、それらの多くは既に文献に存在していましたが、それを信頼できる異なる機関の研究者たちと共に著者になってもらうという目標がありました。
私は論文を公開するための支持を得るために、Brainの20人もの研究者と長い期間話をしたことを覚えています。問題や強調点の多くを見てみると、それほどうまくいっていないと思います。つまり、それは正しい問題ではなかったと思います。しかし、実在する価値のあるものがここにあり、真剣に受け止める必要があるという合意形成の取り組みとして見れば、それは非常に重要な時期でした。
本当に奇妙なSFのような世界に行き着きます。Anthropicの初期に憲法的AIについて話していた時、Jaredが「言語モデルの憲法を書くだけで、その振る舞いが全て変わる」と言ったのを覚えています。当時はそれは信じられないほど突飛なアイデアに聞こえましたが、なぜそれが機能すると思ったのですか?会社の最初期の大きな研究アイデアの一つだったことを覚えています。
ええ、Darioとはしばらくその話をしていました。AIにおいてはシンプルなことが本当にうまくいくと思います。
最初のバージョンはかなり複雑でしたが、AIシステムが選択問題を解くのが得意だという事実を利用して、求めているものを指示するプロンプトを与えるというところまで削ぎ落としました。それが私たちに必要な多くのことでした。
そして私たちはこれらの原則を書き下すことができました。
これは、大きな計算力の塊や苦い教訓、スケーリング仮説に立ち返ります。AIにデータを与えることができ、明確な目標があれば、それを実現させることができます。
ここに指示のセットがあり、原則のセットがあります。AI言語モデルはその原則のセットを読み、自身が行っている行動と比較することができます。そこにトレーニングの目標があるので、一度それが分かれば、私とJaredの考えでは、それを機能させる方法があります。詳細を十分に調整する必要があるだけです。
ええ。これは私にとっていつも奇妙でした。特にこの初期の時代は。私は物理学出身で、物理学から来ましたが、今では皆がAIに熱心なので忘れがちですが、Darioと具体的な問題やその他のことについて話していた時のことを覚えています。AI研究者たちはAIの冬の時代によって精神的にかなりダメージを受けていたという印象を受けました。野心的なアイデアや野心的なビジョンを持つことは非常に禁止されているような感じでした。
それが安全性について話す際の雰囲気だったと想像しています。安全性を気にかけるためには、AIシステムが本当に強力で本当に有用になる可能性があると信じる必要がありますが、野心的であることに対する禁止のようなものがあったと思います。
物理学者は非常に傲慢で、常に本当に野心的なことをしていて、壮大な計画の観点から物事を語るので、そうした利点があります。
ええ、それは間違いなくそうですね。2014年を思い出すと、言えないことがいくつかありましたよね?でも実際には、物理学理論以外のアカデミアに存在する問題の延長線上にあったと思います。様々な理由で、非常にリスク回避的な機関に進化してしまったのです。
AIの産業界の部分も、その考え方を移植または丸ごと持ち込んでいました。その考え方から抜け出すのに長い時間がかかりました。その考え方から抜け出すのに2022年までかかったと思います。
保守的で敬意を払うとはどういう意味かという奇妙な点があります。一つの解釈では、保守的であるとは、自分がしていることのリスクや潜在的な害を本当に真剣に受け止め、それを心配することを意味するかもしれません。
しかし、もう一つの保守主義は「ああ、アイデアを真剣に受け止めすぎたり、それが成功する可能性があると信じることは、ある種の科学的な傲慢さだ」というものです。そして、私たちは二つの異なる種類の保守主義や慎重さがあると思いますが、私たちは後者に強く支配されていた体制にいたと思います。
歴史的にも見られますよね。1939年初期の核物理学に関わっていた人々の間での核爆弾についての議論を見ると、全く同じことが見られます。それは単なる突飛なアイデアのように思えたので、Fermiがそれらのアイデアに抵抗していました。
一方、SzilardやTellerのような人々は、リスクを心配していたのでそのアイデアを真剣に受け止めていました。
ええ。おそらく過去10年間で学んだ最も深い教訓は、そして皆さんも何らかの形で学んだと思いますが、このような一見したコンセンサス、誰もが賢明だと思うようなことがあり得るということです。しかしそれは実際には、成熟さや洗練さを装った群れ行動に過ぎないのです。
そうですね。
そして一晩でコンセンサスが変わり得ることを何度か目にすると – それを疑っていても本当に賭けてはいなかった時に、「ああ、私はこう思っていたけど、私に何が分かるんだろう?」と。「どうして私が正しくて、他の皆が間違っているなんてことがあり得るんだろう?」と。それを何度か目にすると、「いや、これが私たちが賭けるべきものだ」と言い始めます。
確実に正しいとは分からないけれど、他のことは全て無視して、それが起こるのを見守り、そして、たとえ50%の確率でしか正しくなくても、50%正しいということは他の誰も付け加えていないものを付け加えているということですよね。
そうですね。
そして今日、私たちは安全性に関する問題でそのような状況にいると感じます。安全性に関するこれらの多くのことは異常であり、技術から自然には生まれないというコンセンサスがあります。
しかし、Anthropicでは、奇妙な安全性の不整合問題が、私たちが構築している技術の自然な副産物として現れるという研究を全て行っているので、今まさにそのコンセンサスに反する見方をしているように感じます。
でもそれは過去18ヶ月ほどの間に変化してきていると思います。
私たちが変化を促進してきました。
確かに私たちは促進してきました。
その通りです。
論文を発表し、研究を行うことで。
この絶え間ない推進力によって。
はい。
しかし、AIに対する世界の感情も劇的に変化していると思います。ユーザー調査でも、一般のお客様から「AIが世界全体に与える影響について本当に心配している」という声をよく聞くようになりました。
それは時として仕事やバイアス、有害性を意味することもありますが、これは世界を台無しにしてしまうのではないか、人間が一緒に働き、活動する方法を根本的に変えることにどのように貢献するのかということを意味することもあります。実際、私はそれを予測していませんでした。
ああそうですね。しかし何らかの理由で、ML研究分野の人々は、AIが非常に強力になることについて、一般の人々よりも常により悲観的だったように思います。
一般の人々はただ。
奇妙な謙虚さのようなものかもしれませんね。
2023年にDarioと私がホワイトハウスに行った時、その会議でHarrisやRaimondoなどが基本的に、言い換えますが、「私たちはあなた方を注視しています。AIは本当に大きな問題になるので、私たちは今や実際に注意を払っている」と言いました。それは。
彼らは正しいです。
彼らは完全に正しい。完全に正しい。
しかし2018年には「大統領が言語モデルの開発に注意を払うためにホワイトハウスに呼び出すだろう」とは思わなかったでしょう。
それはちょっと狂った状況です。
それは2018年のビンゴカードには載っていませんでした。
興味深いのは、私たち全員がこれに関わり始めた時、何も見えていないように思えた時。
そうですね。
私たちはそれが起こり得ると考えていましたが、原子爆弾に懐疑的だったFermiのようでした。彼は優れた科学者で、それが起こり得るという証拠もいくつかありましたが、起こらないという証拠も多くありました。
そうですね。
そして彼は、もしそれが本当なら大きな問題になるだろうと考えて、取り組む価値があると判断しました。私たち全員にとって、2015年、2016年、2017年は、これが大きな問題になる可能性があるという証拠が、そしてその証拠が増えていく時期でしたが、2016年に全ての指導教官と話をしていたことを覚えています。
ええ、ええ。
私は「スタートアップの経験もあるし、AI安全性を手伝いたいと思っているけど、数学はそれほど得意ではありません。正確にどうやって手伝えばいいか分かりません」と言いました。当時の人々は「意思決定理論に非常に長けている必要がある」と言うか。私は「うーん、それはおそらくうまくいかないだろう」と思いました。
あるいは「何か狂ったAIのようなものが出現するとは思えない」と言うかでした。そのため、「うん、それは良いことをすることになりそうだ」と言ってくれる人は本当に少数でした。
2014年に私がジャーナリストだった時、ImageNetの結果を時系列でグラフ化して記事を書こうとしたら、人々は私が完全に狂っていると思いました。
そして2015年、AIの研究論文が全てGPUの使用に言及し始めたので、NVIDIAについての記事を書かせてくれるようBloombergを説得しようとしましたが、それは完全に狂っているとされました。2016年にジャーナリズムを辞めてAIの世界に入った時、「人生で最悪の過ちを犯している」という電子メールをもらいました。今では時々それを見返していますが、当時はスケーリングが機能するということや、技術のパラダイムが何か違うかもしれないということを真剣に受け止めることは、多くの観点から狂っているように見えました。
あなたは高校時代に彼を信じなかったコーチを持つマイケル・ジョーダンのようですね。
でも実際にはどうやって決断したんですか?迷いがあったのか、それとも明白だったのですか?
私は「フルタイムのAIレポーターになって給料を2倍にしてください」という、彼らがイエスと言わないと分かっているような狂った逆提案をしました。
そして寝て、目が覚めて辞表を出しました。全て割とリラックスした感じでした。
あなたは決断力のある人なんですね。
その時はそうでした。仕事に行って、arXivの論文を読み、論文を印刷して持ち帰って読む、BaiduでのDarioの論文も含めて、「ここで何か完全に狂ったことが起きている」と感じていたからだと思います。
ある時点で、これは機能すると確信を持って賭けるべきだと思いました。ここにいる皆さんは皆、キャリアの中でそうしてきたと思います。これは機能すると確信を持って賭けることです。
私は確かにあなたほど決断力がありませんでした。6ヶ月くらい「本当にやるべきか?スタートアップを試みるべきか?これをやるべきか?」と揺れ動いていました。
でも当時はエンジニアについての話や、エンジニアがAIに与えられる影響についてはあまり話されていなかったと思います。
そうですね、全くそうでした。
今では私たちにとってそれは自然なことに感じますね。私たちは様々な種類のエンジニアを同じように求めていますが、当時は研究者だけがAIに取り組めると考えられていました。
そうですね。
だからあなたが時間をかけて考えていたことは狂っているとは思いません。
ええ、ええ。そしてそれが基本的に私がOpenAIに参加した理由でした。そこの人々にメッセージを送ったら、「実際にエンジニアリングの仕事で」。
そうですね。
「AI安全性のために貢献できると考えている」と。
そうですね。
そのような機会がなかったので、それが私を引き付けた理由でした。
その通り。
あなたは私のOpenAIでのマネージャーでしたね。
そうでしたね。
あなたがしばらくいた後に私が入社したと思います。
少しね。
Brainにしばらくいたので。
ええ。
参加を決めた理由について聞いたことがあるかどうか分かりません。
ええ、私はStripeに約5年半いて、Gregを知っていました。彼は私のStripeでの上司でした。実際、OpenAIを立ち上げる時に、私は彼とDarioを引き合わせました。「私の知る最も賢い人はDarioです。彼を得られたらとても幸運です」と言ったのです。そしてDarioはOpenAIにいて、Stripeから何人かの友人も行っていました。
あなたのように、Stripeの後に何をしたいかを考えていました。非営利や国際開発の仕事の後でより多くのスキルを身につけたくてStripeに行き、実際にはそれに戻るつもりでした。
基本的に、私はいつも「自分より恵まれていない人々を本当に助けたい」と思って働いていましたが、Stripe以前にそれをしていた時はスキルがありませんでした。
そうですね。
そこで公衆衛生に戻ることを考えました。政治に戻ることも非常に短期間考えましたが、他のテック企業や影響力を持つ他の方法も探していました。そしてOpenAIは、当時、とても良い交差点に感じられました。
それは非営利で、この本当に大きな崇高なミッションに取り組んでいました。私はAIの可能性を本当に信じていました。というのも、Darioを少し知っていて、そして彼は。
そして彼らはマネジメントの助けを必要としていました。
それは事実です。そして私にぴったりだと感じました。「ここに非営利があって、本当に良い意図を持った素晴らしい人々がいるけど、少し混乱しているように見える」と。
ええ。そしてそれは私にとってとてもワクワクすることでした。入社して、本当にユーティリティプレイヤーとして、人をマネジメントしながら、いくつかの技術チームも。
スケーリングの組織ですね。
ええ、スケーリングの組織、言語チームで働き、引き継ぎました。
政策にも携わりました。
政策の仕事もしました。Chrisとも働きました。そこにいた従業員たちには本当に多くの良さがあると感じ、会社をもう少し機能的にするのを手伝いたいという強い欲求を感じました。
終わりの頃、GPT-3を作った後、あなたは「トラストアンドセーフティというものを聞いたことがありますか?」と。
ええ、それを覚えています!確かにそうでした。
ええ。私は「Stripeでトラストアンドセーフティチームを運営していました。このような技術には、トラストアンドセーフティというものを考慮する必要があるかもしれません」と言いました。
これは面白いことに、AI安全性研究、つまりモデルを実際に安全にする方法と、もっと実践的なものとの中間的なステップです。これは大きなことになるだろうと考えていました。また、より高いリスクのことに直面する時のために、日々このような実践的な作業を行って筋力を付けておく必要があります。
それは責任あるスケーリングポリシーとそれをどのように考え出したのか、あるいはなぜ考え出したのか、そして今日のモデルでどれだけのトラストアンドセーフティ作業を行っているかについて話すための良い移行点かもしれません。では、RSPは誰のアイデアだったのですか?あなたとPaulですか?
そうですね、私とPaul、Paul Christianoが2022年の終わり頃に最初に話し合いました。
そうですね。
最初は、特定のポイントでスケーリングを制限し、特定の安全性の問題を解決する方法を発見するまで待つべきかという話でした。そして、一つの場所で制限して解除するのは奇妙だと考え、複数の閾値を設け、各閾値でモデルの能力をテストし、安全性とセキュリティの対策を増やしていく必要があると考えました。
しかし最初は、これを第三者が行う方が良いだろうと考えました。私たちがそれを行うべきではないと。一つの企業からでは、他の企業が採用する可能性が低くなるからです。そこでPaulが設計に取り掛かり、多くの特徴が変更され、私たちは自分たちの側でどのように機能させるべきかを検討していました。
そしてPaulがコンセプトをまとめた後、すぐに彼が発表してから1、2ヶ月以内に私たちも発表しました。私たちの多くが深く関わっていました。私自身少なくとも一つの草案を書いたことを覚えています。しかしいくつもの草案がありました。
たくさんの草案がありました。
どの文書よりも多くの草案を重ねたと思います。
それは理にかなっていますね。アメリカが憲法を扱うように、神聖な文書として扱っているようなものです。
そうですね。
それは米国を強化する大きな要因だと思います。
ええ。
そして米国が暴走するとは考えられません。それは部分的に、米国の全ての人々が「憲法は大きな問題で、もしそれを侵すなら」と。
ええ。
「私は怒る」と。
ええ、ええ。
RSPは私たちの、それを保持するものです。それはAnthropicにとって神聖な文書です。だから多くの改訂を重ねて正しいものにする価値があります。
Anthropicでのこの RSP の発展で特に素晴らしいと感じているのは、様々な段階を経て、それを機能させるのに必要な多くの異なるスキルがあることです。DarioやPaul、Sam、Jaredなど多くの人が考える大きなアイデアがあります。「原則は何か?何を言いたいのか?正しいと分かるのはどうしてか?」といったことです。
しかし実践的なアプローチもあり、「この安全レベルでこれを見ると思っていたのに、そうではなかった。自分たちに説明責任を持たせるために変更すべきか?」といった具合に繰り返し改善を重ねています。そして組織的なことも多くあります。「RSP組織の構造をより明確な説明責任のために変更しよう」といった具合です。
このように重要な文書には、憲法の比喩が良いと思いますが、米国では憲法に従うことを確実にするための多くの機関やシステムがあります。裁判所、最高裁判所、大統領、上下両院の議会があり、もちろん他のことも行いますが、この一つの文書の周りにはこれだけの基盤があり、私たちもここでその教訓を学んでいると感じています。
私たちの多くが持っている安全性に対する考え方を反映していると思います。それは解決可能な問題だということです。
そうですね。
非常に、非常に困難な問題で、大量の作業が必要になるということです。
そうですね。
ええ。
私たちが構築する必要のある、これら全ての機関について。自動車の安全性の周りには、長年かけて構築された様々な機関があります。しかし私たちは「その時間はあるのだろうか?AI安全性に必要な機関が何なのかを可能な限り早く理解し、それらを構築し、ここで最初に構築しようとしなければならないが、輸出可能なものにする必要がある」と考えています。
その通り。
また、一体感も生み出します。なぜなら組織のどの部分でも安全性の価値観に沿っていない場合、RSPを通じて現れるからです。RSPは彼らがやりたいことを阻止することになり、そのため基本的に、安全性を製品要件の一部、製品計画プロセスの一部とすることを全員に繰り返し思い出させる方法となります。
そして、それは私たちが繰り返す単なる陳腐な言葉ではありません。ここに来て同調しない人がいれば、実際にそれにぶつかることになります。
ええ。
そしてプログラムに従うことを学ぶか、うまくいかないかのどちらかです。
ええ。
RSPは時間とともに面白いものになってきました。私たちは何千時間もの作業を費やし、そして上院議員と話をして RSPについて説明すると、「我々が作ったものを盗むのを難しくするものがあり、また安全であることも意味します」と言うと、彼らは「はい、それは完全に普通のことですね。皆がこれをやっていないと言うんですか?」と言います。「ああ、なるほど、そうですね」と。
それは半分本当です。全員がこれをやっているわけではありません。
しかし、私たちがここでそれに多大な努力を費やしているのに、要約すると彼らは「はい、それは普通のやり方に聞こえます」と言うのは驚くべきことです。
ええ、それは良いことに聞こえます。
それが目標でした。Danielaが言っていたように、「これを退屈で普通のものにしましょう。これを財務のようなものにしましょう」と。
ええ、監査のようなものだと想像してください。
ええ、ええ。
そうですね。退屈で普通というのが、確かに振り返ってみると私たちが望むことです。
ええ。また、Darioさん、調整だけでなく、明確さも高めていると思います。
そうですね。
なぜなら、私たちが何をしようとしているのかが書き留められており、会社の全員に分かりやすく、安全性の観点から何を目指すべきかが外部にも分かりやすいからです。完璧ではありません。改善を重ね、より良いものにしていますが、「ここのこれが心配だ」と言えることには価値があると思います。
どちらの方向でも、この言葉を使って何かを妨げることはできません。「安全性のため、Xができない」とか「安全性のため、Xをしなければならない」とか。私たちは本当に何を意味しているのかをより明確にしようとしています。
ええ、太陽の下の全ての小さなことについて心配するのを防ぎます。
その通り。
なぜなら実際には、長期的に安全性の大義を損なうのは、防火訓練なのです。
そうですね。
私は「ビルがあって、毎週火災警報が鳴るとしたら、それは本当に安全でないビルだ」と言ってきました。
そうですね。
なぜなら、実際に火事が起きた時は、ただ「ああ、いつも鳴っているだけだ」と思うでしょう。なので。
誰も気にしなくなります。
適切に調整されていることが非常に重要です。
ええ。
その通り。
ええ。少し異なる観点ですが、私が分かりやすいと思うのは、RSPが多くのレベルで健全なインセンティブを生み出すということです。
そうですね。
内部的には、安全性の進展がなければ阻止されることになるため、全てのチームのインセンティブを安全性に合わせることになると思います。
また、外部的にも他の可能性よりもより健全なインセンティブを生み出すと思います。なぜなら、もし私たちが何らかの劇的な行動を取らなければならない場合、例えばある時点で「私たちのモデルが、まだ安全なモデルを作ることができない地点に達した」と言わなければならない場合、その決定を支持する証拠があり、それについて考えるための既存の枠組みがあり、理解可能だということを意味するからです。
そのため、RSPには多くのレベルがあり、初期のバージョンを議論していた時には私が理解していなかった方法で、私が考えた他のどの枠組みよりも良い枠組みを作り出していると思います。
これは全て正しいと思いますが、どのような政策や評価が適切で、どこに線を引くべきかを理解するのがいかに困難だったかを過小評価しているように感じます。
私たちはそれについて多くの改善を重ねてきましたし、今も続けています。また、何かが危険であることが非常に明確な場合や、何かが安全であることが非常に明確な場合もありますが、このような新しい技術では、実際には大きなグレーゾーンがあるという難しい問題もあります。
そのため、これらの全ての要素は、初めにRSPについて本当に、本当にワクワクさせた要素であり、今でもそうですが、これを明確な方法で実施し、機能させることは私が予想していたよりもずっと困難で複雑でした。
ええ、これがまさにポイントです。
そうですね。
グレーゾーンは予測不可能です。たくさんあります。全てを実際に実装してみるまで、何が問題になるか分かりません。そのため、私たちが試みているのは、全てを実装して、可能な限り早く何が問題になるか確認することです。
ええ、やらなければ。
ええ。
3、4回試行を重ねる必要があります。
ええ。
本当に正しくできるようになるまで。繰り返しは非常に強力で、最初から正しくできるわけではありません。そのため、リスクが高まっていく場合、早い段階で繰り返しを行いたい。後の段階で行いたくはありません。
また、内部の機関やプロセスも構築しています。具体的な内容は大きく変わるかもしれませんが、それを実行する筋力を構築することが本当に価値のあることです。
私はAnthropicの計算に責任を持っていて、そのため。
それは重要ですね。
そう思います。そのため、外部の人々と付き合わなければならず、異なる外部の人々は、物事がどれくらい早く進むと考えているかについて、異なるスペクトルにいます。
そうですね。
そして、私自身も物事がそれほど早く進まないと考えていたところから、時間とともに変化してきました。そのため、その点について理解はできます。そしてRSPは、物事がもっと時間がかかると考える人々とコミュニケーションを取る上で非常に有用でした。なぜなら、物事が本当に激しくなるまで極端な安全対策を取る必要はなく、彼らは「物事が長い間激しくならないと思う」と言うかもしれません。
そして私は「そうですね、極端な安全対策を取る必要はありません」と言えます。そのため、外部の人々とのコミュニケーションがずっと簡単になります。
ええ、ええ、本当に奇妙なことではなく、普通に話せることになりますね。
ええ。
他にはどのように現れていますか?あなたは。
評価、評価、評価です。
よし。
全て評価についてです。全員が評価を行っています。あなたのトレーニングチームは常に評価を行っています。このモデルが危険になる可能性があるほど十分に良くなったかどうかを理解しようとしています。評価チームは何チームありますか?フロンティアレッドチームがあります。
多くの人々が。
基本的に全てのチームが評価を生み出しています。
そしてそれはRSPに対して測定しているということです。心配すべきことや心配すべきでないことの特定の兆候を測定しているのです。
その通りです。モデルの能力の下限を知ることは簡単ですが、上限を知ることは難しいので、「このモデルはこの危険なことができるかどうか?おそらく私たちが考えていなかった何らかのトリック、思考の連鎖や最善のイベント、あるいは何か非常に危険なことを手助けできるようなツールの使用があるかもしれない」と言って、大量の研究努力を注いでいます。
政策において非常に有用でした。なぜなら安全性は非常に抽象的な概念でしたが、「モデルを展開するかどうかを決める評価があります」と言うと、政策立案者や国家安全保障の専門家、あるいは私たちが評価を構築するのを助けてくれるCBRNの専門家らと調整することができます。
それは反事実的に起こらなかったはずですが、具体的なものができると、人々はそれを正確にすることに、より意欲的になります。そのため、それは有用でした。あなたにとってはどのように現れましたか?
RSPは確かに私にとってよく現れます。しばしば。実は奇妙なことに、私がRSPについて最も考えるのは、それがどのように聞こえるかということです。
そうですか?
RSPのトーンについて大きな書き換えを行ったばかりです。技術官僚的すぎて、少し敵対的にさえ感じられたからです。私は「人々が参加したいと思うシステムをどうやって構築するか?」について多くの時間を費やして考えています。
そうですね。
今のOKRのように、会社の全員がRSPについて話せるようになる方がずっと良いのです。
ええ。
RSPの主な目標は何か?目標を達成しているかどうかをどうやって知るのか?今のAI安全性レベルはどの程度か?ASL-2なのかASL-3なのか?人々が何を探すべきかを知っています。なぜならそれが、何かが間違っているかどうかについての良い共通認識を持つ方法だからです。もし技術官僚的すぎて、会社の特定の人々だけがアクセスできると感じるものであれば、それはあまり生産的ではありません。そして、会社の全員がそうでなくても、その役割に関係なく読んで「これは本当に合理的だ。私はAIを以下の方法で構築することを確実にしたい。これらのことを心配する理由が分かる。また、何かに遭遇した時に何を探すべきか大体分かる」と言えるような文書に移行するのを見るのは本当に素晴らしいことです。
製造工場で働いていて「ふむ、この安全ベルトはこのように接続するはずだけど、接続されていない」と気付くことができるくらい簡単にすることです。
そうですね。そして、リーダーシップと取締役会、そして会社の残りの部分、実際にそれを構築している人々の間で健全なフィードバックの流れがあります。なぜなら実際、ほとんどの場合、このような問題が起きる原因は、配線が接続されていないか、交差してしまうかのようなことだと思うからです。それは本当に残念な形で物事が間違ってしまう方法でしょう。全てはそれを運用可能にし、人々が理解しやすくすることについてです。
ええ、私が言いたいのは、私たち誰も会社を設立したいとは思っていませんでした。ただ、それが私たちの義務だと感じたのです。
それをしなければならないと感じました。
AIをより良い方向に進めるためには、これが私たちのやり方だと。それが誓約をした理由でもあります。
ええ。
なぜなら私たちは、これをすることが私たちの義務だと感じているからです。
私は何らかの有益な方法で発明や発見をしたいと思っていました。それがAIに取り組むきっかけとなり、AIには多くのエンジニアリングが必要で、最終的にはAIには多くの資本が必要になりました。しかし、環境を設定する方法で、会社を設立する方法でこれを行わなければ、多くのことが行われ、私がテクノロジー・コミュニティについて非常に疎外感を感じた同じ過ちを繰り返すことになることに気付きました。
同じ人々、同じ態度、同じパターンマッチングです。そしてある時点で、異なる方法でそれを行う必要があることは避けられないように思えました。
大学院にいた時、あなたが科学を公共の利益のために進める方法を見つけようとする、ある種のプログラムを持っていたのを覚えています。
そして私たちはそれと同じような考え方をしていると思います。確かVannevarプロジェクトというものを持っていましたよね。私は教授でした。基本的に状況を見て、AIは影響力の点で非常に、非常に、非常に急な軌道にあると確信し、資本の必要性のため、物理学の教授としてそれを続けることはできないと感じ、AIをうまく進めるための機関を構築するために信頼できる人々と働きたいと思いました。
しかし、会社を設立することは決して勧めません。あるいは本当にそれをしたいとも思いません。つまり、それは手段に過ぎないと思います。でも、通常はそれがうまくいく方法だと思います。何かを単に自分を豊かにしたり、力を得たりするためにしているのではなく、実際に世界で本当の目標を達成することを気にかける必要があり、そしてそのために必要な手段を見つけなければなりません。
私がよく考える戦略的な利点の一つは、言うのは本当に面白いことですが、このテーブルにどれだけの信頼があるかということです。
そうですね。
そして、私は決して、Tom、あなたは他のスタートアップにいましたが、私は以前創業者だったことはありませんが、本当に多くの人々、大きなグループの人々に同じミッションを持ってもらうのは本当に難しいことです。
そうですね。そして仕事に来た時に、そしておそらくAnthropicで最も誇りに思うことは、それが多くの人々にどれほどうまくスケールしたかということです。このグループとリーダーシップの残りの部分で、全員がミッションのためにここにいて、私たちのミッションは本当に明確だと感じます。
ええ。
そして非常に純粋です。そして、Darioが指摘したように、それはテック業界ではあまり見られないものだと思います。私たちがしようとしていることには、ある種の健全さがあります。いいえ、同意します。私たちの誰も「さあ、会社を設立しよう!」とは思いませんでした。それをしなければならないと感じました。それは、私たちがしていたことを、していた場所で続けることができないと感じたのです。
自分たちでやらなければなりませんでした。
そしてGPT-3で、私たち全員が触れたり、作業したりしていたもの、そしてスケーリング則や他の全てのことで、2020年にはそれが目の前に見えていました。そして、もし全員で一緒に何かをすぐにしなければ、もう後戻りできない地点に達してしまうと感じました。
そして環境を変える能力を持つために何かをしなければなりません。
そうですね。
Danielaの話を踏まえると、この集団には本当に多くの信頼があると思います。
そうですね。
私たち一人一人が世界を助けたいと思ってここに参加したことを、お互いに知っています。
ええ。
私たちは80%の誓約をし、それは全員が「はい、明らかにそれをしよう」と思ったことでした。
そうですね。
ええ、ええ。
そして、信頼というこの特別なものは極めて稀なものだと思います。
ええ。
私はDanielaに高い基準を保ってくれていることに感謝しています。あなたに感謝しているのは。
道化師を排除すること。道化師を排除すること。
主任道化師係!それが私の仕事です。
いいえ、でもあなたは文化がスケールした理由だと思います。
ええ。人々はここの人々がどれだけ親切かと言います。
ええ。
これは実際には非常に重要なことです。
私はAnthropicは政治的な駆け引きが本当に少ないと思います。もちろん、私たち全員が平均とは異なる視点を持っていることを忘れないようにしていますが。
でも自我が低いからです。そして私たちの面接プロセスと、ここで働く人々のタイプには、政治的な駆け引きに対するある種のアレルギー反応があると思います。
そして一体感。
そうですね。
一体感は非常に重要です。製品チーム、研究チーム。
ええ。
トラストアンドセーフティチーム、市場開拓チーム、政策チーム。
ええ。
安全性の担当者たち、彼ら全員が会社の同じ目標、同じミッションに貢献しようとしているという考えです。
ええ。
会社の異なる部分が異なることを達成しようとしていたり。
ええ。
会社が異なることについてのものだと考えたり、会社の他の部分が自分たちのしていることを妨害しようとしていると考えたりするのは機能不全です。
ええ。
そして私たちが維持することができた最も重要なことは、そしてまた、RSPのようなものがそれを促進しますが、それは会社の一部が被害を与え、他の部分がそれを修復しようとしているのではなく、会社の異なる部分が異なる機能を果たし、それらが全て単一の変革理論の下で機能しているという考えです。
極端な実用主義ですね。
ええ。
私がそもそもOpenAIに行った理由、それは非営利で、安全性に焦点を当てることができる場所でしたが、時間とともに、おそらくそれはあまり良い適合ではなくなり、いくつかの困難な決断がありました。
そして多くの面で、私は本当にDarioとDanielaを信頼していましたが、離れたくはありませんでした。それは私が実際にかなり躊躇していたことだと思います。なぜなら一つには、より多くのAIラボを持つことが世界にとって良いことだとは分かりませんでした。そして私はそれについてかなり、かなり躊躇していました。
そして、私たちが離れた時も、私は、会社を始めることに躊躇していました。代わりに非営利を設立し、安全性研究に焦点を当てるべきだと長い間主張していたと思います。
ええ。
そして実用主義と制約に向き合い、そのミッションを達成するために制約が意味することについて正直であることが本当に必要でした。
そうですね。それがAnthropicにつながりました。
私たちが早い段階で上手くやってきた本当に重要な教訓は、約束は少なく、より多くを守るということです。
ええ。
調整を行い、現実的であり、トレードオフに向き合うことです。なぜなら、信頼と信用性は、特定の政策よりも重要だからです。
ええ。
私たちが持っているものは非常に珍しく、Mike Kriegerが安全性の問題について、なぜまだ製品をリリースすべきでないかという理由を擁護するのを見たり、そしてVinayが「ビジネスのために正しいことをしなければならない。これをどうやってゴールまで持っていくか」と言うのを聞くのは。
そうですね。
そして技術的安全性部門の深いところにいる人々が、実用的な人々のためのものを構築することも重要だと話すのを聞き、推論のエンジニアたちが安全性について話すのを聞くのは。それは驚くべきことです。繰り返しになりますが、ここで働くことの最も特別なことの一つは、その一体感を持って全員が実用主義、安全性、ビジネスを優先していることです。
それは驚くべきことです。
最も安全な動きは。
私はそれを。
ええ。
トレードオフを会社のリーダーシップから全員に広げることだと考えています。
ええ。
機能不全の世界では、安全性は「常にこれをしなければならない」、製品は「常にこれをしなければならない」、研究は「これが私たちが気にかける唯一のことだ」というように、一つのことしか見ない人々の集まりがあります。
そして最後にはトップで行き詰まります。
ええ。
トップで行き詰まり、どちらの情報も十分には持っていない状態で決定を下さなければなりません。それが機能不全の世界です。機能的な世界は、全員に「私たち全員が一緒に直面しているこれらのトレードオフがある」と伝えることができる時です。
ええ。
世界は完璧からはほど遠い場所です。トレードオフがあります。あなたがすることの全ては最適ではありません。あなたがすることの全ては、思ったほどうまくいかない両方の世界の最善を得ようとする試みであり、全員がそれらのトレードオフに一緒に向き合うことについて同じ考えを持っており、ただ特定のポストから、それらのトレードオフに向き合っているように感じています。
そうですね。
全体的な仕事の一部として、全てのトレードオフに向き合う仕事の一部として。
それは上を目指す競争への賭けですね。
それは上を目指す競争への賭けです、ええ。
純粋な上向きの賭けではありません。物事は間違う可能性がありますが。
ええ。
私たち全員が「これが私たちがしている賭けだ」と同意しています。
そして市場は実用的なので、Anthropicが会社として成功すればするほど、私たちを成功させるものをコピーするインセンティブが生まれます。そして成功が実際の安全性の取り組みに結びついているほど、業界全体を引っ張る重力のような力を生み出し、業界の残りの部分を競争させることになります。
そして「そうですね、私たちはシートベルトを作り、他の全ての人がそれをコピーできます」というのは良いことです。ええ。
それは良い世界ですね。
それは本当に良いことです。
ええ。これが上を目指す競争です。でも「まあ、私たちは技術を構築しません、他の誰かよりも良いものを作ることはしません」と言えば、それは結局うまくいかません。なぜならここからそこへ至る道筋が可能だということを証明していないからです。
そうですね。
世界が必要とするのは、業界はさておき、一つの会社はさておき、この技術が存在しない状態から、技術が非常に強力な方法で存在し、社会が実際にそれを管理している状態まで、うまく私たちを導くことです。そして私は、それが起こる唯一の方法は、単一の会社のレベルで、そして最終的には業界のレベルで、実際にそれらのトレードオフに向き合うことだと思います。
実際に競争力を持ち、場合によっては業界をリードしながら、安全に物事を行う方法を見つけなければなりません。そしてそれができれば、重力のような引力は非常に大きくなります。規制環境から、異なる場所で働きたいと思う人々の種類、時には顧客の見方まで、多くの要因があります。
ええ。
競争力を犠牲にすることなく安全性でうまくいくことができることを示すことができれば、このような win-win を見つけることができれば、他の人々もそれと同じことをするインセンティブを持つことになります。
ええ、私はそれがRSPのようなものを正しく行うことが非常に重要な理由だと思います。なぜなら、私たち自身、技術がどこに向かっているのかを見て、しばしば「ああ、この点については本当に注意深くなければならない」と考えてきましたが、同時に「ここでイノベーションを止めなければならない」と言って狼少年にならないように、さらに注意を払わなければなりません。
私たちは、顧客にとって有用で、革新的で、素晴らしいAIを作る方法を見つけながら、同時にシステムを安全にするために本当に必要な制約が何なのかを理解し、それを支持できるようにする必要があります。そうすれば他の人々も、彼らもそれができると考え、彼らも成功でき、私たちと競争できると考えることが可能になります。
私たちは悲観主義者ではありません。私たちは良いものを作りたいのです。
ええ。
私たちは良いものを構築したいのです。
そして私たちはそれが実際に起こるのを見てきました。私たちがRSPを発表してから数ヶ月後、最も著名な3つのAI企業が同様のものを持っていました。解釈可能性の研究、それは私たちが行った別の分野です。
安全性への全体的な焦点、AI安全性研究所との協力など、他の分野もあります。
ええ、フロンティアレッドチームはほぼ即座にコピーされました。これは良いことです。全てのラボが非常に、非常にセキュリティが怖いリスクをテストすることを望んでいます。
シートベルトを輸出してください。
ええ、その通り。
シートベルトを輸出しましょう。
Jackも先ほど言及しましたが、顧客も安全性を本当に気にかけています。顧客は幻覚を見るモデルを望んでいません。ジェイルブレイクが簡単なモデルを望んでいません。役立つ無害なモデルを望んでいます。
ええ。
そして多くの場合、顧客との通話で聞くのは「より安全だと分かっているのでClaudeを選んでいる」ということです。
私はそれも市場への大きな影響だと思います。なぜなら、信頼できる信頼性の高いモデルを持つ能力は、競合他社に対する市場圧力にも影響を与えるからです。
おそらくDarioが言ったことをもう少し掘り下げると、高潔に失敗するのが美徳であるという考えやアイデアがあると思います。安全性を優先し、物事を非実用的な方法で行い、大義への純粋さを示すべきだというような考えです。
そしてそれをすれば、実際には非常に自滅的です。一つには、決定を下す人々が、気にかけない人々、安全性を優先せず、それを気にかけない人々によって選ばれることを意味します。
一方で、インセンティブを整合させ、困難な決定がある場合、正しい困難な決定を支持する最も大きな力があり、最も多くの証拠がある時点でそれが起こるようにする方法を本当に一生懸命探そうとすれば、Darioが説明しているような上を目指す競争を引き起こすことができます。気にかける人々が影響力から排除される代わりに、他の人々を引っ張って従わせることができます。
では、次に取り組むことについて、皆さんは何に期待していますか?
まあ、解釈可能性に期待できる理由がいくつかあると思います。一つは明らかに安全性ですが、もう一つは、私にとって感情的なレベルで同じくらい、あるいは同じくらい意味のあることがあります。それはニューラルネットワークは美しく、私たちが見ていない多くの美しさがそこにあると思うということです。
私たちはそれらを、内部の物事にあまり興味を持たない単なるブラックボックスとして扱っていますが、その中を見始めると、驚くべき美しい構造で満ちています。人々が生物学を見て「進化は本当に退屈だ」と言うようなものです。
それは長い時間実行される単純なもので、そして動物を作り出す」というようなものですが、代わりに実際には、進化が生み出すそれぞれの動物は、そして私は、これはニューラルネットワークを訓練するような最適化プロセスだと思います。それらは信じられないほどの複雑さと構造に満ちており、私たちはニューラルネットワークの中に完全に人工的な生物学を持っています。
もし中を見ようとすれば、そこには驚くべきものがたくさんあります。そして私たちはそれをゆっくりと解き明かし始めているところで、それは信じられないほどで、そこにはとても多くのものがありますが、私たちはそこで発見したものの表面をほんの少し掻いているだけです。私たちはそれを開き始めたところで、それは驚くべきで美しいものになると思います。
そして時々、10年後に本屋に入って、ニューラルネットワークの解釈可能性についての教科書、あるいは本当に、ニューラルネットワークの生物学についての教科書を買い、その中に入っている種類の野生のものを想像します。そして私は、次の10年間で、次の数年でさえ、私たちはそれらの全てのものを本当に発見し始めることになると思います。
そしてそれは野生で信じられないものになるでしょう。
また、自分の教科書を買えることも素晴らしいでしょう。
あなたの顔が表紙に載っているんですね。
まあ、ええ。
数年前に「政府がAIシステムをテストし評価する新しい機関を設立し、それらが実際に有能で良いものになるだろう」と言ったら、そうなるとは思わなかったでしょう。
しかしそれは起こり、政府はある種の、この新しい種類の技術、あるいはChrisが研究しているようなものに対処するための新しい大使館のようなものを構築しました。そして私はそれがどこに向かうのかを見るのがとても楽しみです。それは実際に、この種の社会的移行に対処する国家の能力があることを意味するので、それは単なる企業だけではありません。
そしてそれを手伝うのが楽しみです。
私はすでに今日、ある程度これについて興奮していますが、AIが人々のために何ができるようになるかという将来の世界を想像すると、それについて興奮しないことは不可能です。Darioはこれについてよく話しますが、Claudeがワクチン開発や癌研究、生物学研究を手助けできるという兆しを見るだけでも驚くべきことです。今できることを見るだけでも、3年後や5年後を想像すると、Claudeが私たち人間が直面している多くの根本的な問題を実際に解決できるかもしれないと。
健康の観点からだけでも、他の全てを除外しても、私にとってはとてもワクワクすることです。国際開発時代を振り返ると、25歳の時に私がずっと効果的でない方法でしようとしていた多くの仕事を、Claudeが手助けできることになれば素晴らしいと思います。
まあ、私は同様に、仕事のためのClaudeを構築することが楽しみです。Claudeを会社に、そして世界中の企業に組み込むことが楽しみです。
私は個人的に、仕事でClaudeを使うのが好きで、最近は家でもClaudeとチャットする時間が増えています。最近の最大の変化はコードです。
そうですね。
6ヶ月前は、私はコーディング作業にClaudeを全く使っていませんでした。私たちのチームもClaudeをそれほどコーディングに使っていませんでしたが、今は段階が違います。先週、YCUで講演をした時、最初に「では、今コーディングにClaudeを使っている人は何人いますか?」と聞いたら、文字通り95%の。
すごい。
すごい。
会場の全ての手が挙がりました。これは4ヶ月前とは全く違います。
そうですね。
ええ。
私が期待していることについて考える時、先ほど言ったように、再び全員が賢明だと考えているように見えるコンセンサスがあり、そしてそれが壊れる場所、そして私がそれが起ころうとしていて、まだ起こっていない場所だと思う場所について考えます。
その一つは解釈可能性です。私は解釈可能性がAIシステムを操縦し安全にする鍵であり、私たちはまさにそれを理解しようとしていて、解釈可能性には知的な最適化問題と人間の脳の働きについての洞察が含まれていると考えています。私は本気で、冗談ではなく、Chris Olahは将来のノーベル医学賞受賞者になると言っています。
ああ、ええ。
本気です。本気です。なぜなら、私は以前神経科学者でしたが、これらの精神疾患の多く、私たちがまだ解明していないもの、統合失調症や気分障害などは、何か高次のシステムの問題が起きていると私は疑っていて、脳は柔らかくて開いて相互作用するのが難しいため、脳でそれらを理解するのは難しいのです。
ニューラルネットはそうではありません。完璧なアナロジーではありませんが、時間が経つにつれてより良いアナロジーになるでしょう。これが一つの分野です。二つ目は、それに関連して、生物学へのAIの使用だと思います。生物学は信じられないほど困難な問題です。人々は様々な理由で懐疑的であり続けています。
そのコンセンサスは崩れ始めています。AlphaFoldで化学のノーベル賞が授与されたのを見ました。素晴らしい成果です。私たちは100個のAlphaFoldを作るのを助けるものを構築しようとするべきです。そして最後に、民主主義を強化するためにAIを使用することです。私たちは間違った方法で構築された場合、AIが権威主義のための道具になり得ることを心配しています。
AIをどのように自由と自己決定のための道具にできるでしょうか?私はこれが他の二つよりも初期段階だと思いますが、同じくらい重要になるでしょう。
ええ、私が先ほど言ったことに関連する二つのことがあります。一つは、人々がAIに科学的に非常に好奇心を持っているためにAnthropicに加わり、そしてAIの進歩によって、技術を前進させるだけでなく、それをより深く理解し、それが安全であることを確実にする必要性についてのビジョンを共有するようになると感じることが多いということです。
そして、あなたが一緒に働いている人々が、AIの開発がどのようなものであるべきか、そしてそれに関連する責任感について、ますます統一されたビジョンを持つようになることは本当にワクワクすることです。そして私は、それが過去1年間に起こった多くの進歩のおかげで、Tomが話したようなことで、多く起こっていると感じています。
もう一つは、本当に具体的な問題に戻りますが、私たちはこれまでAI安全性について多くの作業を行ってきました。その多くは本当に重要ですが、私たちは今、最近の発展により、非常に非常に高度なシステムからどのようなリスクが実際に生じる可能性があるかについて、本当にわずかな手がかりを得ています。
そうですね。
そのため、解釈可能性や他の種類の安全メカニズムで直接調査し研究し、非常に高度なAIからのリスクがどのようなものになる可能性があるのかを本当に理解することができます。そして私は、それが本当に深く科学的で実証的な方法でミッションをさらに進めることを可能にする何かだと思います。
そのため、高度なシステムで何が間違う可能性があるかについての理解を、それを特徴付け、それらの落とし穴を避ける方法を見つけるために、どのように使用するかについての次の6ヶ月が楽しみです。
完璧です。終わり!
やった!
やりました!
うわー!
良い時間でしたね。
そうですね。もっとこれをしなければいけませんね。
コメント