
私たちは、この技術が全ての人々の利益になることを保証するというミッションを持っています。これは、シリコンバレーにいる1000人の会社の私たちだけでは実現できないことです。実際に、多くの国で選挙が行われようとしています。AIが選挙に与える潜在的な影響についてどのように考えていますか。懸念は多くありますが、同時にポジティブな側面もあると思います。この分野についてどのようにお考えですか。
これが、私が生成AIという言葉を本当に嫌う理由です。なぜなら… あなたは間違った会社にいるのかもしれませんね。この言葉は、人々にこのツールが何かを書けることに注目させてしまうと思います。正直なところ、この技術の最も驚くべき力は、情報を読み取り、処理し、要約し、分析し、比較する能力にあります。
この点について考えるとき、いつも湧いてくる疑問は、すべての国がAIで勝利するにはどうすればよいか、ということです。一部の国が勝利し、それによって他のすべての国が負けるのではなく、どうすれば同時に勝利できるでしょうか。特に、グローバルサウスについて、今後の道筋をどのように考えていますか。
こんにちは、アレクサンダーです。AIへようこそ。AIは単なる技術ではありません。私たちの周りの世界に影響を与えるものです。その結果、ここでの主要なステークホルダーの1つは社会、特に社会を代表する政府となります。したがって、ここで浮上する問題は、政府がこの技術をどのように規制するか、また、どのように利用し、AIエコシステム全体とどのように相互作用するかということです。これは米国政府だけの問題ではなく、国家安全保障や地政学に関する緊急の問題が浮上する中、世界中の国々にとっての問題です。
これが、今日アンナ・マンドラをお迎えできて非常に嬉しい理由です。アンナはOpenAIのグローバル担当副社長で、政府関係者や政策問題に関するOpenAIの関与を監督しています。彼女はこの役割に非常に適任です。他にも多くのことがありますが、米国政府、国連、NATO、そしてFacebookで国家安全保障や外交政策の役割を務めてきました。そして今、彼女はOpenAIの一種の大使として、世界がAIを理解し、それがどのようにポジティブな未来につながる可能性があるかを理解するのを助けるユニークな立場にいます。アンナ、お越しいただき光栄です。
お招きいただきありがとうございます。
はい、あなたはグローバル担当副社長ですね。これは、OpenAIと世界の残りの部分とのすべての相互作用を監督していると推測します。それが私の推測ですが、実際のところ、あなたの仕事は何ですか。この仕事について教えてください。
これは独特のチームです。通常、テクノロジー企業では、政府との関係を担当する人の仕事は、展開しようとしている製品に有利なようにすべての規制を設定することだけです。しかし、OpenAIは全人類に利益をもたらすというミッションを持っているため、技術が実際に最も有益な影響を与えるようにするために、政府とどのように協力するか、そしてそれを実現するために必要な政策インフラは何かを本当に考えなければなりません。
分かりました。あなたは2021年にOpenAIに入社しましたね。それは非常に異なる時代でした。最初の頃、あなたの仕事はどのようなものでしたか。ChatGPTのリリースでどのように変わり、そして今どのように進化していますか。
正直なところ、私がOpenAIに入社したのは、部分的にはこの移行が起こると信じていたからです。2021年には、OpenAIはシリコンバレーではかなり有名でしたが、政府のほとんどの人々にとってはまだ比較的知られていない存在でした。私は基本的に、危機になる前に、できるだけ早くこれらのものの影響について考え始めるよう政府に働きかけたかったのです。彼らに計画を立てる時間を与えるために。しかし、政府では1日は24時間しかなく、人々は戦争や当時はまだコロナ、そして潜在的に大きな経済危機になる可能性のあるものに対処しているので、人々の注目を集めるのは非常に難しかったです。
実際の例を1つ挙げますと、ChatGPTがリリースされる約2ヶ月前、私は大学のリーダーたちを集めて、「GPT-4という形で何が来るかの早期プレビューをお見せします。これらのツールが高等教育に潜在的に変革をもたらす可能性があることを示すためです。これについて本当に考え始め、話し合う必要があります」と言いました。人々は来て、ある程度聞いて、「はい、面白いですね」と言いましたが、その後他のことに移っていきました。そしてChatGPTがリリースされ、それ以来、私の受信トレイのメールに対応できたことはありません。
はい、MITはそれらの大学の1つではなかったかもしれませんね。でも、答えないでください。さて、あなたがすでに言ったことで、通常、この仕事は本当に会社のための規制を確実にするだけですが、OpenAIではそうではありません。OpenAIは本当に政策立案者と関わりたいと考えています。特に、なぜそうなのか、もう少し詳しく説明していただけますか。
私たちには、この技術が全ての人々の利益になることを保証するというミッションがあります。これは、シリコンバレーにいる現在1000人の会社の私たちだけでは実現できないことです。政府は最大のサービス提供者の1つであり、それは劇的に加速できる分野の1つだと思います。そこで、人々に対する実際の利益を見ることができます。また、この技術を可能にする政策インフラがなければ、私たちのミッションを達成することはできないと思います。ここで言う政策インフラとは、単に規制だけではありません。政府が市民を支援するあらゆる方法について考えることを意味します。規制も含まれますが、政府とのパートナーシップがなければ、私たちのミッションを達成することはできないと思います。
実際、そのミッションは何か教えていただけますか。私は知っていますが、リスナーの方々にも知っていただきたいと思います。
ミッションは、人工知能が全人類の利益になることを保証することです。
素晴らしい。さて、あなたは規制を超えた政策インフラについて言及しましたね。規制ではなく、政策面で、このミッションを達成するために必要なものの例を挙げていただけますか。
まず、政府は技術を使用する必要があります。これにはいくつかの理由があります。現時点で、フォーチュン500企業の96%が私たちのツールを使用していると信じています。それは素晴らしいことですが、それでもまだ人口の特定のセグメントしか恩恵を受けていないことを意味します。政府は、多くの国で家族を養う手段がない人々をリソースと結びつけるのを助けたり、農家が土地のどこに植えるかを特定するのを助けたり、これらのツールで大幅に拡大・加速できるあらゆる種類のサービスを提供したりします。したがって、政府は市民を支援するためにこれらを使用しなければなりません。
また、この移行が私たちの多くが思っているほど速く進む場合、確実に実施する必要がある多くの政策があると思います。例えば、シンガポール政府は最近、40歳以上の人々に別の学位を取得するための費用を支払うと発表しました。これは、20年前に大学の学位を取得した場合、あなたのスキルは非常に時代遅れになっている可能性があるという理解があるからです。誰が最初に言ったのか覚えていませんが、私はこの技術をすべての仕事を置き換えるものとは見ていません。しかし、確かに多くの人々が、これらのツールを使用できる他の人々に置き換えられる可能性があります。したがって、これらに精通し、使用できることが本当に重要になります。
そうですね。これは私にとっても非常に重要なことです。まさに、この技術を多くの人々に展開できるかどうかという質問ではありません。なぜなら、できるからです。問題は、最初の早期採用者ではない可能性のある人々、早期採用者にはならない人々が取り残されないようにし、この技術の使い方を本当に学び、それが彼らにとってどのように役立つか、そして将来のために彼らをエンパワーできるかを確実にすることです。だから、私はそれに非常に共感します。
さて、政府との相互作用に話を戻しますが、OpenAIが行った非常にユニークなことの1つは、基本的にサム・アルトマンがこのツアーを行ったことです。つまり、グローバルツアーですね。これは企業のCEOにとってはかなり珍しいことだと思います。そして、そのアーキテクトはあなただったと思います。それはどうでしたか。この全体の試みから何を学びましたか。
先ほど言ったように、私が早くから持っていた考えの1つは、政府がこの技術を理解するのを本当に助ける必要があるということです。サムはこの技術の信じられないほど素晴らしい大使です。今でも多くの懐疑的な人々がいる世界で、常に「これは過大評価されている」「この技術は壁にぶつかっている」「期待外れだ」などと読んでいます。これは明らかに、政府の準備能力を損なっています。なぜなら、彼らは「本当に今準備する必要があるのか」「本当に複雑な地政学的環境の中で、他の優先すべき多くのことの長いリストの中で、これを優先する必要があるのか」と考えてしまうからです。
このワールドツアーで私たちが会った世界のリーダーたちの目的の一部は、「はい、これを優先する必要があります。これについて考えることは重要です。私たちはこの技術がどこに向かっているかを理解するのを助けたいと思います」と言うことでした。たとえ私たちがまだどのように舵を取るべきかを正確に伝えられなくても、技術的な進歩がどのように起こっているか、そしてそれがあなたの人々にどのような潜在的な影響を与える可能性があるかについて、感覚を持っていただきたいと思います。
彼らはそれを理解したと思いますか。つまり、彼らは本当にこのメッセージを内面化したと思いますか。
多くの人々がそうしたと思います。
彼らが最も頻繁に質問したのはどのようなことでしたか。
最も興味深いことの1つは、ほぼすべての政府が「潜在的な利益とリスクの軽減のバランスをどのようにとるべきか」というバージョンの質問をしていましたが、人々がそのスペクトルのどこに位置していたかは、あなたがどこにいるかによって本当に異なっていたということです。グローバルサウスの人々は、取り残されないことにずっと焦点を当てています。もちろん、リスクを軽減したいと思っていますが、これらのツールを使って社会的課題をどのように解決できるか、十分なアクセスをどのように確保できるか、そしてこの会話の一部にどのようになれるかを知りたがっています。
一方、少なくともその時点での米国とヨーロッパでの会話は、害を防ぐために必要な規制は何かというものでした。
それは、以前のポッドキャストでも話したかもしれない話を思い出させます。本質的には、MITで私たちが主催したパネルの話です。そこには欧州連合からの1人とアフリカからの1人がいました。これはまさにそのとおりでした。欧州連合の人は、「すべての権利について、健康に関してAIを使用すべきではない」と言いました。これは本当に懸念事項ですが、アフリカの人は「待ってください、私たちにとっては、AIの医師か医師なしかのどちらかかもしれません。どこに線を引くかは私たちに決めさせてくださいというようなポイントがありました。これは非常に興味深い異なる視点ですね。
そうですね、素晴らしい指摘です。実際、私たちは素晴らしいパートナーと協力して、人々が電話を通じてこの情報にアクセスできるようにしています。スマートフォンがなくても、通常の固定電話や携帯電話で電話をかけて、医療チャットボットにアクセスできます。これは、現在、医師に会うために数日歩かなければならない村のためのものです。非常に基本的な情報を得るためです。これがいかに変革的になりうるか想像できると思います。以前はまったくアクセスがなかった人々にとって、たとえこれが100%の解決策でなくても、0%から90%の解決策に到達することは非常に顕著です。
はい、政策立案者との会話に戻りますが、彼らが通常質問することについて教えていただきました。しかし、彼らが質問しなかったけれど、あなたが彼らは質問すべきだと思うことは何ですか。
これらの会話でよく起こることの1つは、人々が「はい、これは本当に素晴らしい影響を与える可能性があることは分かっています。でも、どのような規制を導入する必要がありますか」と言うことです。人々が理論的には何らかのポジティブな影響が潜在的に起こる可能性があることを認識しているにもかかわらず、これはまだ人々にとって非常に遠い感じがしています。そのため、「ポジティブな影響とは具体的にどういう意味ですか」という会話はほとんどありません。
これが、私のチーム、つまり私のチームの中にある完全なサブチームが、これだけのことを考えている理由の一部です。彼らは、この技術を最善のことをしている人々の手に実際にどのように届けるか、私たちがこの技術に本当にしてほしいと想像できることは何か、人々がそれらを行っていない場合、これらのことが確実に起こるようにするにはどうすればよいかを考えています。
そのため、害やリスクに関する詳細な会話はたくさんありますが、それは理解できますし非常に重要です。しかし、特定の社会にとっての利益は何かについて、実際に具体的な会話をすることはほとんどありません。
日本は本当に例外だと思います。他のすべての人が影響を受ける可能性のある仕事について多くの不安を抱えているのとは異なり、日本には仕事をする人が十分にいないという本当の不安があります。彼らは本当に「どうか仕事を奪ってください。そうしないと、必要な労働力を本当に持つことができません」と言っています。
再び、これは、AIの影響とリスクが、あなたがどの国やどのコミュニティの一部であるかによって非常に異なることを示しています。それは素晴らしい気づきですね。
さて、このグローバルツアーに戻りますが、再び、これは狂気じみた試みのように聞こえます。どれだけの国を、どれほど短期間で訪問したのかわかりません。その間、きっとたくさん眠れたでしようね。そのツアーで最も記憶に残るエピソードを教えていただけますか。
実際、これはあなたに共感してもらえると思います。はい、私たちは1日に数時間しか寝ていませんでした。本当に、私が最初に友人に電話をしたとき…サムがこの世界ツアーに行きたがっていたとき、彼は開発者と話したかったのだと思います。多くの世界のリーダーもこの議論に興味を持つだろうとは、彼はあまり考えていなかったかもしれません。
1日で3カ国を訪問した日がありました。朝にポーランドの首相と会議があり、素晴らしい国ですね…優れた人々がいます。そうですね、私たちはほとんどの人を採用したと思います。まだ何人か残っています。それから午後にはマクロン大統領、そして、ああ、その晩には英国政府全体と会いました。
私たちは基本的に2人でこの旅行を計画していたので、私は1日に数時間しか寝ていませんでした。議論する内容の準備や物流、その他すべてのことをしようとしていたからです。とてもストレスを感じていたので、午前3時に眠りにつき、午前5時に起きるために瞑想アプリをセットしました。瞑想アプリが通知を無効にしてしまったので、サムが私たち全員が出発する予定の時間の10分後に電話をかけてきて、「まだ来るの?」と言いました。もちろん、最悪の悪夢でしたが、何とか着替えてタクシーに乗り、彼らの後を追いかけました。ポーランドの代表団が入ってくる30秒前に到着しました。
そうですね、それはかなりクレイジーでした。ポーランドという国に感謝します。時間通りに到着できて。
はい、さて、あなたは政策立案者が規制に焦点を当てる傾向があると言いましたね。それは悪い本能ではありません。世界中のAIに関する現在の規制の考え方について少し説明していただけますか。主なトレンドは何ですか。世界中でこれについて考える異なる方法は何ですか。
おそらくご覧になったかもしれませんが、シューマー上院議員が今日AIフレームワークを発表しました。これは、インフラストラクチャーから実際の移民、職業訓練、潜在的な市民権への影響まで、この技術のできるだけ多くの側面に対処しようとしています。これは、この問題の広大さを把握することの本当の難しさを示しています。
もちろん、EUは現在、多くの場所よりもはるかに具体的なフレームワークを導入しましたが、それでもまだ非常に概念的です。現在のEU AI法に基づいて、エンジニアの同僚たちに次のシステムをどのように開発または展開すべきかを伝えることはできません。実装について考えるには、まだ数ヶ月から数年かかるでしょう。
もちろん、G7広島原則があります。これはグローバルなフレームワークを作ろうとしています。これは本当に重要です。なぜなら、この技術はグローバルだからです。政府間で重複がまったくなく、調整もない断片的な状況になれば、どの企業も本当に機能することはほぼ不可能になります。そのため、誰もがグローバルなコンセンサスが得られることを望んでいます。
国連はOpenAIも参加しているプロセスを実行しています。G20のプロセスもあります。実際、米国の異なる州だけでも、おそらく800の個別の法案が提出されています。つまり、潜在的には州ごとに異なる法律がある世界になる可能性があります。明らかに、それはおそらく私たちが対処したい方法ではありませんが、ただ、規制するための多くの提案が机上に置かれているということです。私たちは最善を尽くしてそれらに追いつき、どこで最も意味のある形で関与すべきかを理解しようとしています。
実際、今週も法案を支持しました。これはCloar-Holly法案で、選挙におけるAIの欺瞞的な使用に関するものです。私たちがこれを支持したのは、これが社会全体の問題だと感じているからです。私たちが行っていることはたくさんありますが、エコシステムのすべての関係者も解決策に貢献していることを確保せずに、OpenAI単独でこれを解決することはできません。
OpenAIは多くの問題を解決できますが、確かにこれは…できません。では、この法案についてもう少し詳しく教えていただけますか。この法案は何に関するものですか。
この法案は基本的に、AIの欺瞞的な使用の開示と制限に関するものです。ほぼ誰もが同意できる原則の1つは、人々が人工知能と対話していることを知るべきだということです。これは特に選挙において重要です。そこでは、人々を説得することが国全体や政府の結果に重大な影響を与えるからです。これは、AI企業やソーシャルメディア企業が自社のプラットフォームで独自に行うこと以上の制約があることを確実にすることを目的としています。
法案の内容をもう少し詳しく教えていただけますか。
もちろんです。この法案は実際、連邦選挙の広告において、政治候補者の欺瞞的な音声、画像、または動画の配布を防ぐことに焦点を当てています。
確かに、非常にタイムリーな問題であり、適切に対処したい問題ですね。実際、選挙について話すと…私たちには選挙が来ています。実際、他の多くの国でも選挙があります。AIが選挙に与える潜在的な影響についてどのように考えていますか。多くの懸念がありますが、同時にポジティブな側面もあるかもしれません。この分野についてどのようにお考えですか。
これは実際、おそらく多くの利害関係者との間で最も頻繁に出てくるトピックの1つです。民主主義の将来全般について現在多くの懸念があるからです。私たちは会社として、私たちのツールが民主主義に悪影響を与えるような方法で使用されるのを防ぐために、すでに多くのことを行っています。
最近、私たちはブログ投稿で、一部の外国政府が私たちのツールを使用しようとした試みについて取り下げを行ったことを報告しました。例えば、政治的なチャットボットを作成して政治的なコンテンツを大規模に配信することを防いでいます。また、ミュンヘン安全保障会議で協定を結び、エコシステム全体で協力することを確実にしています。なぜなら、私たちのツールを使用してコンテンツを作成できますが、重要なのはそれがどのように配信されるかだからです。
そのため、これが配信される場所、つまりソーシャルメディアプラットフォームなどと協力して、エコシステム全体を見ているようにすることができます。先週、私たちは社会的レジリエンス基金を発表し、人々がAIを本当に理解するのを助けます。
しかし、私は、ここで多くの人々に本当に希望を与えているものの1つは、ツールが高品質の教育を支援し、教育を受けた人口が民主主義の最大の資産の1つであるという可能性だと思います。これらのツールがそこで支援できれば、最終的に民主主義にポジティブな影響を与えると思います。
もちろん、私たちが大規模な虚偽情報の配信を防ぐために、私たちのツールを活用できるという事実もあります。これは、そのような種類のことを防ぐための私たちのポケットにあるツールです。
そうですね。ちなみに、選挙における技術について考えることは、あなたにとって新しいことではありませんね。Facebookでも選挙の整合性について考えていました。この種の異なる技術と選挙について、そこで学んだ教訓は何ですか。そして、AIと選挙について考えるとき、それらの教訓のうちどれくらいがまだ適用可能ですか。
Facebookだけでなく、実際に私は2016年のロシアの選挙干渉の際にホワイトハウスで働いていて、リアルタイムでそれが展開するのを見ていました。人々が信じていることの1つは、2016年にロシアの選挙干渉を発見したということです。実際、私はホワイトハウスでの作業グループの一員として数年間、何をすべきかを考えようとしていました。
その時に私たちがしなかったことの1つは、テクノロジー企業と本当に関わることでした。部分的には、テクノロジー企業がこれらの問題について本当に一緒に考えることができるような人材を持っていなかったからです。
これが、私が本当に良いニュースだと感じる点です。私たちの誰もが後知恵の利益なしにこれに取り組んでいるわけではありません。OpenAIが行い、他の多くの企業が行っていないことの1つは、教訓を見て、言語的な理解を持ち、コンテキストの中で物事を見て、選挙に関する具体的な事項について地域社会と協力する必要があることを本当に考え、準備し、これらの部分を選挙の時期に起こる種類のことに備えて十分に前もって準備する必要があることを見たことです。
そうですね。うまくいくことを期待しています。もちろん、技術は解決策の一部に過ぎませんが、重要な部分です。
さて、すべての規制の取り組みについて考えると、特にOpenAIのサム・アルトマンは繰り返し、OpenAIは確かに規制に賛成だと言っています。OpenAIが支持するような規制、あるいはAIを規制する上で有効で有益な方法についてどのように考えていますか。
私たちが本当に重要だと信じていることの1つは、AIの最も深刻なリスクに関する国際的な枠組みです。現在、米国政府が中国と直接この問題についてトラック1の対話に取り組んでいることを私たちは非常に励まされています。しかし、もちろん、これは可能な限り多くの人々が署名する国際的な体制である必要があります。
また、この技術に対する規制介入が事実と科学に基づいて行われることが重要だと考えています。これは、あなたの仕事が非常に役立っている理由です。そして、これが、NISTが米国AIセーフティ研究所とセーフティ研究所のネットワークを立ち上げたこのエコシステムの発展の仕方が本当に正しい方法だと私たちが考える理由です。
現在、これらの問題について話すための共通の語彙さえありません。だからこそ、効果的な規制介入を行うことが非常に難しいのです。これは、技術の進化に合わせて進化できる、弾力性のある規制を作るためのインフラを作るのに役立ちます。
これは、昨年他のフロンティアラボと一緒に立ち上げたフロンティアモデルフォーラムも取り組んでいることの1つです。
安全性の緩和策以外に、AIとの未来に必要だと考えられる他の介入はありますか。
Cloar-Holly法案は本当に良い例です。なぜなら、AI企業に特化していない介入もありますが、私たちも役割を果たしているからです。もちろん、欺瞞的なAIコンテンツを識別する方法の1つは、私たちが導入している出所の措置です。
過去の技術規制の展開を考えると、少なくとも私の知る限り、それはほぼ常に事後的であり、事前的ではありませんでした。その理由の一部は、正直なところ、技術が非常に速く変化するため、何を規制すべきかを本当に理解するまでに時間がかかるからです。そのため、私たちは事後的になります。AIはさらに速く動いています。これについてのあなたの見方はどうですか。結局、私たちはAIを遡及的に規制することになるのでしょうか、それとも事前に何かできるのでしょうか。この動きについてどのように考えていますか。
1つ言えることは、現在規制が行われておらず、単なる無法地帯だという誤解があることです。様々な規制当局からの少なくとも数十件の規制調査を見てきた人間として、私たちは確実に規制されており、この技術に対して既に多くの規制介入が可能であり、実際に行われていると言えます。
誰かがAIを使って詐欺を行っても、詐欺が合法になるわけではありません。そのため、私たちが本当に特定し、取り組む必要があるのは、本当に空白部分はどこかということです。これが、私たちがフロンティアについて考える理由の一部です。なぜなら、これらのモデルの最先端バージョンに適切に対処する規制介入が現時点では存在しない可能性があるからです。
私は、これらのツールの多くの害やリスクが実際に既存の規制機関や法的アプローチによって対処されていると考えています。そのため、私たちはそのギャップがどこにあるかを考えようとしています。
興味深いですね。しかし、再び、私はあなたに少し圧力をかけようとしています。DCについて考えると…あなたは、この包括的な法案、あるいは少なくともこの法案の枠組みについて考えていると言及しましたが、次に何が起こると思いますか。DCで物事がどのように進むと思いますか。タイムラインについてどう考えていますか。誰もが知っているように、物事がどのように進むかを予測することは簡単な仕事で、ほぼ100%正確です。
現実は、これが明らかにDCにとって非常に不安定な瞬間だということです。私たちは非常に激しい選挙の真っ只中にいます。しかし、何らかの形でAI規制が比較的超党派の会話として残っていることに、私は適度な楽観主義を感じています。シューマー法案では、完全に超党派の枠組みがあり、これは今日のDCではめったに見られません。しかし、それもまた非常に広範でした。
私の予測では、今年は包括的なAI法案は見られないでしょうが、シューマー枠組みや他の個別の法案に見られるような部分、特にレームダック期間に見られるかもしれません。
はい、レームダック期間とは、本質的に新しい大統領が選ばれた後、就任する前の期間のことです。DCの専門家ではない人のために説明しておきます。
それは楽観的ですね。ところで、実際に…なぜAIが超党派の問題であり続けていると思いますか。他のすべての問題でこれほどの分極化があるのに、なぜそうなのでしょうか。
その一部は、もちろんこの技術が政治的スペクトル全体の人々に非常に大きな利益をもたらす可能性があるからです。特定のグループを優遇することはなく、誰もが本当にこれらの利益をどのように活用できるかを考えています。
同時に、率直に言えば、この技術が何をするかについて非常に大きな不安があると思います。その不安には政治的な性質がありません。なぜなら、その影響は全分野に及ぶからです。誰もが「子供たちに何を教えるべきか」「自分のスキルをどのように更新すべきか」を考えています。これらのことはすべて非常に広範です。
私たちの政策立案者がこの問題に本当に党派を超えて取り組もうとしていることは、率直に言って非常に励みになります。
それを聞いて嬉しいです。さて、政治家と選挙について話すとき、もう1つ非常に興味深いことがあります。AIは選挙運動のトピックになると思いますか。現在、立法の面ではAIに大きな関心がありますが、それはかなり超党派的です。しかし、候補者がスタンプスピーチなどでAIについて話すようになると思いますか。
正直なところ、人々が何らかの形でAIについて話すことは避けられないように感じます。しかし、これが何らかの形で党派的なトピックになることが、私を最も悩ませることの1つです。希望としては、これが選挙運動のトピックになる方法が、これらのツールの信じられないほどの可能性を誰が最もうまく活用するかという競争になることです。しかし、それがまさに結果にならない可能性もあります。
正直なところ、はい、これについて悪夢を見ます。なぜなら、このように変革的な技術が何らかの形で選挙プロセスに横から入ってこないということは…確かに私たちが見るかもしれないことです。
私は、潜在的な仕事の置き換え、つまりAIがそれに与える影響が話題になる可能性があると思います。そう、それが問題になるかもしれません。希望としては、議論される将来のネガティブな版とポジティブな版の両方があることです。しかし、残念ながら、ネガティブな方がより強い感情を呼び起こす傾向があるので、それがこの議論が向かう方向かもしれません。私たちは見守るしかありません。
さて、規制から離れて、政府は…はい、政府は確かに規制しますが、技術と相互作用する他の方法もあります。彼らはAIのR&Dに資金を提供しています。ご存知のように、これを行うためのさまざまなイニシアチブがあります。また、あなたがすでに言及したように、彼らは潜在的に大規模なAIの使用者になる可能性もあります。政府がAIエコシステムと相互作用するこれらの方法についての理解は、どのようなものですか。
多くの政府が、特に米国政府を含めて、インフラストラクチャーに大きな投資をしています。特に、チップ製造に対していくつかの重要な投資がありました。私たちは政府がこれらのツールを本当に活用し始めているのを見ています。
最近、ミネソタ州知事のオフィスと話をしました。彼らはこれを利用して政府文書をソマリ語に翻訳しています。例えば、彼らには多くの…言語がない場合、多くの政府には、すべての市民が発信される情報に関与できるようにする必要があります。しかし、以前政府の翻訳者として働いていた人間として、量に追いつくのは非常に難しいです。これらのツールは本当にこのような目的で活用できます。
創造的なことがたくさんあります。ダブリン市はこれを使って観光を促進しています。シンガポールでは駐車場を見つけるのに使用しています。人々は今、かなり実験しています。議会でも、この技術を活用しているのを見ています。USAIDも今後使用する予定です。
私は、政府が実験し、どのように使用できるかを理解したいという欲求が加速していると思います。しかし、それに対する主な障害は何ですか。本当にすべての政府がAIの使用に殺到しているのか、それともいくつかの政府、政府のいくつかの部分だけなのでしょうか。あなたの評価はどうですか。
確かに、政府には新しい技術の展開に慣れるのに非常に長いプロセスがあります。そのため、現在存在するコンプライアンスインフラが、これらのツールに対処するのに適切かどうかについて多くの考慮があります。
電子メールやインターネット検索のようなものでさえ、政府が人々にこれらへのアクセスを許可することに慣れるのに何年もかかりました。今でも、特定のソーシャルメディアサイトなどをブロックする機関もあります。
政府は理解できるように、そして賢明に慎重であるため、採用曲線は正直なところ、かなり遅いです。これは、現在これらのツールがよりアクセスしやすく、ある程度能力が限られている時に、これらのツールに本当に慣れる労働力がないと、能力が加速するにつれて本当の障壁になると感じるため、懸念すべきことだと思います。
そうですね。ちなみに、政府にいる友人から聞いた話では、電子メールさえまだ定着していないかもしれません。時々アクセスするのがかなり難しいようです。そう、それははっきりしていますね。多分50/50くらいでしょうか。
ペンタゴンで働いていたとき、軍のある部門のために特別に構築された複数の独自の電子メールシステムがありました。これらのシステムは互いに電子メールを送信できないことがよくありました。だから、あなたが言っていることがよくわかります。
それはあまり安心できる話ではありませんが、それが現実なのでしょう。私たちはそれを見ていく必要がありますね。
政府によるAIの使用に話を戻しますが、コンプライアンスが課題の一部だと言及しましたね。政府にとってAIを使用することが可能な肯定的なケースであっても、これが最も手の届きやすい果実だと思いますか。つまり、政府にAIを使用してほしいと考えているのは明らかですが、どのように使用してほしいかを考えると、何か提案はありますか。
これが、私が「生成AI」という言葉を本当に嫌う理由です。なぜなら…あなたは間違った会社にいるのかもしれませんね。この言葉は、このツールが何かを書けることに人々の注目を集めてしまうと思います。正直なところ、この技術の最も驚くべき力の1つは、情報を読み取り、処理し、要約し、分析し、比較する能力です。
実際、ほとんどの日、私はChatGPTで何も書きませんが、多くのことを読みます。600ページの法案草案を受け取ったとき、それを非常に速く読むのは難しいですからね。素敵な夜の読書にはならないでしょう。
例えば、ホワイトハウスで働いていたとき、毎朝CIA brieferが資料のフォルダーを持ってきました。その日の朝に大統領が受け取る記事と、私が取り組んでいる特定の問題に対応する一連の記事がありました。私は副大統領とともに50か国のポートフォリオを担当していました。私たちが取り組んでいる主要な政策問題がどのように発展しているかを理解する必要がありました。そのため、brieferはその日に入ってきた記事をいくつか選び、私はそれらを読みました。
今、米国政府の多くの情報機関が生成するすべての情報にアクセスできる世界を想像できます。そして、これらの質問にリアルタイムで答えることができ、実際に生成される多くの情報を活用することができます。正直なところ、その情報は政策立案者に届くことはなく、誰も読んだり関与したりすることはありません。
これが、GPT-4が最初に構築されたとき、私たちが行った実験の1つの理由です。Contiというロシアのランサムウェアギャングがありました。プーチンがウクライナに対する戦争を決定したとき、このグループのメンバーがプーチンを支持することを決めたとき、ウクライナのメンバーの1人が彼らのダークウェブチャットを全てインターネット上にリークしました。
そこで、ロシア語のスラングやコードを含む数十万の会話がありました。私たちはGPT-4を使用して、全体を要約し、このグループの情報源と方法は何か、彼らの標的は何か、このギャングの異なる人々の関係は何かなどを抽出することができました。分析者が数日から数週間かかるようなことを、数時間で行うことができました。
そのため、情報を迅速にリアルタイムで分析する力がこれほど大きいことがわかります。
はい、これはCIAが情報収集にAIを使用するという質問に関連していますね。おそらく、大統領がCIAのブリーファーではなくChatGPTによってブリーフィングを受ける未来を想像できるでしょう。もちろん、それは冗談ですが、現実からそれほど遠くないかもしれません。ブリーファーがブリーフィングを準備するためにChatGPTを使用することは想像できます。
しかし、これは政府が行う多くのことの中で、社会保障や軍事応用を含む、AIの使用に関する非常に重要で難しい質問に触れています。軍事目的でのAIの使用についてどのように考えていますか。あなたの個人的な意見として、どのような使用を正当化されると考え、どのような使用を禁止すべきだと考えますか。そして、これはOpenAIの方針とどのように関連していますか。ちなみに、私の記憶が正しければ、最近変更されたと思います。
私たちは、最初から意図していたことを反映するために、方針を更新しました。なぜなら、非常に広範な言語があり、これらのツールをどこに展開すべきか、どこに展開すべきでないと感じているかが明確ではなかったからです。
例えば、軍に関連するものすべてに対する包括的な禁止がありました。その意図は、技術が特定の致死的な応用に展開されないようにすることでしたが、それはそのように読まれませんでした。
例えば、方針を変更する前でさえ、私たちはすでにDARPAと協力して、オープンソース技術の脆弱性を特定する方法を確保していました。私にとって、これは私たちのミッションと非常に一致しています。重要なインフラストラクチャを保護したり、政府機関の重要な運営を行ったりするために使用されている技術が保護され、強化されていることを確認したいのです。
電気グリッドをダウンさせるためにこれらの欠陥を利用できるようにしたくありません。これらのツールは本当にそれを助けることができます。しかし、私たちの以前の方針の言語に基づいては、これが可能であることが非常に不明確でした。そのため、方針がこれを反映するようにしたかったのです。
私たちはまだ、自分自身や他人を害すること、財産の破壊、武器の開発に対する禁止を持っています。しかし、それは米国政府がより効率的かつ効果的になるのを助けることができる全体の領域を残しています。
それは理解できます。ただ確認ですが、DARPAと協力している応用は、オープンソースコードの脆弱性をスクリーニングすることについてだと理解しました。それで正しいですか。
はい、これはAIの非常に歓迎すべき防御的な使用です。私たちのインフラストラクチャに脆弱性があってほしくありません。それについては、誰もが同意すると思います。
この分野で、特にOpenAIが関与したいと考える他の応用はありますか。
現在、例えば、軍人や退役軍人の自殺を防ぐことに関する非常に興味深い取り組みがあります。もちろん、これらは非常に慎重なプロセスです。メンタルヘルスに関しては、専門家と協力し、非常に慎重に展開する必要があるからです。
実際、GPT-2でさえ、The Trevor Projectというグループが自殺傾向のあるLGBTの若者と働くためのトレーニングを支援するために使用した、かなり驚くべき使用例がありました。彼らは人間のトレーナーと行った何百時間ものトレーニングを持っていて、本質的に、ホットラインの対応を始める前に練習できるチャットボットを作成しました。
彼らの分析によると、チャットボットは無制限の時間トレーニングできるため、トレーナーのプールを増やすことができました。9時から5時までしかトレーニングできない場合、時間外にしかできない場合でも、突然トレーニングを受けることができます。人々は実際に、チャットボットがどれほどうまく対話をシミュレートできるかによって、より多くの経験と専門知識を持って出てきました。
これは、他の多くの分野でも大きな効用を持つ可能性のある非常に興味深い応用です。
そうですね。ちなみに、それはGPT-2なので、今では先史時代のようなものです。今ではGPT-3があり、GPT-3.5、そしてGPT-4があります。この技術が、現在ではほとんど考えられないような以前でも役立つ可能性があったということは興味深いですね。
OpenAIが軍事応用のコンテキストでAIに関して行っていることについて話しましたが、OpenAIを離れて、軍事コンテキストでのAIの正しい使用について、あなたはどのように考えていますか。
まず、軍は巨大な組織です。私の信じるところでは、ペンタゴンには350万人が働いています。これらの人々の圧倒的多数は、戦場で何かをしているわけではありません。彼らは核兵器施設を安全に保ち、近代化し、人事を行い、軍人の移動を支援したり、医療支援を提供したり、チャプレンとして活動したりしています。
したがって、単に時間を節約するのに役立つ多くの応用があります。例えば、あなたが軍人で、移動に関する情報が必要な場合、ホットラインに電話をかけます。そのホットラインには、マニュアルで何かを調べて、その情報をあなたに伝える人がいます。
今、これが大きな時間の節約になると想像できます。少なくとも、その人はマニュアルを調べる時間を費やす必要がなく、AIツールから答えを得ることができます。または、この情報を得るのを助けるAIツールを最終的に想像できます。これにより、他のことをする能力が大幅に解放されます。
軍は災害対応、トレーニング、そして多くの非常に…戦闘に関係のない活動を行っています。ほとんどの人々が…エイズ対応でさえ、軍のサービスで行われる活動の広さを考えると、それはかなり注目に値します。沿岸警備隊など、戦闘にまったく関係のない多くのことを考えることができます。この技術は生産性を向上させ、人々がより高価値のタスクを行う時間を解放することができます。
しかし、さらに踏み込んで聞かせてください。AIは現在、戦場で使用されています。ウクライナでも、イスラエルでも使用されています。そして、今後さらに多く使用されるでしょう。実際の戦闘のコンテキストでAIが最終的にどこまで適用されるかについて、あなたはどのように考えていますか。また、正当化される使用と、そうでない使用についてどのように考えていますか。
はい、おっしゃるとおりです。現在AIについて話すとき、私は大規模言語モデルや多モーダルの大規模モデルについて話しています。現在戦場で使用されているAIの種類ではありません。もちろん、これらのモデルの能力は増加しますが、多くの戦場応用にとって、この技術は単にまだ準備ができていないと思います。
能力が増加した場合、これがどこに向かうべきかは本当に良い質問です。もちろん、ペンタゴンもこれについて考えています。彼らは独自のAI原則を持っており、AIを使用すべきでない場所や人間の判断を置き換えるべきでない場所について、世界を一致させようとしています。
確かに、私が以前に説明したように、AIが意思決定者を支援することを想像できます。大量の情報を分析するなど、そのような方法でAIを使用することは、エラーの可能性を減らすのに役立ちます。
しかし、現時点では、OpenAIは多くの分野で技術の使用を禁止しています。単に、エラーのリスクがより大きな影響を持つ特定の高リスク分野があるからです。
繰り返しになりますが、シンガポールがそれを使って駐車場を見つけるのを助けていて、90%の精度しかない場合、それは問題ありません。最悪の場合、駐車スペースが見つからないだけです。
そうですね、それは悲劇かもしれません。
しかし、戦場で90%の精度を持つツールが致死的な応用をサポートしている場合、それは明らかに受け入れられません。
私は、これは本当に私たち全員が苦心している問題だと言うでしょう。繰り返しになりますが、例えば、たとえ将来の方針が現在の範囲を超えたとしても、情報分析を支援することは私にとって非常に明確な応用分野です。しかし、致死性の面でどこに線を引くべきかについては…私にはわかりません。それは、あなたの研究を見てからでないと答えられないことかもしれません、アレクサンダー。
はい、私は致死的なAIの応用に関する研究は行っていませんが、確かに私たちは能力を理解しようとしています。そうですね、このロバスト性の問題は非常に重要です。繰り返しになりますが、95%や60%の成功率でも全く問題ない応用がたくさんありますが、軍事的な戦場のコンテキストではほとんどの応用で受け入れられません。これは、私たち社会として、特にペンタゴンがさらに考えるべきことだと思います。彼らは確かに考えていますが、理解し改善すべきことがたくさんあります。しかし、再び、これは技術の改善だけでなく、何が受け入れられ、何が受け入れられないかについての私たちの考え方にも関わっています。
軍事応用から離れて、政府全体でのAIの大規模な応用について考えると、あなたが言ったように、さらに多くの応用を望んでいますが、これに関連してどのようなリスクが考えられますか。何が間違う可能性がありますか。
確かに、私たちは常に新しいことを発見しています。明らかに、全体的な社会的バイアスを反映する潜在的なバイアスがあります。同時に、その一部は、私たちが現在バイアスについて考えている方法とは少し異なります。つまり、明らかに人種差別的な応用があるということではなく、データセットに反映されていない特定のコミュニティがあり、回答がないか、深刻なギャップがある可能性があるということです。
例えば、医療応用では、特定の集団に関するデータが十分に収集されていないため、それらの集団に対する回答に自信がないはずの分野で自信を持ってしまう可能性があります。これは、ツールがまだ自身の知識のギャップを特定できる段階にないためです。
そのため、これは確かに問題のある出力をもたらす可能性があると思います。だからこそ、これらのすべての応用には、まだ人間の介入と人間の専門知識が必要です。つまり、これらの分野で働く政府の専門家の作業を加速することはできますが、彼らの判断を置き換えることはできません。
過度の依存の潜在的な問題がまだあることは理解しています。ツールが十分に正確であれば、人々は単に出力を確認するのをやめてしまう可能性があります。そのため、問題のある影響を与える可能性のあるコンテキストでこれを展開する人々には、追加のトレーニングが必要だと思います。
私たちはすでに、あなたが政府で働き、国家安全保障に取り組んだ経験について多く話しました。あなたの経歴について私が学んだ最も驚くべきことの1つは、実際にあなたがソビエト連邦で生まれたということです。どうしてこのようなことが可能だったのでしょうか。あなたはソビエト連邦、サンクトペテルブルクで生まれ、ここにいてホワイトハウスで国家安全保障、そしてロシアについて働いています。ここであなたの忠誠心を証明するために何をしたのでしょうか。
これはアメリカンドリームですね、アレクサンダー。本当にそうです。はい、アメリカ以外の市民権を放棄しなければなりませんでした。ロシアの市民権に加えてナイジェリアの市民権も持っていましたから。また、広範なセキュリティスクリーニングに加えていくつかのポリグラフテストを受けなければなりませんでした。
しかし、この会話をどのように始めたのでしょうか。単に「私はロシアの市民です。ホワイトハウスの国家安全保障のために働きたいのですが」と言うだけで、どうやってこの会話を始めるのでしょうか。
実は、これはアメリカの政治システムの興味深い特徴だと思います。公務員としてキャリアを積むことはできなかったかもしれません。しかし、政治的任命システムを通じて入ったため、これは非常に多様な背景を持つ人々を政府に入れる機会となりました。
正直なところ、政府で働くという考えは一度もありませんでした。一部は、それが決して起こらないと思っていたからです。私はソビエトの軍人に育てられたので、それが選択肢の1つだとは本当に考えていませんでした。
正直なところ、オバマ陣営に非常に興味を持ったのは、一部には母が保険会社が既往症と判断したものによって亡くなり、医療を受けることができなかったからです。そのため、この特定の問題に非常に情熱を感じていました。しかし、一般的に、当時のオバマ候補が多くの外交政策問題に対してとったアプローチにも興味がありました。
私は法律事務所を休職して選挙運動に参加しました。そして、本当に他のことに集中することができなくなりました。そのまま残り、オバマ大統領は多くの組織者に政府に入るよう呼びかけました。私は単に「1年だけやってみよう」と思いましたが、もちろん8年間滞在することになりました。
私はいつも冗談で、ホワイトハウスで働いている人の中で、家族が恥ずかしがっている唯一の人間だと言っています。なぜなら、私のナイジェリアとロシアの家族は「待って、あなたは弁護士だった。本当の仕事があったのに、政府のために働きに行ったの?ああ、なんてこと」と言っていたからです。
まあ、アメリカ合衆国は、あなたの奉仕をさらに感謝していると思います。
そうですね。あなたはオバマ政権で働いたということですが、お気に入りのオバマのエピソードは何ですか。
たくさんありますが、オバマ大統領について本当に驚くべきことの1つは、彼の知性を超えて、彼が本当に動じなかったことです。世界が終わると思って内心パニックになっているような状況がたくさんありましたが、彼は完全に落ち着いているように見えました。そのため、彼を見て「まあ、彼がパニックになっていないのだから、多分大丈夫なのかもしれない」と思うのです。
選挙の前夜でさえ、私たち組織者は恐らく48時間起きていましたが、彼も同じでした。選挙運動は州から州へと移動し続けるものですから、私たちと同じように、彼もその間ずっと完全に集中していなければなりませんでした。おそらく彼も1週間ほど全く眠っていなかったでしょう。
私は神経衰弱の寸前でした。選挙が間もなく行われようとしていて、「これがどうなるのだろう」と考えていたからです。彼との最後の電話がありましたが、彼は完全にリラックスしているように見えました。彼は「そうですね、みなさん、それは面白かったですね。素晴らしい選挙運動でした。さて、何が起こるか見てみましょう。では、みなさん少し休んでください」と言いました。私は「どうしてこんなに落ち着いていられるのだろう」と思いました。
彼が学者だったからだと言えますね。終身在職権を持つとそうなるのです。何も彼を動揺させることができません。
そうですね、彼はまだ仕事があることを知っているのです。
そうです、最高の仕事ですね。
さて、関連するトピックであるAIの地政学について話しましょう。AIは今や地政学を形作り、また地政学によって形作られている技術です。この技術に投資している異なる国々があり、ある程度の競争もあります。AIの地政学の現在の状況についてどのように考えていますか。どのようなトレンドを観察していますか。
もちろん、先進的な半導体をめぐって激しい競争があります。これは米国と中国の間だけでなく、インフラの一部を所有したい多くの国々の間でも起こっています。なぜなら、これは現在の世界の石油のようなものだからです。
また、最終的には、この技術の最前線にいる圧倒的多数の企業がアメリカ企業であるという事実があります。そのため、多くの国々が自国の能力をどのように向上させるか、このエコシステムのどの部分を推進できるか、この新しい枠組みにおける自国の役割は何かを自問しています。
確かに、過去20年間のすべての画期的な技術と同様に、米国が本質的に支配しているという懸念が多くあります。他の国々が、このエコシステムの形成を支援するために何ができるかについて多くの思考がなされています。
これは、私も同意するところです。OpenAIのミッションである全人類に利益をもたらすことを理解するためには、これは非常に重要なことだと思います。常に浮かぶ質問の1つは、すべての国々がAIで実際に勝利するにはどうすればよいかということです。一部の国が勝利し、そのために他のすべての国が負けると人々が想定するのではなく、どうすれば同時に勝利できるでしょうか。私にとって特に注目すべきは、グローバルサウスです。今後の道筋をどのように考えていますか。
これは素晴らしい質問です。私のチームや多くのOpenAIの人々が本当に答えたいと思っている質問です。その一部は、AIガバナンスに関するどのようなグローバルな体制も、利益共有に根ざしているべきだということです。人々がこの技術の特定のガバナンスに署名するなら、彼らもまた利益を得ることができるという理解のもとでなければなりません。
私たちは、それを行う最良の方法について考えています。その一部は、この分野での米国のリーダーシップを考えると、米国もまたこの技術を活用するために必要なインフラを普及させるべきだということです。技術を構築する際に、他の多くの社会によってどのように最もよく活用できるかを考慮する必要もあります。
私が最も興奮している、あるいは最も興奮していることの1つは、月曜日に発表したGPT-4.0の最新リリースです。これは非常に多くの言語でパフォーマンスが優れていることと、多くの言語でより安価かつ高速に使用できるようにトークナイザーを最適化したことです。これは、より多くのコミュニティにとってはるかに多くのアクセスを意味します。
また、話者が非常に少ない言語や、書かれていない言語さえもについて、長い間考えてきました。私たちが取り組んだプロジェクトの1つは、アイスランド政府との協力です。アイスランド語は30万人の話者しかいない言語です。
しかし、彼らは他の誰よりも、デジタル技術が彼らの言語を組み込まないと言語が死滅してしまうことを非常に心配しています。そのため、彼らはアイスランド語の大規模なコーパスを収集しました。私たちはそれを使用して、私たちのツールが小規模な言語データセットでどのように改善できるかを研究することができました。
現在、私たちは他の小規模または資源の少ない言語、そして包含に障壁のある他の言語を集めて、その知識を広めるための作業を行っています。これは、私たちのモデルだけでなく、一般的に人々が大規模言語モデルのエコシステムが小規模な言語をどのように考慮に入れることができるかを理解するためです。
それは全て肯定的なビジョンであり、私も非常にそうなることを願っています。OpenAIだけでなく、他の組織も同様に取り組むことを願っています。しかし、現実には競争も存在します。もし国家安全保障の観点から考え、ここで起こりうるすべてのリスクと競争、対立について考えるなら、この競争の軌跡をどのように見ていますか。今後5年、10年でどのように展開すると思いますか。
私が考える1つの重要なことは、米国の影響力の決定的なツールとなるのが輸出管理体制だということです。現在、確かに米国とその同盟国が、フロンティア技術を進めるために重要な多くのコンポーネントを管理しています。もちろん、中国は独自の代替案を作ろうとしています。
しかし、米国がこの体制を、半導体自体だけでなく、それらを製造するために必要な技術や、サプライチェーンの他の部分についても展開し続ける方法が、この発展を本当に形作ることになります。
現在、この話をしたアナリストたちは、中国がこの技術を複製するまでには数年かかるだろうと考えています。しかし、確かに…彼らはそこに到達するかもしれません。ただ、それはより遅くなるでしょう。
私たちは、AIをできるだけ早く、可能な限り能力の高いものにしようという競争、あるいはレースについて話しています。一方で、これは素晴らしいことだと言えます。なぜなら、AIには多くの肯定的な用途があるからです。しかし、それはあまり肯定的ではない用途や悪用、リスクも伴います。
国々がただ可能な限り速く、最も能力の高いAIに到達しようとするダイナミクスがある場合、リスクについて少し不安になるかもしれません。このような結果を防ぐためにどのように考えるべきだと思いますか。国際的な合意について話がありますが、あなたが考える最良の道筋は何ですか。
最も深刻なリスクに関する国際的な合意が不可欠だと思います。そこで何らかのコンセンサスを達成できることを本当に願っています。私たちはこれに取り組んでおり、米国政府もこれを認識していると思います。中国政府も最も深刻なリスクのいくつかについて懸念していると信じています。そのため、進展を遂げることは可能だと思います。
同時に、私たちはフロンティアにいるすべてのラボと協力しようとしています。圧倒的多数が米国にあるのは、これが私たちがフロンティアモデルフォーラムを立ち上げた理由の一部です。私たちは、競合他社と安全性のベストプラクティスについて話し合う必要があると考えているからです。なぜなら、あなたが話しているこのダイナミクスを確実に制御する必要があるからです。
同時に、民主主義国家がこれらのツールを最初に、そして責任を持って展開する必要があると信じています。部分的には、彼らがこの分野の規範を形作るべきだからです。しかし、私たちはまだ取り組まなければならない規範があります。
ところで、フロンティアモデルフォーラムについて言及しましたが、この組織について、そしてその目的について少し詳しく教えていただけますか。
フロンティアモデルフォーラムは、昨年Anthropic、Microsoft、Google、OpenAIと共に立ち上げた組織です。その考えは、部分的に私が先ほど提案したように、私たちが対処しようとしている具体的なリスクは何か、AI安全性とは何を意味するのか、この分野で本当に考えるべきベストプラクティスは何かについて、共通の枠組みさえ持っていないということです。
私たちはこれらについて同じページに立つべきで、フロンティア企業がこの技術を展開する方法について、いくつかの規範を設定すべきです。部分的には、競争から生じる可能性のある慣行を避けるためです。
あなたは、「私たち企業が規範を開発し、AI安全性が何を意味するかを決定し、そしてそれが特に米国と中国が何をすべきでないかに同意するのに役立つ」と言っています。それほど簡単ではないですよね。
全くそうではありません。また、もちろん、これは米国企業が反トラスト懸念を引き起こすことなく協力できるようにするためのものですが、フォーラムは実際に政府や市民社会、専門家と関わり、彼らのフィードバックを受け取るメカニズムでもあります。これらの規範を形作るのを助けるためです。
グローバルコミュニティとして、どのような制限を設けるべきかを決める際に、1つのインプットとなるべきです。そして、それは技術が実際にどのようなものかに基づいて情報を提供されるべきです。これは、その会話にインプットを提供するのを助けるだけです。それは技術が実際にどのようなものかに基づいています。
インプットと会話の構築、そして技術理解の構築について話すと、この風景にはもう1つのプレイヤーがいます。つまり、AI研究所です。UKのAI安全研究所が最初でした。最近、米国のAI安全研究所が設立されました。そして今、さらに多くの研究所があります。AI研究所とは何か、その役割は何か、特にグローバルなAI安全性を考える上でどのような役割を果たすと思いますか。
これは非常に新しいエコシステムです。正直なところ、最初のAI安全研究所が発表されてから現在までの間に、彼らがすでにスタッフを揃え、作業を開始し、現存するモデルに対していくつかのテストを行うことができたことは非常に印象的です。これは、政府機関が構想から実際の影響を与えるまでの記録的なスピードかもしれません。
私はあなたが政府で働いた後でも、政府についてこれほど楽観的であることが大好きです。
フロンティアモデルフォーラムは、このエコシステムが存在することを知る前に立ち上げられました。しかし、私はそれがこのエコシステムの本当に強力なパートナーになれると思います。また、これらの企業の集団的知恵や経験を共有し、安全研究所と共有することで、この分野のベストプラクティスを普及させ、合意するのにかかる時間を短縮できるかもしれません。
もちろん、デジタル企業との継続的な関与も必要になるでしょう。しかし、安全研究所は本当に、高度なモデルに関する政策のための科学的で事実に基づいた、測定に基づいたインフラストラクチャを作ることを目的としています。私たち企業全体が行う安全性評価について本当に考えています。
それは理にかなっています。タスクの観点から、これらの機関は新しく設立されたばかりで、私たち全員がまだ理解しようとしている段階ですが、もしあなたがこれらの機関の1つの所長だとしたら、3つの具体的な優先事項は何だと思いますか。
最優先事項の1つは、高度な人工知能の展開者にとって意味のあるベースラインテストは何かを理解することだと思います。彼らが行う必要のあるテストは何か、また、これらのモデルの能力について社会として考えるために必要な共通の評価は何かを理解することです。
現在、いくつかの標準的な評価があり、他にも多くの人々が開発している評価がありますが、私は再び…実際にあなたの方がこの質問に答えるのにはるかに適していると思います。しかし、これらのモデルにとってどの評価が最も意味があるかについて、エコシステムとして何らかの合意が必要だと感じています。
そうすることで、能力について話すときに共通のベースラインを持つことができます。ご存知のように、これらのモデルをテストする必要がある閾値を特定しようとする努力がありますが、多くの理由からその閾値を特定するのは非常に難しいのです。
モデルに費やしたお金の額なのか、FLOPSの数なのか、チップの数なのか…これらはすべてモデルの能力に影響を与えますが、最終的に私たちが尋ねているのは、モデルは何ができるかということです。そのため、これらの安全研究所は、モデルの能力について共通の理解を持つ方法を本当に理解するのに役立つことができます。
AI研究所だけがこれについて考えているわけではありません。OpenAIや他のいくつかのAIラボも同様です。また、自主的な枠組みもあります。Anthropicが提案した責任あるスケーリング計画や、OpenAIの準備枠組みがあります。私はそれについて良いことを聞いています。本当に本当に良いと聞いています。
ありがとうございます。
本質的に、企業がこれを自ら行い、それらを改良し、何が機能し何が機能しないかを学ぶには多くの学習が必要です。しかし、この責任あるスケーリング計画や準備枠組みから次のステップはどのようなものだと考えていますか。
自主的な、あるいは規制のエコシステムができれば、それは準備枠組みのようなものになると思います。政府にも、技術の進化に合わせて柔軟な規制介入が必要だという認識があります。シューマー枠組みも実際にこれを具体的に認めています。
人々は実際に…準備枠組みやResponsible Scaling Policiesのファンですが、最も能力の高いモデルを展開している企業間で共有されているベースラインは何かを理解する必要があります。私たちのこの作業は、安全研究所が行っていることに大きな影響を与えると思いますが、最終的には彼らが何らかのガイダンスを発表する必要があるでしょう。
AIの有益な未来、特に有益なAIの未来について考えるとき、本当に不思議に思う別のことがあります。それは、何が有益かは、ある人の立場、所属するコミュニティ、持っている価値観によって異なる可能性があるという事実です。
結局のところ、これは私がまだ良い答えを持っていない質問です。AIが私たちの価値観を反映することをどのように確保できるでしょうか。特に、この価値観が私たちが誰であるかによって異なる場合、どのようにこの問題にアプローチすべきだと考えますか。
アレクサンダー、これは本当に大きな質問ですね。あなたが今すぐ簡単に答えられるでしょう。
ご存知のように、私たちは最近モデル仕様というものをリリースしました。これらのモデルの行動をどのように形作るべきかについての現在の考えをフィードバックするためのいくつかのメカニズムを求めました。
仕様は…ただ確認ですが、仕様は基本的に、モデルがどのように振る舞うべきかについての私たちの現在の考えですよね。
そうです。それは決して石に刻まれたものではありません。しかし、私たちはここで前例のないことを行いました。この程度の詳細さで共有したのです。これは70ページの文書です。
600ページの文書を読むのが好きだと聞いたので、これは簡単な読み物ですね。
私たちは、異なるグループと世界中でいくつかの関与を含む、いくつかのメカニズムを通じてフィードバックを求めようとしています。ここで私たちが行っているさまざまなトレードオフが人々のニーズをどのように反映しているかを理解するためです。
もちろん、それに伴う調査もありました。これは本当に、より大きな影響力のある会話を始め、より大きな関与を持つ機会を私たちに与えてくれます。
私は、この質問についてOpenAIですでに多くの研究が行われていると言うでしょう。例えば、民主的インプットの研究や、私たちが持っている人間のデータパイプラインは非常に多様です。モデルの行動を検討し考える AIトレーナーの多くを、意図的に世界中のさまざまな分野から調達しています。
これは、外部の専門知識を確実に取り入れるためです。なぜなら、私たちが皆熱心に同意しているのは、OpenAIのツールの動作が純粋にOpenAIで働く人々によって形作られるべきではないということだからです。
それに完全に同意します。私のことを知っていたら、私がモデルの行動を形作るのに近づくことさえ望まないでしょう。
そうですね、これは締めくくりにふさわしい良い瞬間だと思います。しかし、ここで最後の質問があります。これは今や伝統的な質問となっています。
AIとの未来について考えるとき、AIがもたらす可能性のある一つの側面で、あなたが個人的に最も楽しみにしていること、または最も楽しみにしていないことは何ですか。
アレクサンダーご存知のように、私の父方の家族はナイジェリアの比較的田舎に住んでいます。私が日常的にアクセスできるサービスの種類と、子供時代の多くを過ごした村に住む人々がアクセスできるサービスとは、全く違います。
この技術が本当に公平な競争の場を作り出し、これらの場所の多くの人々に私が持っているようなアクセスを与える可能性があるということは、本当に信じられないことです。これが私がここで働いている理由です。
アンナ、今日の会話は魅力的でした。今日、私たちはAIと政府や世界全体との相互作用について深く考え、取り組むアンナ・マンドラとお話しする機会がありました。
私と同じくらいこの会話を楽しんでいただけたなら、ぜひ購読し、コメントを残し、友人にお勧めください。ありがとうございました。
コメント