サム・アルトマン、世界のAIの潜在的な危険性を克服するため理性的な専門家を招集

2,702 文字

YouTube
作成した動画を友だち、家族、世界中の人たちと共有

はい、アルトマンさん、まず最初にお聞きしたいんですけど、独立した検査機関を設けて、スコアカードや栄養成分表示のようなもの、あるいは内容の信頼性やその中身、入力されたデータの質が出力に影響するかもしれないということを人々に示すような表示システムについて、どないお考えですか?
そうですね、ええアイデアやと思いますわ。企業がまず自分とこのモデルのテスト結果を、「これが弱点で、これが強みです」いうような感じで公開するべきやと思います。
それに加えて、独立した監査も非常に重要ですね。モデルの精度は時間とともにどんどん上がってきてますけど、私らがこれまでにも声を大にして言うてきたように、この技術はまだまだ発展途上なんです。確かにまだミスもありますが、ユーザーの皆さんは割と賢くて、どこでミスが起こりそうか、どういう検証が必要かいうのをよう理解してはるように思います。
ただ、モデルがどんどん良うなっていくと、ユーザーの判断力が段々と低下してまうんちゃうかいうのが心配です。でも、こういう議論でよく言われるより、ユーザーの方々ってもっと有能やと思うんですよ。ChatGPTを使うたことがある方やったらご存知かと思いますが、モデルの不正確さについての情報開示も重要です。
企業がモデルの振る舞いや不正確な部分について情報を公開し、それを独立機関や企業が検証するような世界になることを楽しみにしてます。ほんまにええアイデアやと思いますわ。
私の冒頭の発言で雇用問題、経済への影響について触れましたが、確か「超人的な機械知能の開発は、人類の存続に対する最大の脅威になる可能性がある」いうようなことをおっしゃってましたよね。これは雇用への影響を念頭に置いての発言かもしれませんが、私にとってはそれが長期的に見て最大の悪夢なんです。あなたの最大の悪夢は何で、この懸念についてどないお考えですか?
全ての技術革命と同じように、雇用への大きな影響はあると思いますが、具体的にどういう影響になるかいうのは予測が難しいですね。過去の技術革命の向こう側にどんな仕事があったかいうのを、当時の本なんかで読んでみても、予測は困難でした。
でも私は、将来はもっと素晴らしい仕事が増えて、今ある仕事もより良くなっていくと信じてます。まず重要なのは、GPT-4を生き物としてやなくて道具として理解することです。これは混同されがちですが、使い方は人間が大きくコントロールできる道具なんです。
GPT-4やそれに似たシステムは、仕事全体というよりは個々のタスクが得意です。すでにGPT-4を使って仕事の効率を上げている人がおられますが、これはタスクの支援によるものです。確かにGPT-4は完全に自動化してしまう仕事もあるでしょうが、新しい、もっと良い仕事も生み出すと考えています。
私の理解では、技術の歴史は別々の革命の集まりというより、一つの長い技術革命やと思うんです。これは継続的に起こってきました。生活の質が上がり、私らが作る機械や道具が、より良い暮らしを支援してくれるようになると、私らがすることのレベルも上がって、より野心的で満足度の高いプロジェクトに時間を使えるようになります。
確かに雇用への影響はあります。それは明確に認めていかなあかんし、業界と政府の協力、特に政府の行動によって、どないして緩和していくかを考えていく必要があります。でも、将来の仕事がどれだけ素晴らしいものになるかについては、私はとても楽観的です。
最後に、これを言うてええのかわかりませんが、サムの最大の恐れは雇用の問題とちゃうように思います。彼は実際の最大の恐れについては教えてくれませんでした。それを知るのは重要やと思うんですけど。
はい、アルトマンさん、お答えいただけますか?
ここでのリスクの大きさについては、できるだけ明確に伝えようとしてきました。雇用の問題や、私らが時間をどう使うかいうのは確かに重要です。非常に強力なシステムができた時には状況が変わるとは思いますが、私らには想像力があって、より良い道具とともに新しいことを見つけ出していけると、より楽観的に考えています。
私の最大の恐れは、この分野や技術、業界が世界に重大な害を及ぼすことです。それはいろんな形で起こり得ます。だからこそ私らは会社を設立したんです。今日ここにおる理由の大きな部分も、以前からここで時間を共にさせていただいてきた理由も、そこにあります。この技術が間違った方向に行くと、非常に深刻な事態になる可能性があります。私らはそれについて声を上げ、政府と協力してそれを防ぎたいと考えています。下振れケースとそれを緩和するために必要な作業については、非常に現実的に見ていきたいと思います。
来年の選挙を控えて、世論調査を予測し、有権者の行動を引き出すための戦略を組織や団体が練るのを助ける大規模言語モデルについて、懸念すべきでしょうか?
はい、ホーリー議員、ご質問ありがとうございます。それは私にとっても最も懸念される分野の一つです。より一般的に言うと、これらのモデルが持つ操作や説得の能力、一対一の対話型デジタルミスインフォメーションを提供する能力ですね。おっしゃる内容の broader versionというか。来年選挙があって、モデルの性能も上がっていくことを考えると、これは重大な懸念分野やと思います。
企業が自主的に採用できる方針はたくさんありまして、私らの取り組みについてもお話しさせていただきたいと思います。この分野での規制はかなり賢明やと思います。先ほど誰かがおっしゃいましたが、私らも強く同意するんですが、人々はAIと話してるんかどうか、見てるコンテンツがAIで生成された可能性があるんかどうかを知る必要があります。それを明確にすることは非常に重要です。
また、おっしゃったような能力を持つモデルを提供する企業に対して、どんな開示が期待されるんかについての規則やガイドラインも必要になってくると思います。私も不安に思ってますが、人々は割と早く適応できると思います。
フォトショップが登場した時のことを思い出してください。しばらくの間、人々はフォトショップで加工された画像に本当に騙されてましたが、すぐに画像が加工されている可能性があることを理解するようになりました。今回もそれと似たような感じになると思いますが、もっと強力な形でね。対話型で、おっしゃったように人間の行動をよく予測できる能力があることを考えると、企業の適切な行動と規制、そして市民教育を組み合わせた対応が必要になってくると思います。

コメント

タイトルとURLをコピーしました