AIスネークオイル – プリンストン大学のコンピューターサイエンティスト2名による新刊

13,383 文字

AI Snake Oil—A New Book by 2 Princeton University Computer Scientists
A Counter to the Hype and Some Misleading Claims.Subscribe for more Ground Truths:

こんにちは、グラウンドトゥルースのエリック・トッポです。新刊『AIスネークオイル』の共著者であるシーズ・カポールをお迎えしています。この本はプリンストン大学のアーヴィン・ナランと共著されました。シーズさん、グラウンドトゥルースへようこそ。
ありがとうございます。お招きいただき光栄です。
この本の出版、おめでとうございます。若くしてこれだけの功績を残されているのが印象的ですね。Time誌の「AI 100人」創刊号にも選出され、現在はプリンストン大学で博士課程に在籍されているとお聞きしました。
はい、その通りです。情報技術政策センターで研究をしています。これはコンピューターサイエンス学科と公共・国際問題スクールの共同プログラムなんです。
コンピューターサイエンスの博士課程に進む前からこの分野で活動されていたんですよね。
そうですね。博士課程に入る前は、Facebookで機械学習エンジニアとして働いていました。
より学術的なレベルに進まれたわけですね。本題に入る前にお聞きしたいのですが、特に『AIスネークオイル:人工知能にできることとできないこと、その見分け方』というタイトルの本を書こうと思われた背景について、本の中でも触れられていましたが、あらためて教えていただけますか。
はい、もちろんです。長年にわたって、アーヴィンと私は、AIが実際にどう機能するのか、あるいはしないのか、人々がこの技術の可能性に惑わされて、日常生活で意味のある形で活用できていないケースについて注目してきました。
Facebookのエンジニアとして、機械学習やAIツールを実際の現場で展開する際にいかに簡単にミスを犯してしまうか、また研究においても、知らず知らずのうちに機械学習モデルの精度を過大評価してしまう可能性があることを目の当たりにしてきました。
例えば、博士課程で最初に取り組んだ研究プロジェクトの一つは、政治学分野、特に内戦予測の分野を調査するものでした。これは次の内戦がどこで起きるかを予測しようとする分野で、内戦に備えるためのものです。
私たちが発見したのは、内戦の発生時期をほぼ完璧な精度で予測できると主張する論文が数多くあったということです。最初はこれは驚くべきことに思えました。もしAIが何年も前から内戦の発生を予測できるのであれば、それは画期的なことになるはずです。
しかし、詳しく調べてみると、AIが20年以上前のロジスティック回帰モデルよりも優れているという主張は、どれも再現性がないことが分かりました。これは私たち二人にとって警鐘となりました。
さらに深く掘り下げていくと、これは広範な問題であることが判明しました。AIと機械学習を急速に採用している分野全体に及んでいたのです。300以上の論文を見つけ、最後にリストを集計した時点では600以上の論文がデータリーケージの問題を抱えていました。
データリーケージとは、評価用のデータセットで学習してしまうことで、いわば「テスト対策」のようなものです。そのため、機械学習モデルは実際の現場で機能する場合と比べて、データ評価の際にはずっと良い性能を示すように見えてしまうのです。
本の中で私たちは、AIスネークオイルを見分け、適切に使用すれば上手く機能するAIと区別することを目標としています。AIの熱心な支持者にとっては、この本はかなり厳しい内容かもしれません。というのも、ポジティブな面があまり取り上げられていないからです。
私たちはAIを3つの領域に分類しています。まず予測AI、これについては非常に厳しい立場を取っており、決して機能しないと考えています。次に生成AI、つまりチャットGPTで一躍注目を集めた大規模言語モデルですね。そして最後にコンテンツモデレーションAIです。この3つの領域について、どのように分類されたのか説明していただけますか。
本全体を通じての主なメッセージの一つは、AIについて語る時、実際に私たちが興味を持っているのは、より深い社会的な問題だということです。予測AI、生成AI、コンテンツモデレーションAIという分類は、これらのツールが現実世界でどのように使用されているかを反映しています。
予測AIについては、本の中で別個のカテゴリーとして取り上げた動機の一つは、これが現代の機械学習手法とはほとんど関係がないことが多いということです。場合によっては、何十年も前の線形回帰ツールやロジスティック回帰ツールほど単純なものであっても、AIという名前で販売されています。
生成AIでの進歩が、まるで予測AIにも適用できるかのように売り込まれているのです。その結果として、保険、医療、教育、刑事司法など、様々な分野で企業が予測AIを販売し、人間の意思決定を置き換えることができるという約束を掲げています。
最後の部分が、私たちの多くの問題の本質です。これらのツールは、実際の能力をはるかに超えて売り込まれているのです。刑事司法のための意思決定を改善できるかのように売り込まれていますが、これらのツールを検証しようとすると、多くの場合、ランダムな判断より良い結果を出せないことが分かっています。
特に重要な決定、例えば採用の自動化などにおいて顕著です。基本的に、誰が次の面接段階に進めるか、あるいは履歴書を提出した時点で誰が却下されるかを決定するようなケースです。これらは非常に重要な決定であり、私たちは多くのスネークオイル(いんちき商品)が存在すると考えています。
その理由の一部は、生成AIのような本当に大きな進歩が見られた分野と、何十年も停滞している分野を人々が区別していないためです。開発者が主張するようには機能しないツールが多いのです。
スネークオイルというのは厳しい比喩ですね。本の中でも1905年のスネークオイルの広告を示されています。予測AIが古いツールを使用しながら、画期的な発明のように売り込まれている点を指摘されていますが、その前に確認させてください。生成AIを使って物事を予測することは可能なのでしょうか。
医療や生物医学の分野の読者や聴衆が多いので、いくつかの悪い例を見ていきたいと思います。最初の例として、パンデミック時に数千もの研究が行われた、胸部X線画像からのCOVID-19の予測について、コメントいただけますか。
はい、これは私のお気に入りの例の一つです。ケンブリッジ大学のマイケル・ロバーツとそのチームが、パンデミックから1年ほど経って、何が起こったのかを振り返って調査しました。
当時、約500の研究が対象となり、研究論文を書くという範囲を超えて、実際の臨床現場で有用になり得るツールがどれくらいあるのかを調べました。彼らは単純なチェックリストを使って、これらのツールが適切に検証されているか、トレーニングデータとテストデータが分離されているかなどを確認しました。
このシンプルなチェックリストを通過したのはわずか60の研究のみでした。60以外の研究は、分析に含めるための非常に基本的な基準すら満たしていなかったのです。
そして60の研究について、臨床的に有用なものがいくつあったと思いますか?ほとんどの予想は外れると思いますが、答えは正確にゼロでした。臨床的に関連のある環境で有用な研究は一つもなかったのです。
理由は様々でした。例えば、COVID-19を予測する機械学習モデルを訓練する際に、COVID-19陽性のサンプルは全て成人から、陰性のサンプルは全て子供から取得されていたという奇妙なケースもありました。結果として、そのモデルがCOVID-19を予測できると主張するのは奇妙です。なぜなら、実際にはX線画像を見て、それが子供のものか大人のものかを予測しているだけだからです。
トレーニングセットとテストセットに同じ人のデータが重複しているケースもありました。つまり、モデルのトレーニングに使用された人のデータが、モデルの評価にも使用されていたのです。単にX線画像のサンプルを暗記するだけで、非常に高いパフォーマンスを達成できてしまいます。
このような問題により、60の研究のどれもが臨床的に有用ではないことが判明しました。これは私たちが何度も目にしてきたパターンの一例です。
その点には同意します。それは本のタイトルにふさわしい顕著な例でした。29ページには「AIスネークオイルの誇大宣伝と害悪の全体像」という図がありますが、この図には良いものが何もありません。Y軸には「機能する」「誇大宣伝」「スネークオイル」があり、X軸には「無害」と「有害」があります。
「機能する」かつ「無害」なものとしては自動補完だけですが、それも本当に機能しているとは言えません。そして「機能する」かつ「有害」なものとして監視のための顔認識があります。これはAIについてかなり厳しい見方ですね。
明らかに機能している多くのものがこの図には含まれていません。内戦の予測や、不正行為の検出、犯罪リスクの予測、ディープフェイクのビデオインタビューなど、多くの問題を挙げられていますが、良いものについては何も示されていません。少し偏っているのではないですか?
はっきりさせておきたいのですが、アーヴィンと私は、逆説的ですが生成AIの未来については楽観的なんです。スネークオイルに焦点を当てたのは、私たちの意図的な選択でした。
本の中でも、なぜ私たちが楽観的なのか、どのような応用に期待しているのかについて、様々な箇所で説明しています。それらに焦点を当てなかった理由は、基本的にスペルチェックやコード生成のためのAIの長所について300ページも読みたい人はいないだろうと考えたからです。
本には含まれなかった多くのポジティブな応用があることは、完全に同意し認めます。私たちがそうしたのは、人々に懐疑的な視点から接してほしかったからです。誇大宣伝に惑わされないようにするためです。
AIツールに対して非現実的な期待を持ってしまうと、ポジティブな使用法さえも失われてしまう可能性があります。そのため、スネークオイルを指摘することは、職場でAIを生産的に使用するための前提条件とも言えます。
私たちがこの楽観主義を具体化している例をいくつか挙げましょう。一つはコーディングのためのAIです。コードを書くという応用は、少なくとも私は頻繁にAIを使用しています。現在、私が書くコードの半分近くは、少なくとも最初の下書きはAIが生成しています。
しかし、プログラミングの知識がなければ、それは全く異なる問題になります。私の場合、構文が正しくないとか、データの扱い方が間違っているといったことを指摘するのは、コードを何度も書いてきた経験があるので簡単です。しかし、プログラミングの専門家でなければ、それは完全な災害になりかねません。エラー率が5%だとしても、AIを使ってコードを生成すると、数十個のエラーが発生することになります。
私たちが日常生活でAIを使用している別の例として、アーヴィンには2人の小さな子供がいて、AIを使って子供たちのためのアプリケーションをいくつも作っています。彼は、AIを子供たちの生活に完全に手を引くのではなく、良い影響を与えるものとして取り入れることを強く推奨しています。
これらは単なる二つの例ですが、現在の私たちの仕事の大部分はAIの支援を受けて行われています。そのため、私たちは非常に楽観的です。同時に、実際の世界でAIを採用する上で最大の障害の一つは、その限界を理解していないことだと考えています。
本の中で「私たち二人は仕事でも個人的な生活でも、生成AIを熱心に使用しています」と述べていますが、例を見る限りではそれが伝わってきません。予測AIの問題点に関する話題を続ける前に、もう少し例を見ていきましょう。本の中で素晴らしい指摘をされていて、ここには注意が必要だと説得力のある内容があります。
最も有名な例の一つ、そして取り上げたい例として、Epicモデルの敗血症予測があります。ご存知の通り、Epicは医療システムで最も使用されている電子カルテで、彼らは論文も発表せずに、入院患者が敗血症またはそのリスクがあるかどうかを判断するアルゴリズムを導入しました。本でも取り上げられていますが、これは本当に大失敗でしたね。この件について説明していただけますか。
はい、2016年から2017年頃、Epicは医療提供者が敗血症のリスクが最も高い患者を予測するのを支援するシステムを開発しました。これは非常に重要な問題です。敗血症は世界中で、そして米国でも主要な死因の一つです。これを解決できれば画期的なことになるはずでした。
問題は、このアルゴリズムの外部検証が次の4年間行われなかったことです。2017年から2021年の間、このアルゴリズムは米国の何百もの病院で使用されていました。2021年になってミシガン大学のチームが自分たちの病院で敗血症予測モデルの有効性を調査する研究を行いました。
彼らは、Epicが主張していたAOC(Area Under Curve)が0.76から0.83であったのに対し、実際のAOCは0.6に近かったことを発見しました。AOCが0.5というのはランダムに推測しているのと同じレベルです。これは会社の主張をはるかに下回る結果でした。
その後も、Epicがこのアルゴリズムを撤回するまでにさらに1年かかりました。最初、Epicはこのモデルが上手く機能しているから病院が採用しているのだと主張していました。しかし、実際にはEpicが病院に敗血症予測モデルの採用を奨励していたことが判明しました。
病院が特定の条件を満たせば、場合によっては数十万ドルものクレジットを与えていたのです。その条件の一つが敗血症予測モデルを使用することでした。そのため、彼らの主張を額面通りに受け取ることはできませんでした。
最終的に2022年10月、Epicは基本的にこのアルゴリズムを撤回しました。一つのサイズですべてに対応する敗血症予測モデルから、各病院が自分たちのデータで訓練しなければならないモデルに変更されました。
この方法の方が機能する可能性が高いと思います。各病院のデータは異なりますから。しかし、病院にとってはより時間と費用がかかります。突然、自前のデータアナリストが必要になり、このモデルを展開してモニタリングしなければならなくなったからです。
この研究は、予測AIのより一般的な問題の多くを浮き彫りにしています。これらのツールは既存のシステムの代替として売り込まれることが多いのですが、問題が発生すると、はるかに機能の少ないツールに置き換えられ、企業はしばしば細字の注意書きを持ち出して、「常に人間が介在すべきだ」とか「これらの追加の保護措置が必要だが、それは私たちの責任ではない」などと言い出します。
開発者が主張することと、ツールが実際にどう機能するかとのギャップが最も問題だと考えています。
その通りですね。ひどい例です。先ほどの胸部X線の例と同様ですが、さらに悪いのは、マーケティングされ、経済的なインセンティブが与えられていた点です。間違って分類された患者がいて、潜在的に害を受けた可能性があることは間違いありません。
もう一つの古典的な例で、同じように失敗したのが、OptumとUnitedHealthのアルゴリズムです。これについても説明していただけますか。これもまた、人々が差別を受けた恐ろしいケースですから。
はい、Optumというもう一つのヘルステック企業が、ハイリスク患者を予防的なケアのために優先順位付けするアルゴリズムを作成しました。オバマケアが導入される頃、保険ネットワークはコストを削減する方法を探し始めました。
コスト削減の主な方法の一つとして、非常にリスクの高い患者に予防的なケアを提供することが特定されました。この場合、患者の3%をハイリスク・カテゴリーに保持することを決定し、誰が最もリスクが高いかを決定する分類器を構築しました。
潜在的に、これらの患者に予防的な治療を提供できれば、救急室の受診や入院が減少する可能性があるからです。それ自体は良いのですが、アルゴリズムを実装した際に問題が発生しました。
全ての機械学習モデルには目標変数、つまり最終的に何を予測するのかが必要です。彼らが予測することにしたのは、患者がどれだけ支払うか、どれだけ請求するか、病院が患者を受け入れた場合にどれだけのコストが発生するかでした。そしてそれを使って、誰を医療ケアの優先順位に置くべきかを予測したのです。
驚くことではありませんが、白人の患者は病院の受診に関してより多くを支払うことができる、あるいは支払う傾向にあることが判明しました。おそらくより良い保険があるか、休暇を取れる職場環境が整っているなどの理由があるのでしょう。
メカニズムが何であれ、このアルゴリズムの結果として、同じレベルの医療予後を持つ黒人患者は、白人患者と比較してこのハイリスク・プログラムに登録される可能性が半分以下でした。つまり、予防的なケアを受ける可能性が大幅に低かったのです。
これは素晴らしい研究で、オーバーらによって2019年にScienceに発表されましたが、最も残念なのは、この研究が発表された後もOptumがこのアルゴリズムの使用を止めなかったことです。
ある意味、アルゴリズムは期待通りに機能していたからです。これは医療費を削減するためのアルゴリズムであり、最も必要とする患者により良いケアを提供するためのアルゴリズムではありませんでした。そのため、この研究が発表された後も、Optumはこのアルゴリズムをそのまま使用し続けました。
私の知る限り、今日でもこのアルゴリズムやその変形版が、Optumが提供する病院ネットワーク全体で使用され続けています。
ひどいですね。Scienceに掲載されたザド・オーバーの論文で暴露されたにもかかわらず、何も変更されていないのは異常です。信じがたいことです。
予測AIが失敗する5つの理由を素晴らしい表にまとめられていますね。その表も投稿に掲載させていただきます。これらのケース例で説明されたような内容ですね。
ここで予測AIについて異論を唱えさせてください。生成AIや大規模言語モデルとの間にそれほど明確な線引きができるのでしょうか。ご存じの通り、DeepMindのグループやその他の研究者たちは、マルチモーダルな大規模言語モデルを使って気象予報を行い、これまでで最も正確な気象予報の一つを生み出しています。
私もScienceで医療予測について記事を書きましたが、人のデータの全ての層を取り込んで、特定の状態のリスクが高いかどうかを予測しようとしています。電子カルテだけでなく、ゲノミクス、プロテオミクス、スキャン、検査結果、そして環境への曝露など、ありとあらゆるデータを含めています。
この点についてのお考えをお聞かせください。というのも、これは予測AIを否定された正当な理由と、これらのより洗練されたモデルが統合されている部分が重なってきているからです。マルチモーダルというと、テキスト、音声、映像、画像だけを指すと考える人もいますが、ここでは気象予報モデルや地震予測、その他のものに見られるような、データの多層的なマルチモーダル性について話しています。
本では十分に取り上げられていなかったこの点について、どのようにお考えですか。
はい、私の考えでは、二つの質問は少し異なる性質のものだと思います。気象予報のような問題については、生成AIや将来の予測に非常に適していると考えています。
重要な違いの一つは、人間とのフィードバックループの問題がないことです。個々の人間について予測を行うのではなく、地質学的な結果について予測を行っています。過去にそれらを予測するために使用してきた優れた微分方程式があり、それらは既にかなり良い結果を出しています。しかし、ディープラーニングはさらに一歩先に進んだと考えています。
その意味で、これは本章のコンテキストには当てはまらない非常に良い例です。なぜなら、私たちが考えているのは個々の人間に関する決定だからです。
二つ目の、個人に関するマルチモーダルデータ、ゲノミクスデータなど全てを組み込むというアプローチについては、それは有望だと思います。しかし、これまでのところ、個人に関する決定、特に重要な決定に使用されているのを見たことがありません。
なぜなら、多くの場合、人に何が起こるかについて非常に良い予測を行うことはできますが、それは全く疑問の余地がありません。しかし、これらの良い予測があっても、その決定に介入することは難しい場合があります。予測は相関の問題として扱われることが多いのですが、決定を下すことは因果推定の問題だからです。
この二つのアプローチが少し分離する部分です。私のお気に入りの例の一つは、肺炎の症状で来院した患者をスクリーニング前に解放すべきかどうかを予測するモデルです。
肺炎の症状で患者が来院した場合、その日のうちに帰宅させるべきか、入院させるべきか、ICUに移送すべきかを判断するものです。機械学習の研究者たちがこの問題を解決しようとしていた時、これは約20年前のことですが、彼らが開発したニューラルネットワークモデルは、肺炎になった後に合併症を起こすリスクが高い人を予測することに非常に優れていることが分かりました。
しかし、モデルは基本的に、肺炎の症状で来院した喘息患者は最もリスクが低い患者だと言っていたのです。なぜこうなったかというと、過去のトレーニングデータでは、そのような患者が来院すると、医療専門家が重症化する可能性を認識して直接ICUに移送していたからです。
結果として、肺炎の症状で来院した喘息患者は、実際には最も良いケアを受けていたため、集団の中で最もリスクが低かったのです。しかし、この予測を使って、肺炎の症状のある喘息患者が来院した時に帰宅させるという決定を下すと、それは破滅的な結果になる可能性があります。
これが、予測モデルを使って人々に関する決定を下すことの危険性です。繰り返しますが、決定の範囲と結果も様々です。データの中の興味深いパターンを見つけ出すために使用することは可能です。特に、少し大きな統計的レベルで、特定の下位集団がどのように振る舞うか、特定のグループの人々がどのように症状を発現する可能性があるかを見るためには有用かもしれません。
しかし、人々に関する決定を下す段階になると、問題解決のパラダイムが変わってしまいます。相関モデルを使用している限り、条件を変更した場合に何が起こるのか、意思決定メカニズムがデータが収集された時とは全く異なる場合に何が起こるのかを言うことは非常に難しいのです。
その通りですね。個人レベルでの、これら全ての新しく利用可能になった、あるいは利用可能になるべきデータの層を使用したマルチモーダルAIの使用は、理想的には今日の標準的なケアと比較する無作為化試験で比較されるべきです。そして、その決定が自然な経過を変えるのか、それが利点となるのかを確認する必要があります。それはまだ行われていませんし、私も同意します。ただ、将来に向けて非常に有望な道筋だと思います。
さて、予測AIの失敗について包括的な調査をされ、生成AIについての熱意や希望、興奮についても本の中で、そして私たちの議論の中でも触れられました。しかし、まだコンテンツモデレーションAIについて、あなたが別個に分類されたものについてはあまり議論していません。この点についての見解を簡単に説明していただけますか。
はい、コンテンツモデレーションAIは、ソーシャルメディアのフィードをクリーンアップするために使用されるAIです。ソーシャルメディアプラットフォームには、何が許可され、何が許可されないかについての多くのポリシーがあります。
スパムのような単純なものは明らかに許可されません。プラットフォームがスパムで溢れてしまうと、誰にとっても使い物にならなくなってしまうからです。しかし、ヘイトスピーチや露出、ポルノグラフィーなども、今日のほとんどのソーシャルメディアプラットフォームでは禁止されています。
これらのポリシーを実施する方法の多くは、今日ではAIを使用しています。例えば、Facebookに写真をアップロードする度に、AIモデルが実行されます。一つだけでなく、おそらく数百ものモデルが実行され、露出やヘイトスピーチ、その他プラットフォームの利用規約に違反する可能性のあるものを検出します。
ここ数年、何かが削除された時、例えばFacebookが投稿を削除した時、人々はしばしばAIを非難します。風刺を理解できない、画像の内容を理解できないなどと言って、AIの理解力の低さのせいで投稿が削除されたと主張します。
コンテンツモデレーションAIがソーシャルメディアの問題を解決するという主張が多くありました。特に、マーク・ザッカーバーグが2018年の上院証言で、AIがコンテンツモデレーションの問題のほとんど、もしくは全てを解決すると述べました。
コンテンツモデレーションAIに関する私たちの見解は基本的にこうです:AIはコンテンツモデレーションの単純な部分を解決するのには非常に有用です。単純な部分とは何か。基本的に、Facebookのようなプラットフォームで同じタイプのポリシー違反の大規模なトレーニングデータがある場合です。
大規模なデータセットがあり、これらのデータセットに明確な境界線がある場合、例えば露出やポルノグラフィーについては、これを自動化する分類器を作成するのは非常に簡単です。
一方、コンテンツモデレーションの難しい部分は、実際にはこれらのAIモデルを作成することではありません。難しい部分は境界線を引くことです。プラットフォーム上で何が許可され、何が許可されないかについて、これらのプラットフォームは本質的に言論に関する決定を下しているのです。
これは米国でも世界的にも非常に難しい話題です。本質的に、これらのプラットフォームはこの非常に難しい問題を規模で解決しようとしています。Facebookの場合、30億人以上のユーザー全員に適用されるルールを作ろうとしているのです。
これは必然的に、どの言論を許可し、どの言論を禁止するかについてのトレードオフを伴います。白黒はっきりとは言えないものが多くあります。私たちが考えるのは、AIはこのコンテンツモデレーションの難しい部分には適していないということです。
これは本質的に人間の問題であり、競合する利害関係を判断することに関するものです。人々がAIがコンテンツモデレーションの多くの問題を解決すると主張する時、彼らが見落としているのは、コンテンツモデレーションを正しく行うために必要な非常に多くのことがあるということです。
AIはこれらの十数個のことの一つを解決します。それは自動的にコンテンツを検出して削除することです。しかし、残りの全ては本質的に人間の決定を必要とします。これが簡単な要点です。
他の問題もあります。例えば、リソースの少ない言語ではうまく機能しません。ニュアンスに関してもうまく機能しません。本の中でこれらの課題についても議論していますが、これらの課題の一部は中長期的に解決可能だと考えています。
しかし、権力の競合する利害に関するこれらの問題は、中長期的にもAIの領域を超えていると考えています。
その通りですね。この分野については適切に特徴付けられ、AIの短所と人間の要因がいかに重要であるかを示されたと思います。
驚くべきことに、あなたはまだ28歳で、再現性や透明性、汎用AIの評価、AI安全性に関する論文を多数発表されています。AIスネークオイルに関するウェブサイトを運営され、より多くのことを収集し、執筆されています。
Facebookでのテクノロジー業界での経験、そしてコロンビア大学での経験もお持ちです。この分野の本当に若いリーダーの一人として活躍されていますね。ちなみに、あなたは私がグラウンドトゥルースでインタビューした中で最も若い人物です。かなりの差をもってですね。
これは多くの若者を惹きつける分野です。あなたのキャリアパスと、私たちの聴衆の子供たちかもしれませんし、聴いている人々自身かもしれませんが、彼らへのアドバイスについて少しお話しいただけますか。
まず、お褒めの言葉をありがとうございます。この仕事の多くは共同研究者たちとの協力によるものです。彼らがいなければ、私は決してこれらのことを成し遂げることはできませんでした。アーヴィンは素晴らしい共著者であり、支援者です。
キャリアパスに関して言えば、ジグザグだったと言えます。学部生の時は、大学院に進むのか産業界に進むのか、はっきりしていませんでした。少し機械学習に取り組んでいて、アカデミア以外の世界がどんなものか見てみる価値があると思い、偶然にもFacebookで働くことになりました。
その経験は非常に有益でした。プリンストンで多くの学部生と話をしますが、彼らが非常に気にしているのは、学部卒業後すぐにどの大学院に入れるかということです。しかし、それは今すぐ答える必要のある質問ではありません。
場合によっては、大学院に入る前に数年の産業界での経験を持つことが非常に有益だと思います。少なくとも、それが私の経験でした。
AIのような分野で働くことについて、毎日起こっている新しいことに追われてしまうのは非常に簡単です。ご存知かもしれませんが、AIは毎日500から1000の新しいarXiv論文が発表されています。
この急激な流れの中で、成功には一定数の論文や一定の基準が必要だという期待を自分に課してしまうかもしれません。しかし、それは多くの場合、逆効果です。
例えば、長期的に考える共同研究者を持つことは、私にとって非常に有益でした。この本は例えば、コンピューターサイエンスのコミュニティ内ではあまり評価されないようなものです。
CS(コンピューターサイエンス)コミュニティは、本よりも査読付き論文をずっと重視します。それでも私たちは本を書くことを選びました。なぜなら、本の影響力や寿命は、どんな単一の論文よりも長いと考えたからです。
他の具体的に有益だと感じたことは、コミュニティの残りの部分が目指しているように見える指標とは異なる指標を最適化することです。特に、急速に移動する分野では重要です。
最後のアドバイスは重要ですね。コンピューターサイエンティストであれ、生命科学者であれ、誰であっても、自分たちの聴衆がずっと広いということを理解していないことが多すぎます。この本のような形で、あるいはオプエド(論説)やエッセイ、様々な形で、コンピューターサイエンティストだけでなく一般の人々に向けて発信することは重要です。その意味で、この本は素晴らしい貢献だと思います。
タイトルは好きではありません。偏りすぎていて、内容も本当にそれを強調しすぎているからです。AIのポジティブな面についての続編を書いてほしいですね。
本を読んで、私はあなたの声を感じました。アーヴィンについて「アーヴィンはこう」「アーヴィンはああ」と書かれていて、アーヴィンは編集者のような役割だったのかなと思いました。あなたが最初の草稿を書いて、彼が手を加えたという感じでしょうか。
いいえ、全くそうではありません。私たちは基本的に並行して書き始めました。私が章の半分の最初の草稿を書き、彼が残りの半分の最初の草稿を書きました。これは最後まで続きました。草稿を書いて相手に渡し、出版社に送るまでこれを繰り返しました。
なるほど、あなたが書いた章で私がそう感じたのかもしれません。これが共著の本来の姿ですからね。
シーズさん、お会いできて本当に良かったです。この本の出版、おめでとうございます。私は反対意見や不同意を表明しましたが、それはそれで良いことです。この本はAIの懐疑論者たちの心強い味方となるでしょう。
ポジティブな面が十分に表現されていないと思いますが、それが失われないことを、そしてあなたがこの仕事を続け、良心の声となることを願っています。
ご存じかもしれませんが、私はAIの分野で、あなたのように安全性や透明性、倫理的な問題に取り組んでいる他の人々にもインタビューしてきました。あなたのような人々が必要なんです。これが軌道に乗せ、脱線させないよう、すべきでないことを防ぐのに役立つからです。
素晴らしい仕事を続けてください。ご参加いただき、ありがとうございました。
ありがとうございます。本当に楽しかったです。

コメント

タイトルとURLをコピーしました