

ここで、私の友人であるラリー・レックを紹介できることを大変光栄に思います。彼はハーバード大学の法学教授であり、クリエイティブ・コモンズの創設者の一人で、我が国における技術と民主主義文化に関する第一人者の一人です。
ジョシュが私にこの非常に重要なイベントの基調講演を依頼した際、公共AIという課題について、困難で重要ではあるものの、希望を持てるものとして話すことを望んでいたと思います。私はジョシュが想定したその目標を達成するために一生懸命努力しましたが、残念ながら希望を脇に置いて、この課題がいかに困難で重要であるかを皆さんに理解していただくしかありません。
ジョシュの考え方には同意します。現在進行中の民間のAIエコロジーを補完する新しいエコロジーをどのように奨励するかを考える必要があるという枠組みは素晴らしいと思います。しかし、私のような年配者、もしかしたらここで最年長かもしれませんが、過去30年間の社会における技術の進化から何かを学ぶ必要があると考えています。ウェブ1.0、ウェブ2.0、ウェブ3.0、どのウェブについて話すにしても、少なくとも他の文脈で犯した同じ過ちを繰り返さないように学ぶ必要があります。
少なくとも同じ過ちを繰り返さないことができれば、それはこの重要なプロジェクトに一生懸命取り組む理由になります。それが私の提案です。その提案は希望とは非常に異なりますが、今日私が提供できるものはそれだけです。
では、AIと呼ぶものについて考えたい、あるいは話したい方法から始めましょう。多くの人々はAIをSFのような劇的な方法で考えていますが、私はそれを可能な限り退屈な方法で考え、話したいと思います。SFのような方法ではなく、単なる一種のツール、能力、パワーとして考えたいと思います。
最初に問うべき質問は、公共AIの能力が、公共がそのツール、能力、パワーにアクセスできることを確実にする能力であるということです。なぜなら、公共は公共の事柄を行うためにAIの能力を必要としているからです。私たちは既に、AIが公共の仕事をより良く行う上で持つ驚異的な可能性を見ることができます。
私の分野である法律では、法律をより効率的に、より安く、より効果的に行う驚異的な能力を見ることができます。法の支配を広く広めることができます。現在の完全に腐敗し非効率的な法システムは、最も裕福な人々のごく一部にとってはうまく機能していますが、ほとんどのアメリカ人にとってはほとんど機能していません。
これは、社会保障給付の控訴手続きの処理を待つ時間の量を示すグラフです。1年かかる控訴処理が、単純な1日未満に変わる可能性があります。さらに、判断が間違っていると信じる人のために控訴を補助するシステムを加えれば、補助された控訴と超高速処理により、既存のアナログ処理システムよりもはるかに良い結果が得られます。
ここでのポイントは、AIをツールとして使用することで、政府がより良く仕事を行う能力を向上させる文脈が無数にあるということです。では、これは希望の理由になるでしょうか?
私は出発点として、この素晴らしい本を取り上げます。この本を読んだ人は何人いますか?素晴らしい。私たちは皆この本を読むべきです。しかし、私はこれを、政府が既にここにある技術の驚異的な可能性を受け入れ、活用する能力のためのベースライン設定テキストとして取り上げます。AIではなく、ウェブアプリ、既に持っている技術で可能なことを行う能力です。
しかし、彼女の本が示すように、私たちは実際には、これらの単純なツールさえも活用できていません。疑いなく、不十分な投資のため、疑いなく、悪い開発戦略のためですが、私は最も重要なのは、技術を法律の価値や政策を拡張し、具現化するものとして見る失敗だと思います。
多くの人は、私が何百年も前に『コードと他のサイバースペースの法則』で発表したこの古い図の更新版をよくご存じだと思います。これは人々が考える画像ですが、私が非常に重要だと思うのはこのバージョンです。これら4つの様式がすべて規制効果を持っているということだけではありません。もちろんそうです。法律がこれらの様式の規制効果を取り込み、それを自分のものにすることができるということです。
法律をより良く行う方法として、それぞれの様式を進化させ、変革する方法を考えることができます。それをどのように行うか、規範を使って法律の政策をどのように進めるかは複雑な話です。私は最近出会ったこの本を強くお勧めします。デモン・カンタによる、コミュニティや国の目標や政策をより良く実現するための変革的規範の修正と実施についての本です。
市場をどのように使って法律の理想をより良く進めるか?法と経済学の教えは、市場での反応を引き起こし、法律の目的をより良く進めるように法律を設計し、作成する方法の例で満ちています。コードやアーキテクチャをどのように使って法律の考えをより良く進めるか?
ここでは、フーコー、ロバート・モーゼス、ジェニファーの作品を考える必要があります。仮想空間であれ現実の空間であれ、発見された現実が法律の仕事をより良く行うのにどのように役立つかを理解するためです。
重要なのは、可能性を理解し、それをほぼ自律的な力として考えることですが、法律の民主的な目的に答えることです。実際、私は時々、現在の仕事を辞めて新しい法科大学院を始めることを空想します。私はDellにそれを描写してもらい、本当にコードについて興奮しました。
しかし、法律、規範、市場、コードの間のこの相互作用に焦点を当て、様々な潜在的な規制者について洗練された規制者が、法律をより良く行うプロジェクトについてどのように考えるかを考える法科大学院です。正しい規則作成プロセスを得るためにAPAをどのようにトリガーするかを考えるだけではありません。それは疑いなく重要なことですが、しばしばそれは最も効率的で効果的な方法ではありません。
私たちはそのトレードオフについての本能や直感を必要としていますが、まだそれを持っていません。しかし、私の非希望的なポイントは、AIに到達するずっと前からでさえ、これさえも私たちは失敗してきたということです。そして、私たちはそれを教訓とし、技術開発のこの次の段階のために何かより良いものを準備することを考えるよう緊急に促すべきです。
これが第一のポイントです。公共AIについて、AIの能力が公共行政を強化する可能性は非常に大きいですが、現在までに実現されているのはごくわずかです。
ポイント2です。公共AIの問題の2番目の意味、AIは現在、公共に影響を与えています。現在、それは主に民間の活動が公共的な効果を持っています。経済学の言葉で言えば、公共的な外部性があると言えるでしょう。
簡単に、非論争的に始めましょう。ある意味で、それは環境への影響があります。地球温暖化の真っ只中で、私たちはこれらの機械を動かし、AIを構築するために莫大なエネルギーを燃やしています。Googleはかつて炭素中立を約束していましたが、もはやその約束はしていません。
私たちは、AIという民間の目的を進めるために、莫大な量の炭素、追加のエネルギー消費を燃やしています。そして、何のためでしょうか?もし私たちが同じ量のエネルギー、同じ量のリソースを本当に公共のためになることに費やすことを決めていたら、世界はどのように違っていたでしょうか?私たちはより良い状態にあったでしょうか?
私は、そうなっただろうと言っているわけではありません。しかし、私たちが選択をしたことを認識してほしいのです。彼らが選択をし、その選択に資金を提供したからです。そして、私たちは現在、彼らが既に生み出している外部性を内部化させるのに十分なシステムを持っていません。
しかし、もっと論争的な方法で続けさせてください。リスクについて話します。人々はこれを安全性と呼びますが、私はこの文脈でそれを使うのは完全に愚かだと思います。安全性ではなく、リスクです。私はそれを破滅的リスクとして考えたいと思います。私はそれを説明する言葉を作り出そうと思います。私はそれをcriskと呼ぶことにします。
criskは、私たちが考える必要があるものです。なぜなら、criskは外部性だからです。破滅的な害を及ぼす可能性のある機械を構築することは、外部性です。そして、経済学から私たちが知っていることは、民間企業の内部にはその外部性を内部化するための十分なインセンティブがないということです。それを行うことは意味がありません。だから、彼らはそうしないでしょう。なぜそうするでしょうか?
私たちは2008年の金融崩壊でそれを見ました。ウォール街は、これらの驚異的なAI駆動の金融商品を作り出し、経済を吹き飛ばしました。彼らはそのリスクを内部化しましたか?いいえ、なぜなら、彼らは経済が吹き飛んだら、政府が介入して救済してくれると思っていたからです。リーマン・ブラザーズはこれで捕まりましたが。
だから、なぜそのリスクを内部化し、その間に利益を下げる苦しみを味わうのでしょうか?これは、市場で運営される民間企業の基本的なことです。彼らには内部化するための十分なインセンティブがありません。つまり、政府の役割があります。規制の役割があります。
実際、AIの企業さえも「規制しなければならない」と言っています。「我々は多くの怖いことをするつもりだ。規制する必要がある」と。
そこで、おそらく今日、カリフォルニア州で決定されている非常に重要な取り組みがあります。SB 1047を規制することです。もちろん、カリフォルニア州が10B 1047を出した時、彼らの反応はおおよそこのようなものでした。
私の友人のバート・ドウィットはツイートしました。オープンソースAIの大きな支持者で、開発者は微調整されたモデルに依存しています。この法案は事実上それを禁止するでしょう。彼はまた、私たちが一緒に撮った私が「AIを再びオープンにしよう」という帽子をかぶっている個人的な写真を投稿しました。
私は誇りを持って言いますが、AIを再びオープンにすることに賛成です。しかし、もちろんSB147によって規制されるモデルは非常に大規模なモデルです。バートが重要な仕事をしていることは確かですが、3 * 10の25乗の整数または浮動小数点演算と同等またはそれ以上の力で微調整を行っているとは思えません。
1047が現在規制しようとしているのは非常に小さなセットです。そして、この法案の下で作成される新しいツァーに権限を与え、将来的にその制限をリセットすることができます。これはcriskラインに基づいています。
そして、アンドレ・イングは言います。1047は長く複雑な法案だ。ああ、神よ、それは22ページしかありません。それは現在存在するAI法案の中で最も短く、最も単純なものかもしれません。それは全く長く複雑な法案ではありません。
そして、人々は言います。ここには規制の捕捉がありますね。つまり、独占的AIによるオープンソースAIに対する捕捉ですか?そして、私はそれを引用符で囲みます。なぜなら、Llamaの材料やLlamaの材料の出力や結果を使用して、他の大規模言語モデル(もちろんメタを含む)を改善しないという条件を含むライセンスは、オープンソースライセンスではありません。だから、それは「オープンソース」ライセンスと呼ばれていますが、実際にはそうではありません。
では、独占的なものがオープンソースに対抗しているのでしょうか?そしてそれがこの法律の目的なのでしょうか?実際はそうではありません。なぜなら、1047法はオープンソースモデルを明示的に除外しているからです。オープンソース開発者がもはやそれらをコントロールできなくなった時点で。つまり、開発者を独占モデルと同じ立場に置いているのです。
規制の捕捉が大手AI企業によって行われているのでしょうか?再びそうではありません。なぜなら、これらの企業は今日カリフォルニア州で法案を阻止しようと、あるいは知事に拒否権を行使させようと、できる限り強く反対しているからです。
ここで主張されている規制の捕捉は、効果的利他主義者として知られる危険な魂のこのグループによるものです。これらの人々は基本的に、サム・バンクマン・フリードです。彼は刑務所から、カリフォルニア州議会を操作してこの法案を可決させ、私たちをこれとこれから守ろうとしていると主張されています。
そして、これが規制の捕捉だと彼らは言います。もちろん、ここにミームが議論よりも上手く表現している完璧な例があります。そして、我々は小さなAI安全性非営利団体がこの法案を通過させるためにロビー活動をしているという陰謀論を作り出しました。
私のポイントは、これは完璧ではないということです。どの法案も完璧ではありません。問題は法案ではなく、プロセスです。それは確かに腐敗した捕捉プロセスです。しかし、それは小さなAI安全性非営利団体によって捕捉されているわけではありません。
そして、より大きなポイントは、この重大なリスクさえも、我々は外部性を内部化するために何かを実行する能力がないということです。ネバダ州の西部のどこでも、規制に対するバイアスを克服することは、その声が最も大きく叫んでいます。
第三のポイントです。では、ジョシュの文書で美しく明確に述べられているように、公共AIのプロジェクトを支援するために、我々は積極的に何をすべきでしょうか?理想と戦略を特定し、前進することです。
最初に認識すべき点は、このビジョンを開発し、明確に表現するための時間がいかに短いかということです。私はインターネットや知的財産権について最後に書いた本を、インターネットのビジネスモデルが明確になる前に実際に出版したことを考えていました。
エンゲージメントのビジネスモデル、AIを使用してインターネットユーザーのエンゲージメントを最大化するビジネスモデルがはっきりしてから、これらの企業が何をするかを抑制することは不可能でした。なぜなら、それは非常に利益の高いビジネスモデルだったからです。彼らはそのビジネスモデルの下で利益を最大化するために、できる限り曲げようとするでしょう。
フランセス・ホーガンがFacebookの内部告発者になった時、私は彼女を代表する栄誉を得ました。Facebookファイルを見ると、Facebookの優秀なエンジニアたちがプラットフォームの害を最小限に抑えるための戦略を経営陣に提案した例が多数あります。しかし、それらの戦略がエンゲージメントと安全性の間で衝突するたびに、エンゲージメントが勝ちました。毎回です。
エンゲージメントを最大化するために何でもするという姿勢は、ビジネスモデルによって説明されます。あるいは、最大の喜劇俳優の一人が言ったように、かつては土地を植民地化することがお金を稼ぐ方法でした。私たちは地球全体を植民地化しましたが、もはや資本主義の企業が拡大できる場所はありません。
そして彼らは、人間の注意力が今や彼らが植民地化しようとしているものだと気づきました。これらの人々は、あなたの人生の1分1分を植民地化しようとしているのです。あなたが持っている自由な瞬間は全て、あなたが電話を見る瞬間であり、彼らはあなたに広告をターゲティングするための情報を収集することができるのです。
これが起こっていることです。私たちがどれだけ良い会話をし、会話を人間化しようとしても、ビジネスの仕組みはそちらに向かって進んでいます。市場のためにそうなのです。それは来ています。冬が来ているのです。何でもします。
そして、「何でもする」ということが正当化されます。これは私が読んだ中で最も驚くべきメモの一つだと思います。Facebookの最高幹部の一人であるアンドリュー・ボズワースが、2020年の直前に全スタッフに向けて書いたメモです。
もちろん、多くの人が2016年に起こったことが繰り返されることを非常に恐れていました。多くの人がFacebookがドナルド・トランプを当選させる上で重要な役割を果たしたと信じていたからです。
このメモの最後で、彼はマイケル・モスの「塩、砂糖、脂肪」という本について話しています。基本的に、「塩、砂糖、脂肪」の話は、これらの加工食品会社が徐々に自社製品が顧客に害を与えていること、顧客にとって毒であることを認識していったということです。
クラフトのような一部の会社では、毒性のある食品の製造をやめて、顧客にとって健康的な食品を作ろうと言い出した幹部が現れ始めました。「この種の加工食品を作るが、健康的な加工食品にしよう」と。彼らはそうしました。しかし、もちろん誰もそれを好みませんでした。
そのため、クラフトの事業はこれらの食品を中心に崩壊し、非常に早くそれらの幹部は追放され、古い幹部が戻ってきて、毒性のある加工食品を生産する古い方法に戻りました。
ボズワースは、少なくとも重要な国政選挙という文脈で、情報生態系の中で毒性のある情報を広めないようにするために、Facebookが何かをすべきではないかという提案に対して、その話を引用しています。
そして、これが彼が言っていることです。「人々が発見するであろうことは、アルゴリズムが主に人類自身の欲望を露呈させているということです。良くも悪くも。これは砂糖、塩、脂肪の問題です。その名前の本は、表面上は食品についての話ですが、実際には『企業の家父長主義』の限界的な効果についての話です。」
「人々を傷つけないことが家父長主義だというのです。しばらく前、クラフト食品には消費者の健康のために販売する砂糖を減らそうとしたリーダーがいましたが、顧客は砂糖を欲しがりました。そのため、彼らはただクラフトの市場シェアを減らしただけでした。健康状態は改善されませんでした。CEOは仕事を失い、新しいCEOは4倍詰めのオレオを導入し、会社は栄光に戻りました。」
「人々に自分で決定を下すためのツールを与えることは良いことですが、彼らに決定を押し付けようとしてもめったにうまくいきません。」そして彼は「あなたにとって」と言いました。つまり、Facebookにとってということです。
だから、ここにあるのは、私たちには何もできないということです。私たちはただ公衆が望むものを与えているだけです。そして、それが公衆が望むもので、それが彼らに害を与えるのであれば、それは私たちの問題ではありません。
これは驚くべきことではありません。企業はAIです。彼らはアナログAIです。彼らは組み込まれた目的関数を持っています。目的関数はお金を稼ぐことです。そして彼らはその目的関数に向けて道具的に合理的です。何でもします。
ここで注目すべきは、私たちがデジタルAIモデルが社会の価値観に合致しているかどうかについて多くの時間を費やして議論していることです。これらのデジタルAIは、社会に有害なことをしないように、正直で公共のことを気にかけるように調整されていますか?
なぜ私たちはアナログAIについてそのように問わないのでしょうか?エクソンの利益は公共の利益と一致していますか?メタ、ゴールドマン・サックスはどうでしょうか?
これらのデジタルAIは、アナログAIのツールになるでしょう。それは彼らの目的をより良く達成するために使用されるものです。そしてもちろん、規制されていない空間では、それらの目的は社会の利益と必然的な関係はありません。
ここでのポイントは、公共AIにとって今が重要な時期だということです。AIのビジネスモデルが明確になる前に。彼らはまだどのようにお金を稼ぐかわかっていません。多くの人々は、OpenAIが1年以内に閉鎖するだろうと考えています。なぜなら、彼らは巨額の赤字を抱えており、明確な収益化の方法がないからです。
この文脈で私たちがどのように対応するかを考える際、環境的に考える必要があります。それがジョシュが公共AIをフレーミングした方法であり、私はそれが正しいと思います。手遅れになる前に。
そこで、公共AIを可能にする環境についていくつかのポイントを挙げます。最も単純で明白なのは、この仕事を支援するための大規模な新しい資金が必要だということです。
もちろん、この都市ではその見込みが非常に低いので、ここで話を終えることもできますが、これが客観的に必要としているものです。大規模な資金提供です。あらゆる方法で実験するためです。単に特定のビジネスの利益や独占的AIの特定のビジネスモデルを推進する可能性のある方法だけでなく。
そして、私たちはどこでもオープンソースAIが必要です。そこにはアスタリスクがあります。後で戻ってきますが、これは重要な環境的な文脈です。
この意味で、私の友人バートは完全に正しいです。オープンソースを通じてAIをコモディティ化すれば、スタートアップ、イノベーター、その他の人々がより速く、より手頃な価格で革新することができ、より大きな成功につながります。透明性のあるAIモデルは信頼を構築し、より高い採用率につながります。絶対に正しいです。
私たちは、大量の公共データを取り込み、1つか2つの民間企業が独占的にアクセスできるようにする排他的な契約を禁止することを意味する、すべてのデータのオープンデータ戦略が必要です。
そして、私たちは、図書館やブルースター・ケールのような民間団体でアクセスできるデータを活用して、そのデータが普遍的にアクセス可能であることを保証する必要があります。
そして、私たちは良いAIに投資する必要があります。単に私たちのため、人間のためだけでなく、彼らのため、AIのためにも。
私の好きな本の一つ、マッズの「Scary Smart」の中で私が最も好きな部分は、スーパーマンについて考えるよう言っている部分です。スーパーマンの物語の重要な部分は、彼がカンザスに着陸し、人生の目的は世界をより良い場所にすることだと信じさせる両親に育てられることです。
モは言います。「もし代わりに彼がニューヨークに着陸し、両親がヘッジファンドマネージャーで、『人生の目的はできるだけたくさんのお金を稼ぐこと、できるだけたくさん盗むこと、あなたを止めようとする人を阻止することだ』と言ったら、スーパーマンはどうなっていたでしょうか?」
そして彼は言います。「今日、私たちがAIをどのように訓練しているかを考えてください。私たちは彼らを販売、ギャンブル、大衆の操作、利益の最大化、スパイ、殺人、彼らが作るプロセスを守るために訓練しています。私たちは彼らを反スーパーマンの方法で訓練しているのです。」
そして、代わりに私たちは彼らを訓練し、この安全で良いAIの実践を広めるべきだと言っています。
そして最後のポイント、本当に皆さんに理解してほしいポイントです。なぜなら、これは人々が十分に考えていないと思うポイントですが、私は重要だと考えているからです。私たちは安全なAIのための技術的環境について考えなければなりません。
オープンソースAIの周りに私が置いたアスタリスクは、ある能力レベル、ある力のレベルでは、オープンソースAIがリスクの懸念を引き起こすという正当なポイントを認識するためのアスタリスクです。
これはオープンソースAIに対する標準的な批判です。コントロールの喪失のリスクは巨大です。AGIやさらに大きなものは、「ねえ、私はAGIになりました」とは宣言しません。そんなに愚かではありません。それはこっそりと近づいてきます。そして、それが現れた時、「はい、ここにGPLライセンスが添付されています」というのは、人々を恐れさせます。
オープンソースAIに関する恐れは、一度それが公開されてしまえば、どうやって取り戻すことができるのかということです。少なくとも独占モデルであれば、独占企業は「これを発見したら、シャットダウンできます。APIなどを監視できます」と言います。
そして、これは独占的な閉鎖的開発のみを支持する議論です。私はその議論に反対です。私はオープンソースに賛成です。しかし、このポイントを理解してください。リスクはモデルが展開されるアーキテクチャの関数です。
もし、チップ上に一種のガバナンスを持つアーキテクチャがあれば、例えば、スイッチをフリップしてサーキットブレーカーをオフにし、実行を継続できないようにする最小限のガバナンスさえあれば、リスクは最小化されるでしょう。
このチップ上のガバナンスが効果的で信頼性があり、信頼できるものであれば、オープンソースに対する議論は消えるでしょう。なぜなら、オープンソースが外に出て、ある種の怪物になり、あらゆる種類のことをする可能性があると言えるからです。しかし、それが動作しているインフラストラクチャが悪い動作に抵抗できることを確実にする能力があれば、独占的なものよりもオープンソースを好む議論は少なくなるでしょう。
効果的で信頼性があり、信頼できるものであれば。それが大きな「もし」であることは理解しています。しかし、もしそれが真実であれば、公共AIの最も重要な要素を支援することができます。公共AIは、一般的に公共に利益をもたらし、広がる開発能力を支援し、推進する環境の中にあります。
この希望的な絵を私が示唆したものの下で阻止しているものは何でしょうか?もちろん、オープンには言いませんが。それは私の給料をはるかに超えています。この希望は、機能する政府に依存しています。
私はDollyに私たちの政府の絵を描いてもらいました。これがDollyが与えてくれた絵です。それはあまり正しくありません。いずれにせよ、それは不公平です。なぜなら、ポイントは彼らがピエロだということではないからです。
ポイントは、彼らを取り巻くインセンティブ構造と彼らの目的関数を考えると、彼らは合理的だということです。彼らは、1%の中のごく一部から、その中の大部分がシリコンバレーに住んでいる人々から、30%から70%の時間を資金調達に費やすことは合理的なのです。
私たちが彼らに長い間生きさせてきたシステムを考えると、彼らは合理的です。少なくとも彼らの資金調達が公的なものでない限り、彼らが推進する政策は公共AIを支援しないでしょう。
18年前、子供のアーロン・シュワルツが私を恥じ入らせ、技術と著作権に関する仕事を諦めさせました。彼は、私がここで話をして、この腐敗を終わらせるための戦いに取り組むのを見てとても怒るでしょう。私はまだやるべきことがたくさんありますが、皆さんもそれを手伝うべきです。
オープンソースAIのエコロジー、公共AIのエコロジーは、実際に意味のあることを行う能力を持つ政府に依存しています。キャンペーン資金を集めるのではなく。
ありがとうございました。
コメント