私がAIじゃないことを証明しようとした話

9,092 文字

YouTube
作成した動画を友だち、家族、世界中の人たちと共有

さて、アダム、僕たちのチャンネルが始まってからもう9ヶ月くらいになるよね。でも、3ヶ月前くらいから急に「これってAIが作ったものじゃないの?」っていうコメントがたくさん来るようになったんだ。みんなAIポッドキャストのことを言っててさ、僕たちは動画を作ってるのに、なんでだろって不思議だった。でもあとで全部わかったよ。ノートブックLM!ノートブックLMが僕たちの宿敵だったんだ。

ノートブックLMっていうのは、個人用のAIリサーチアシスタントなんだ。ポッドキャストだって作れちゃうんだよ。ちょっと聞いてみて、どう思うか見てみよう。AIが人間っぽく聞こえるようにプログラムされてるいろんな方法が、実は本物の人間の話し方を人工的に感じさせちゃってるんだよね。面白いよね。うん、面白い。で、で、で、でね。うん、そうそう。このことについてどう思う?例えば、なんで息してるの?それが一番の疑問だよね。そうだよね。

でさ、こういうコメントをもらってるのって僕たちだけじゃないんだよ。僕、C-17っていう飛行機を撮影したことがあって、それがすぐ後ろにあるやつなんだけど。その絵、6ヶ月もかかったんだよ。そしたらクライアントが「これ全部AIだろ」って怒っちゃってさ。なんかガッカリしたし、顔を叩かれたみたいな気分だった。聞いてよ、僕、この人間が、ひどい脚本で木で鼻をくくったみたいなスピーチをやったんだから。

冗談っぽく言ってるけど、何かAIだって言うのは簡単なのに、そうじゃないって証明するのがめっちゃ難しいっていうのは、正直かなりイラつくよね。でも僕はそれでも諦めないよ。僕の目標は、自分が本物だってみんなに証明すること。特別なカメラアプリを使って、デジタルで本物だって記録をつけてさ。C2PAっていう新しいシステムが、僕たちの共有する現実がまだ残ってるかどうかを守る手助けになるか試してみたいんだ。

まず、オンラインで人がコンテンツとどう関わってるかを示す混乱マトリックスで状況を整理してみよう。この枠の中には、本物で、本物だと思われてる記録があるんだ。写真とか動画とか、本当にあったことの音声とかね。これは最高だよ。情報そのものだよね。で、次に偽物で、偽物だってわかってるメディアがある。

これにはAIアートもたくさん含まれるけど、政治的なメッセージとか、生成されたポルノとかもね。見てる人が偽物だってわかってれば、害はあるかもしれないけど、騙されることが一番じゃないんだ。こっちには、偽物なのに本物っぽく見えるメディアがある。これをディープフェイクって呼ぶんだけど、ここで詐欺がめっちゃ増えてて、偽情報の脅威がデカくなってるんだ。

ディープフェイクが増えてきたせいで、誰のことも何のことも信じちゃダメで、全部疑えって言う人もいるんだ。ワシントンポストのインタビューを受けた研究者もそんな感じのこと言ってた。でもそれだと、こっちのミスをしやすくなっちゃう。本物なのに偽物だと思われるメディアだよ。どうやら僕たちの動画も一部の人にはそう見えてるみたいだけど、本物の大事な証拠が誰かに信用されないように仕向けられてる場合もあるかもしれない。

弁護士たちはそれを「嘘つきの配当」とか「ディープフェイク弁護」って呼んでて、「俺じゃないよ」って言うだけなんだ。シャギー弁護だね。AI時代のためのシャギー弁護。このティーンがビデオでベイプしてるところを撮られて、近所のママがチアリーディングのコーチにそのクリップを送ったときも、そんな感じで逃げようとしたんだ。ビデオの私じゃないよって。

その子はディープフェイクだって泣き叫んで、話が全国メディアに飛び火して、テレビ映画まで作られちゃった。でも警察が、ビデオが偽物だって思う理由はないって認める前だったんだよ。実際、この線引きってちょっと曖昧なんだよね。部分的に本物で部分的に生成されたものもあるから。でもざっくり言うと、これがAI企業がたった数年で作っちゃった混乱なんだ。

今、何百万もの愛国者が毎日このプロジェクトに投資してるよ。カマラが空港でズルしたの、誰か気づいた?好きなセレブとキスしたい?警察はビデオが偽物かどうか確認できないって。孫の声そっくりだったよ。うわ、クリスタルのマグカップで完全に騙されちゃったね。みんなの最初の反応ってさ、AIで作られたメディアにラベルつけなきゃ、偽物をタグ付けして騙されないようにしなきゃって言うよね。

で、カリフォルニアもEUも、AI企業にそれを義務づける法律を通したんだ。でもそのやり方にはいくつか問題があるんだよ。インスタのリンクでいいよね。フィット・アイタナ。アイタナ・ロペスってAIインフルエンサーなんだ。うわっ。この人、本物じゃないんだ。本物じゃないよ。モバイルだと「AI情報」ってラベルが出てて、位置タグとちょっと一体化してる感じだね。

その投稿のコメント欄見てみて。これ全部AIの人たちなの?AIが他のAIと話してるだけじゃん。インスタで何が起きてるかっていうと、AIラベルはあるんだけど、任意なんだ。なるほどね。だからこのアカウント、ラベルの使い方が一貫してなかったりするんだ。うん、任意だと何が本物で何が偽物か見分けるのにあんまり役立たないよね。

ごめん、これで数日インスタのアルゴリズムがめちゃくちゃになっちゃうよ。うん、そうだね。じゃあ、AIラベルを強制にしたいとしたら、どうする?2つの選択肢があるけど、どっちも大規模にはうまくいかないんだ。ディテクターは、何かがAIで作られたかを予測するように訓練されてるんだけど、正確さがバラバラなんだ。

でも仮に10回中9回正しかったとしても、そんなの全然ないけど、それでもソーシャルメディアの投稿にラベルつけるには頼りにならないよ。偽陽性の結果で、誰かの写真をAIだって傷つけるような言いがかりつけちゃってるし。2つ目の方法は、生成時に見えないウォーターマークを埋め込むこと。

グーグルがウォーターマークシステムを出したんだ。それでAI企業は、自分たちのツールで生成されたものかチェックできる。でも悪い奴らはウォーターマークつけないオープンソースモデルを使ってるからね。受け入れるのちょっとキツイけど、全部のAIメディアにラベルつけるなんて無理なんだよ。だから問題は、一部だけにラベルつけたらどうなるかだよね。そこで「暗示的真実効果」っていう言葉に出会ったんだ。

要するに、AIラベルがあちこちで見慣れてて、そしたらラベルがないものに出会ったとき、「ああ、これAIじゃないんだろうな」って思うってこと。頭の中で考えてた例え話があるんだけど、M&Mが入ったボウルがあって、そのM&Mが世界で本当に起きた出来事の記録だとするよね。で、誰かがそのM&Mのボウルにスキットルを入れ始めたとする。

スキットルは、出来事の記録っぽく見えるけど、実際には起きてないものだよ。最初はスキットルを別のボウルに出そうとするよね。でもスキットルが作りやすくて、急にたくさんの人がボウルにスキットルを入れ始めたらどうなる?その戦略をひっくり返して、M&Mを救わなきゃいけなくなると思うんだ。

うん、もしM&Mにスキットルがコピーできない「m」ラベルをつけられたらね。この動画、実はキャンディーがスポンサーじゃないよ。GiveWellがスポンサーなんだ。おお、GiveWellって何?GiveWellは非営利団体で、めっちゃ面白いよ。寄付を受け取って、それを世界中の人の人生に大きな影響を与えるだろうって信じてる慈善団体に振り分けてるんだ。

それってどんな研究に基づいてるの?お金の額とか、どう使われるかとか、どれくらい影響があるかとか見てるとか?うん、1ドルでどれだけ人の人生を良くできるかみたいな感じだね。で、めっちゃ長いレポートをいっぱい書いてて、誰でも無料で読めるんだ。

うわっ、スクロールしても終わりが見えないよ。このレポートずっと続いてるね。彼ら、わからない部分についてもめっちゃ透明に書いてるよ。「これについては完全に確信はないけど、この慈善団体は高い影響があると思う」って感じで言ってるんだ。

アメリカだと寄付は税金控除の対象になってて、GiveWellはそこから手数料を取らないんだ。だから寄付したいなら、givewell.orgに行って、チェックアウトで「どこで知ったか」って聞かれたらYouTube選んで、バーのところにHowtownって入れてくれれば、僕たちが送ったってわかるから、他の人を助けることで僕たちも助けられるよ。

それよりいいことってある?めっちゃクールだね。じゃあ、ディープフェイクの問題にこだわるんじゃなくて、こっちで進歩させられないかな?本物の記録が簡単に偽物だって否定されないようにするってこと。それで僕の挑戦に戻るんだけど、でっかいハトと一緒に写真撮りに行ったんだ。イヴァン・アルゴテっていう人の「ダイナソー」っていう彫刻だよ。

でも普段のカメラじゃなくて、Truepicっていう会社のカメラアプリを使ったんだ。彼ら、普通は保険の請求認証とかビジネス向けにやってて、一般には公開されてないんだけど、僕にC2PAっていうシステムを試させてくれたんだ。それってコンテンツの出所と真正性を保証するための連合って意味だよ。

アドビが主導してる取り組みなんだけど、生成AIの大手企業とかも含むいろんな会社が参加してる。暗号で封印されたメタデータを使って、メディアがどこから来たのか、どう変わったのかを見分けられるようにするアイデアなんだ。暗号で封印って何だっけ?

暗号で封印されたメタデータだよ。それってどうやって作るの?聞いてくれて嬉しいよ。じゃあ行くよ。メタデータってデジタルファイルにつけられた情報で、いつ作られたかとかどうやってとかが含まれてるんだ。問題は、普通のメタデータって誰でも編集できちゃうこと。この画像をAIで変えたら、メタデータエディター使ってiPhoneの写真っぽく見せかけることもできちゃう。

じゃあ、どうやって僕の写真が本物だって証明できるの?一つの方法は、デジタルなセキュリティ封筒に入れて、カメラアプリの署名で封印すること。そうすれば他の人が信頼できるソースから来たって確認できるし、封筒にちょっとした参照写真もついてて、それと画像自体を比べて変更点を探せるんだ。

それがC2PAが作ってるものだよ。オープンソースのシステムだから、画像を作るどんなツールでもこの封筒を作って署名できるんだ。封筒を開けるのはインスタとかそんな感じ?理想的には、メディアを見るあらゆる場所にその仕組みが組み込まれてて、アイコンがあって、僕たちが見せられてるメディアの詳しい情報が得られるようにね。

じゃあ、偽造できない封印ってどうやって作るの?暗号を使うんだよ。暗号ってのは情報を隠したり検証したりする科学だね。まずその例えの封筒にある小さな参照画像から始めよう。元の写真はバイナリデータとして保存されてて、メタデータの1行ごとや写真のピクセルごとの1と0の連続なんだ。

Truepicはそのデータを細かくして、よく知られたハッシュアルゴリズムを使って64桁のコード、ハッシュにしちゃうんだ。どんな感じかっていうと、写真のデータの一部を取って、ビットを右に2つずらすとこうなる。9つ右にずらすとこうなるね。で、それらをマージするのに、0を取って。

同じ位置で同じ数字なら0、違えば1にして、新しいシーケンスができるんだ。写真の別の部分で同じことやるとこうなる。それらを同じ方法で組み合わせるんだよ。ハッシュアルゴリズムは全部のデータをバカみたいに細かくやって、64桁の小さなハッシュに仕上げるんだ。

どんなサイズのデジタルファイルでもこれができるよ。ファイルの何かが変わったら、ハッシュがちょっと違うんじゃなくて、完全に別物になっちゃう。だから例えでいうと、ハッシュが封筒の小さな参照写真なんだ。Truepicが「これが写真撮られたときの姿だよ」って言う方法だね。

何か変わったかチェックするには、誰でもフル写真を取ってハッシュを再計算できるよ。そのアルゴリズムは誰でも使えるから。写真の一部でも変わってたら、ハッシュが合わないんだ。だからハッシュで画像が変わってないか確認できる。でもまだ問題がある。そもそも画像がどうやって作られたか、どうやってわかるの?そこで署名が出てくるんだ。

署名でTruepicがファイルの作成を保証してくれる。署名がTruepicから来たってどうやって信じられるの?署名者にはそれぞれ自分しか知らないプライベートパスワードがあって、そのプライベートキーがファイルのハッシュと数学でまとめられて新しい値を作り出す。それが封筒の署名なんだ。だから署名はラベルしてる写真ごとにユニークだよ。ハッシュを入力の一部にしてるからね。

その通り。署名者には誰でもアクセスできる公開パスワードもあるよ。この公開パスワードはプライベートパスワードで作られた署名だけを認証するんだ。だからもし署名者がTruepicのふりしてたら、公開パスワードが失敗して、写真に認証がつかないよ。で、その写真をサイトにアップして、何が見えるか教えてよ。

よし、検証してるよ。小さなバブルが出てきた。「カメラ撮影」だって。フル履歴も見られるよ。うん、それをクリックして。場所はニューヨーク、ビジョンリリース3.19.0で撮影だって。これは何?ビジョンはTruepicのカメラアプリだよ。なるほど。で、Truepicのリンクのすぐ後にYouTube動画送ったよね。

YouTubeにアップされる初めてのエンドツーエンド認証動画だよ。カメラで撮影されたこのコンテンツは、カメラか他の録画デバイスで撮られたものだって。クールだね。で、これまだ一般には公開されてないけど、どうやって動くか見せようとしてるんだ。うん、理想的には全カメラにこれがあってほしいよね。

うん、ゲームチェンジャーはiPhoneに入ったときだと思うよ。ポートレート、ランドスケープ、ビデオのほかに、セキュアモードとかオーセンティックモードがあって、写真撮って同じ暗号ハッシュがつくみたいな。そうすれば、「これ本当にセントラルパークでこの日に撮られたんだ」って言えるよね。ちょっと未来っぽいけど、来年くらいには現実になってほしいなって思ってるよ。

今、このシステムを騙す方法を考えてるとか思うかもしれないね。それはあとで話すよ。でもこれをちゃんとやって、プライバシーを尊重するボランタリーなものにできれば、オンラインで物を売るときとか、アパートをリストするとき、デートアプリのプロフィール作るとき、ニュースイベントを記録するときに、こういうカメラ認証を使い始められるかもしれないよ。

数年前、カナダの元政治家が先住民をバカにしてる動画がツイッターで広まったんだ。彼は謝って、その出来事を覚えてないって言った。でもあとで動画が偽物だって言ったんだ。Reality Defenderっていうディープフェイク検出会社が、彼にその動画が「確率的に偽物」だって言ったらしいよ。

でもCBCニュースが別の検出グループに連絡したら、ディープフェイクの可能性はめっちゃ低いって言われたんだ。メキシコやインドでも似たようなことが起きてるよ。これってヤバい状況だよね。公人が何かから逃れようとしてるのか、悪意でハメられてるのか見分けがつかないと、民主主義が自己修正する力がなくなっちゃう。C2PA対応のカメラが解決の一部になるかもしれないよ。

それがちゃんと機能するって信じられればね。まだ進行中の作業なんだ。もしこのシステムが入ったカメラを持ってて、AI画像をでっかい画面に映して、それを撮ったらどうなるか。実はそれやったんだ。おお。でっかいハトのAI生成画像だよ。これを高解像度のラップトップ画面に映して、写真撮ったら、Truepicが「カメラ撮影」って署名したんだ。

で、彼らはスクリーンから写真撮ってるのをキャッチしようとマシンラーニングシステムを使ってるって言ってたけど、僕のはフラグされなかったんだ。検出器をアップデート中だって言ってたけど、それまでは、技術的にはこの画像がスクリーンから撮られたAI生成画像じゃないって証明できないってことだよ。

でもこれ見てよ。ソニーはC2対応カメラで、センサーからの深度情報を使って3Dシーンだって検証するって言ってる。それには特別なサブスクが必要なんだけど。iPhoneも顔認証やポートレートモードで深度情報使ってるから、解決できる問題っぽいね。ただC2PA自体がそれを解決するわけじゃないんだ。

C2PAはファイルに改ざんがわかる署名をつけるツールだよ。封筒に入ったら、一部の署名者はメタデータが本当かチェックしてから入れるけど、そうじゃない人もいるかもしれない。だからバッジだけじゃ信じられない。署名者も信じなきゃいけないんだ。これはオープンなエコシステムなんだよ。オープンなエコシステムのいいところは、オープンで使えて無料なところだね。

オープンなエコシステムの課題の一つは、セキュリティのレベルを特定のものに要求するのが難しいこと。深度マップがあるカメラなら、この目的のために使ってほしいってガイドラインで推奨するけど、今のところ全部のハードウェアがその能力を持ってないんだ。この取り組み全体を複雑にしてるものの一つは、これらの企業が僕がこの動画でやってるみたいにカメラだけにフォーカスしてるわけじゃないってこと。

AIプログラムにもC2PAをつけてほしいと思ってるよ。いらないなら簡単に外せちゃうとしてもね。ユーザーが自分の名前を作品につけたり、ファイルに時間とともに加えた編集を見せられるようにもしたいんだ。でもこれだけの会社を調整するのってすでに大変なんだ。僕、写真をLinkedInに投稿しようとしたけど、認証が表示されなかったよ。

フォトショップに持っていったら、Truepicの署名もなくなっちゃってた。面白いタイミングで僕たちを捕まえたね。ちょっとこの会話、数ヶ月後にやってたらよかったなって部分的に思うけど、それでも視聴者にこれが最近安定したばかりの急激に動くスタンダードで起きてることだって理解するのは大事だよ。

1年ちょっと前に、イーロン・マスクにメディアの認証についてどう思うか聞いてる動画を見たよ。うん、僕はアドビからこのプロジェクトで働いてるんだ。うん、ツイッターもメンバーだったよ。Xが戻ってきてくれたら嬉しいな。動画見たなら。めっちゃ短くて、笑えるくらい短い答えだったよ。認証する方法があったらいいよね。

うん、それいいアイデアっぽいね、たぶんやるべきだよ。彼が本気で言ってて、時間が経てば現実になるって楽観的だよ。来月とか来年とかで、試行錯誤が見られるっぽいね。それが準備できても、僕たちは半分くらい受け入れる必要があるよ。

視聴者はそれが何を意味するかを理解して、信じなきゃいけない。なんか全部拒否すれば賢く見えるみたいな感じもあるからね。こういうツールがあっても、「ああ、どうせその周り方はあるよ」とか「絶対ハックする方法見つけたね」みたいなこと言う人もいるかもしれないよ。

うん、ソーシャルメディアで物が取られて再提示される方法って、結構ややこしいよね。この検証ウェブサイトみたいなの、誰かがスクショ撮って、そのスクショ変えたらどうなる?そうそう、認証をフォトショップでつけちゃうとかね。だからこれらのピースを全部の会社で揃えるだけじゃなくて、視聴者にもこれがどう操作されるか、何をダブルチェックする必要があるかを教育する必要があるんだ。僕、それができるか超楽観的かって言われると、そうでもないよ。

スレッドからリンク送ったよ。地下鉄でちょっと短いスカート履いてるおばあさんの写真だよ。50歳過ぎてもミニスカート履いていいよね。なんかクラシックな、なんだっけ、怒り誘発とか。うん、エンゲージメント誘発だね。エンゲージメント誘発。21,000コメントだよ。この時点で、写真自体をクリックすると、「例示目的のみ」って出るよ。

だから暗号メタデータなんかいらなくても、この写真が偽物だってわかるよね。AIだって明らかでも、人々がコメントいっぱい付けて、本物だと思っちゃうんだ。で、「本物」と「偽物」って言葉も全然正しくないよね。単純すぎるんだ。僕もトリック写真撮ったんだけど、カメラで撮ったけど、「本物」とは言えないやつだよ。

で、画像が本物でも、間違ったタイムラインとか場所で、間違った文脈で描かれてるケースもたくさんあるよね。ニュースに反応してて、「これ昨日ガザで」って言うけど、実は2003年のイラクだったりとか、そういうのしょっちゅう見るよ。

全くね。C2PA認証がオンラインの詐欺や偽情報を解決するわけじゃないよ。栄養ラベルが僕たちを健康にしないのと同じだね。全部の悪者を止める万能薬じゃないんだ。時々それがちょっとガッカリだってわかってるよ。オンラインの全部の騙しを止める一つのものが欲しいけど、それは無理だって僕たちは思ってる。

でもできるって思ってるのは、透明でありたい人を本当に力づけることだよ。信頼を壊すのは、修復するよりずっと簡単なんだ。でもやらなきゃいけない。真実と偽りを見分けられないと感じる世界って、一番恥知らずで不誠実な人たちが支配する世界だからね。

だから何が本物か知りたいって気持ちを諦めないでよ。僕たちHowtownは諦めないよ。ここでは事実がどこから来るのか、知識がどう作られるのかを探るのに、何時間も人間の労働をかけてるんだ。その精神で、Patreonのサポーター向けにサイエンスペーパーのブッククラブを始めたよ。毎月第1月曜日にライブで会ってて、今回は日光節約時間の効果をレビューした論文を見るんだ。

Patreon.com/Howtownで参加してね、見てくれてありがとう!僕たちHowtownの仕事は、IMI(インディペンデントメディアイニシアチブ)と一緒に、アルフレッド・P・スローン財団にサポートされてるよ。スローン財団は現代の科学技術の公共理解を高めてるんだ。

コメント

タイトルとURLをコピーしました