進歩のパラドックス: 私たちは後退しているのか?

11,810 文字

The Paradox of Progress: Are We Moving Backwards?
NEWSLETTER ✉️ 💰 @verizon00:00 - AI News & Research02:09 - Pika 1.5 ...

新しいAIの動画ジェネレーターが登場してな、物を溶かしたり、潰したり、壊したり、はたまたケーキに変えたりすることができるんや。このAIで作られたユニコーン…いや、AIじゃないかもしれんけど…これを見た人らは現実を完全に疑うようになってきてるわ。
そこで、手に余分な指をつける小物を作る人が出てきてな。誰かが写真を撮って、後で見たときにディープフェイクがおかしくなったように見えるようにするんや。
ネット上では、量子的な時間ジャンプを経験したんちゃうかって考えてる人もおるみたいやけど…まあ、調べてみたら、そんなもん実際にはないで。
気候変動対策に本当に役立つかもしれへん、すごいAIモデルが出てきたんや。人間の行動を示す画像を生成して、それをロボットに教えることができるらしいねん。そしたらロボットが実際に人間みたいに行動するようになるんや。なんか、インセプション中のインセプションみたいな感じやな。
エリーってAIアライアンスについて聞いたことあるか? これが今まで聞いた中で一番ええAIアライアンスやと思うわ。アマゾン、マイクロソフト、NVIDIA、DeepMind…こういう企業が集まってがん撲滅のために協力しようとしてるんや。
政府が面白い案を出してきてな。中国製のハードウェアとソフトウェアを車両に使うことを禁止しようとしてるらしいわ。
NVIDIAがすごいニュースを発表したんや。GPT-4に似た巨大なAIモデルをまるごと公開したんや。
大学生の中には、メタの新しいスマートグラスを使って、リアルタイムで人をドックスする方法をもう見つけた奴らがおるみたいやで。
ベライゾンがAIの面白い使い方を見つけたんや。年間1000万件以上のリクエストを分析して、光ファイバーケーブルを切らずに掘削できる場所を特定するんや。
科学者らが量子実験で「負の時間」とかいうのを見つけたらしいわ。なかなか面白い話やな。
証人インタビューで虚偽の記憶を増幅させる新しい会話型大規模言語モデルについて話すで。これはマジでヤバいわ。
内部地球人仮説について話すわ。社会が拡大していくのは自然なことやと思うてたから、これまで考えたこともなかったんやけどな。もし逆に閉じこもって、惑星の内部に向かうとしたらどうなるんやろ? 人類の未来は宇宙にあるんじゃなくて、実は自分たちの惑星の内部にあるんかもしれへんな。
新しいAIの動画モデル、pabs 1.5が今、みんなの度肝を抜いてるんや。見てみ、全部溶けてまうで。膨らませたらどうなるんや? あのわんことパンケーキ、なんやねんあれ。うわぁ、めっちゃ気持ちええわ。全部潰せるし、押しつぶせるし、爆発させることもできるんや。
これは間違いなく、今まで見た中で最もユニークなソーシャルメディアのアドオンの一つやな。あの男を見てみ。押しつぶせるやん。ちっちゃなやつ。
アーサーにフィードバックを与えてみよか。ちゃんとできてるかな? カバみたいに見えるな。おっと、今度はぺしゃんこのおもちゃになったわ。ちょっと変やな。
この人はどうなるんやろ? 政治家みたいに見えるけど…おっと、エイリアンみたいな内臓が出てきたで。おもろいな。
ゲーミングGPUみたいやな。夜になったらどうなるんやろ…おっ、ケーキの一切れになってもうた。
全ての物がケーキになる世界を想像してみ。このグリムロックを切り開いて、バラバラにできたらええのになぁ。
おっと、P1.5 Labsを持ってる人おるか? できたら、グリムロックをケーキに変えてくれへんか? 写真を撮って、今すぐコミュニティタブに投稿するわ。
ほな、これを言うておくわ。誰かAI動画を使ってグリムロックみたいなロボット恐竜を溶かしたり、潰したり、ケーキにしたりできたら、めっちゃありがたいわ。ここに表示してるメールアドレスに送ってくれるか、もっとええのは、ここにあるパトレオンをクリックして参加して、直接メッセージを送ってくれたらありがたいわ。
漫画でも行けるし…絵画でも…絵画の面白いところは、人間を完全な物体として認識してるみたいやな。おもろいわ。
うわぁ、あの列車の爆発見てみい。うわぁ。これがミスター・ビーストのサムネイルの未来やな。
このAIで生成された動画、インスタグラムで500万以上のいいねを獲得したんや。「これ本物?」っていうコメントだけで1600いいねと約450の返信がついてん。でも、1万8000人が「手やで、いつも手なんや」って指摘したがってん。
だから、今年のハロウィン…いや、クリスマスのホットアイテムは、実際に指につける余分な指なんや。冗談やないで。
もし自分のやったことが後で問題になるかもしれんって心配してて、それを否定したいなら、これをいつも身につけとけばええんや。政治家、官僚、テック企業のCEOとか、いつも嘘をつきたい人にぴったりやで。
ドナルド・トランプの写真に余分な指がついてたら、「ああ、ディープフェイクやな、本物やないわ」って思うやろ?
人々はその天才さを認めてて、このコメントは真実やで。1、2年後にはもっとリアルになって、これも通用せんようになるやろうな。だから今買わなあかんのや。これは今後数ヶ月間のチャンスやで。
ウイルス的なスケールの話をしてる間に、大規模なタイムラインシフトの話題が25万ほど集めたことも認めておかなあかんな。まあ、多分本物やないけどな。絶対本物やないわ。
彼が言うには、昨日か一昨日にタイムラインシフトがあったらしいわ。その証拠が、ギャップのある波形らしいねん。ほら、あそこに小さな線が見えるやろ? あの小さな線のところで、宇宙が量子ジャンプしたんやって。
でも、なぜか彼の録画ソフトはその隙間を問題なく認識したみたいやな。地球上の全ての人間と全ての量子意識は問題なかったみたいやけど、もちろん全員がジャンプしたわけやないんや。
量子ジャンプしたか、同じタイムラインに留まったかを判断する方法がいくつかあるんや。頭痛がしたり、自分らしくないと感じたりしたら、タイムラインジャンプしたんや。他にどんな説明があるんやろな?
完全に別の自信…自信を持って目覚めたら、何も気にならへんし、ただ気分がええけど、なんか空っぽな感じがするなら、量子ジャンプしたんや。
こういうタイムラインシフトの中で、ようやく気づいたんやけど、私たちのマトリックス、シミュレーションの中でいつも起こってるイベントがあるんや。
見てみ、76人が今日頭痛がしたってコメントしてるわ。この人ら全員、量子タイムラインジャンプした人らやで。
「普通じゃないくらいひどい頭痛がした」って書いてる人もおるで。他に何が説明できるんやろな?
今朝量子ジャンプした人は、コメントしてくれや。
この記事めっちゃ面白いと思うたわ。人工知能が今、レアアースみたいな重要鉱物を見つけるのに応用されてるんや。これらの鉱物はめっちゃ希少で、再生可能エネルギーをかなり高価にしてるんやけど、これがうまくいったら面白いことになるで。
太陽光パネルを作るのに必要な材料の採掘が超効率的になったら、太陽光パネルの価格が下がって、再生可能エネルギーがより現実的で手頃になるかもしれへんのや。
タスマニア大学から出てきた研究やけど、すごいで。AIには鉱物の効率を上げ、リスクを減らし、プロセスをより環境に優しくする可能性があるんや。
ドローンを使った写真測量のような技術を使ってるんやけど、これは斬新なプロジェクトやな。
AIで生成された画像が今、ロボットの訓練に使われてるんや。長い間、ロボットはシミュレーションで訓練されて、そのソフトウェアをダウンロードするって話やったけど、最近では…ああ、どこの大学やったかな…X AIやったかな…実世界のデータを使ってシミュレーションし始めたんや。
これがどれだけ便利かって考えもしなかったけど、実世界のデータを取って、それを基に画像を生成したり、将来的には動画を生成したりして、ロボットに必要な環境を近似できるかもしれへんのや。
インセプションみたいやけど、生成AIモデルは画像を作るのがめっちゃ上手くて、ロボットの訓練データを生成するために微調整することもできるんや。
新しいシステムを開発したんや。GIMAっていうんかな。安定拡散を使ってロボットの動きを実際に描画して、その画像を使ってシミュレーションでロボットをガイドし、最終的には実世界でも使うんや。
両方からフィードバックを得ることで、さまざまなタイプのロボットがタスクを完了するための訓練が指数関数的に簡単になるかもしれへんし、将来のAIウェブエージェントがスクロールやクリックをより上手くできるようになるかもしれへんのや。
スクロールとクリック、それが私のやることやで。
絶滅の時間やで!
違うで、グリムロック。絶滅の時間やないで。画像がどうやってロボット工学の未来をガイドできるか学ぶ時間やで。
あかん、実際に彼がマウンテンクライマーをやるのを見たことなかったわ。それはかっこよかったな。
グリムロック、ここに書いてあるで。画像生成システムを使えば、ロボット工学でできることのほとんど全てができるんや。時間の節約になるし、グリムロックをもっと強くできるで。
グリムロック、それはすごいけど、ちょっと珍しいな。大手テック企業が全部集まって、AIを一つの目的のために使おうとするのは。
私たちがいつも見たいと思ってる種類の協力が実現したんや。それがまさに起こったんが、このがんAIアライアンスや。
主要ながんセンターが集まって、4000万ドル以上の資金を集めて、多くの大手テック企業とパートナーシップを結んだんや。アマゾンのAWS、マイクロソフトのAzure、NVIDIAのクラウドなんかやな。
このアライアンスは協力して、AIを活用してがん研究と治療を革新しようとしてるんや。様々ながんセンターから膨大なデータを分析することでな。
yeah、それは私にとってめっちゃ理にかなってるわ。AIは素晴らしいツールやし、がん研究所は高度なAIとクラウドコンピューティングを使って、発見のスピードを上げ、治療法を改善し、希少がんに取り組めるはずやって言うてるんや。
2025年末までに真剣な突破口を開く道筋もあるらしいで。
長期的にAIが世界を変えると信じてるけど、もしそれが早く起こって、それが社会の厄介者を解決しようとするアライアンスによって起こるなら、それはめっちゃ素晴らしいことやと思うわ。
でも、現実の世界に戻ると、中国とアメリカがまた対立してるんや。今回は、アメリカの車両に使われる中国製のハードウェアとソフトウェアが問題になってるらしいわ。
面白いのは、2年ほど前かな、中国でテスラの車が精査されてたことを覚えてるんやけど。あれは動画を撮ってクラウドにアップロードしてたからで、特に中国政府の施設なんかでは禁止されてたんや。ある意味、アメリカの企業に情報を送り返す監視装置みたいなもんやったからな。
だから、最近、中国製のソフトウェアとハードウェアを接続車両や自動運転車に使うことを禁止する提案が出てきたときも、あんまり驚かんかったわ。これは完全に逆のケースやけどな。
米国商務省は月曜日に、国家安全保障上の懸念から、アメリカの道路を走る接続車両や自動運転車に中国製のソフトウェアとハードウェアを使用することを禁止する提案を出す予定らしいわ。
バイデン政権は、中国企業によるアメリカのドライバーやインフラに関するデータ収集について、また、インターネットやナビゲーションシステムに接続された車両への外国からの操作の可能性について、深刻な懸念を表明してるんや。
まあ、私には理解できるし、一般的には賛成やな。
NVIDIAがGPT-4の競合を出すとは思わんかったけど、突然出してきたんや。ベンチャービーによると、これは新しい巨大なオープンモデルで、GPT-4に匹敵する準備ができてるらしいわ。
彼らは主要なプレイヤーで、計算能力も技術的な才能もあるから、オープンAIと競合する巨大なLLMを構築できるのは驚くことやないんや。ただ、実際にやったことに驚いたわ。
会社の新しいモデル、NVM 1.0は720億のパラメータを持ってて、視覚と言語のタスクで優れたパフォーマンスを示してるんや。モデルの重みは公開されてて、これらのベンチマークを見ると、他のオープンソースのオプションと非常に競争力があるように見えるわ。
ほとんどの指標でGPT-4に負けてるけど、その差はそれほど大きくないんや。これが彼らの第一世代モデルとしては、それ自体がめっちゃ印象的やで。
見てみ、このミームの抽象的な部分をほぼ完全に理解してるわ。二つの動物のコントラストが面白いのは、論文の要約が実際の内容よりもはるかに印象的で威圧的に見えるという考えを視覚的に表現してるからやって分かってるんや。そこがまさにこのミームが面白い理由なんやで。
近い将来、こんなカメラを付けた眼鏡をかけた人を見かけたら、リアルタイムでドックスされる準備をしておいた方がええで。
大学生たちがメタの新しいスマートグラスを使って、リアルタイムで人をドックスしてるんや。VergeによるとこのデモはARグラスの暗い側面を浮き彫りにしてるらしいわ。
この面白くて怖い未来のデモは、ハーバード大学の学生二人が作ったんや。メタのグラスにAI駆動の機能を追加して、i-X-rayって名付けたんや。
これがやることは、見知らぬ人を見たときに、その人の個人情報を明らかにすることだけなんや。名前、住所、電話番号なんかをただ検索するだけやで。
カメラ付きのスマートグラスを使って、Pim Eyesみたいな顔認識ソフトを使えるようにしたんや。そしたらそのシステムが公開データを見つけ出して、大規模言語モデルを通して処理し、個人情報を抽出するんや。
まあ、全ての人に対して、いつでも機能するわけやないけど、私たちの多くがネット上にたくさんの情報を漏らしてるんや。
もちろん、学生たちはこれをプライバシーリスクについての意識を高めるために作っただけで、女の子の電話番号を聞かずに手に入れるためやないって強調してるけどな。
確かに、こういった情報にアクセスするハードルを下げてるのは事実やな。たとえその情報が漏れてたとしても、多くの人はダークウェブに行ったり、わざわざ検索したりせえへんやろ。でも、ただ視界に表示されるだけやったら…それはもっと悪いことになるわ。
以前からできたことかもしれへんけど、今や多くの人が簡単にアクセスできて、不適切な方法で使うのがめっちゃ簡単になってしまったんや。正直に言うとな。
さて、大手通信会社…というか、ケーブル関連の会社のベライゾンが、AIと機械学習を使って、毎年1000万件以上のリクエストを処理する方法を見つけたんや。これは、光ファイバーケーブルを切らずに特定の場所で掘削できるかどうかを判断するためのものやで。
考えてみてや。地中にはこういった光ファイバーケーブルや電話線、電力ケーブルがあるんや。もう誰も何がどこにあるか分からんくらい、たくさんの溝を掘って、ケーブルを埋めてきたんや。
そして、新しい建物を建てたり、何かをしたりするために、多くの人がそこを掘りたがってるんや。だから、間違いが起こり始めてるんや。
ベライゾンは、光ファイバーインフラの損傷を防ぐために新しいAIプログラムを導入したんや。知らんかったけど、理解できるわ。毎年、建設や掘削中の偶発的な切断によって、何千もの光ファイバー回線が損傷を受けてるらしいんや。
建設会社が光ファイバーケーブルを切断して、下流の全ての人が「おい、オーバーウォッチのゲームが切れたやんけ」って言うてる間、ベライゾンがその電話を受けてるんや。お金もかかるし、こういうソフトウェアを作るのは理にかかってるわな。
これは、光ファイバーの切断リスクを評価する技術やねん。場所の履歴、掘削業者の過去の実績、常に更新される地図や予測を基に評価するんや。
自然言語を使ってこれらのリクエストを読み取り、リスクが高いかどうかをフラグ付けできるんや。これによって、ベライゾンはリスクが高そうな特定の掘削業者とのコミュニケーションを増やすなど、予防措置を取ることができるんや。
この先を見越したアプローチは、偶発的な切断のリスクを減らすのに役立つかもしれへんな。これは、AIが私たちの世界を完全に変えていく、ちょっと変わった方法の一つやね。人間には全てのケーブルがどこにあるかを覚えたり分析したりすることはできへんけど、将来の超AIシステムなら本当にできるかもしれんのや。
次は、めっちゃ面白い研究論文について話すで。「Statewide visual geolocation in the wild」っていう論文や。
この論文が面白いのは、位置情報データに対して本当にユニークな方法でモデルを訓練してるんや。Google Mapsみたいなものを想像してみ。空中から撮った衛星写真があって、それらが位置情報とタグ付けされてるやろ?
理論的には、これらの研究者がやってるのは、機械学習モデルを訓練して、一方から他方に変換することや。そして、未知のデータを見たときに、それがどこにあるかを予測するんや。
結果として、今まで見たことのない写真を取り込んで、背景を分析し、建物のファサードなんかがあれば、AIに送って、その写真が世界のどこで撮られたかを推測しようとするモデルができるんや。
彼らがこれをどうやって行ったかの鍵となるアイデアは、検索領域を地理的なセルに分割することやった。
つまり、衛星写真をこういったグリッドに分割して、その範囲内にある街路画像を訓練できるようにしたんや。カメラの角度も、このネスト構造の中で訓練できるんや。これがグリッドに基づいたマルチヘッド注意ネットワークになるんや。
結果として、街路ビューの予測モデルができあがるんや。以前の方法とは違って、このアプローチは詳細なカメラ情報やパノラマビューに頼らへんのや。
著者らがマサチューセッツ州で撮影された写真でテストしたところ、6%の画像を正確に位置特定するという印象的な結果を出したんや。彼らが言うには、これは視覚的な位置特定の大きな一歩前進やそうや。
外で撮った写真のうち、背景にモデルが識別できるものがあるのを考えてみ。未来のAIが私たちの人生全体を把握できるようになるのは間違いないと思うわ。
例えば、あなたや私の古い写真を見つけて、肌の年齢とかから大体何歳くらいかを推測し、その写真がどこで撮られたかを推定して、世界中の他の写真や情報、位置情報データと照らし合わせて、私たちの人生全体を組み立て始めることができるかもしれへんのや。たとえ私たちが何千人もの他人の写真の背景にいるだけでもな。
さて、これは次に話したい研究への完璧な橋渡しやな。MITメディアプレスから出てきた研究やけど。
今回は、AIが虚偽の記憶を植え付けるというか、少なくとも大規模言語モデルを搭載した会話AIが、証人インタビューで虚偽の記憶を増幅させる話やな。
みんながこれを知ってるわけやないかもしれへんけど、人の記憶、特に目撃者の記憶はめっちゃ当てにならへんっていう研究がたくさんあるんや。
犯人として特定されたけど、実際はその人やなかったっていうケースがたくさんあるんや。劇的なことが起こってるときに、脳が全ての正しい詳細を本当に覚えてるわけやないんや。
十分な証拠があれば、私たちはある種のインセプションを起こすことができるんや。物事がめっちゃ可能性が高いように思えると、脳はただ隙間を埋めてしまうことがあるんや。そして時々、間違った人がその隙間に入ってしまうんや。
今では裁判システムもこれをよく理解してると思うけど、長い間そうやなかったんや。過去にはおそらく間違ってた多くのケースが覆されてるんやろうな。
今、AIの力を使って、その誤りを実際に増幅できるようになったんや。なぜこんなものが必要なのかはよく分からへんけどな。
とにかく、MITメディアラボの研究では、特に大規模言語モデルを搭載したチャットボットが、証人インタビューの際に虚偽の記憶を作り出す可能性について調べたんや。
彼らがやったのは、研究参加者に犯罪のビデオを見せて、AIチャットボット自体が虚偽の記憶を植え付け、増幅するようにチューニングしたんや。
結果は50対50で影響がなかったと思う? もちろんそんなことはないわ。
研究の結果、生成チャットボットは対照群と比べて、虚偽の記憶を3倍以上も有意に増加させたんや。有意っていうのは、そのくらい大きな差があったってことやな。
そして、対照群でさえ虚偽の記憶を作り出してたんや。私たちはそういう面では当てにならへんからな。
そして、「まあ、時間が経てば、脳が真実を整理するんやないか」って思うかもしれへんけど、そうやないんや。
1週間後でも、参加者はこれらの虚偽の記憶を高い自信を持って保持し続けてたんや。
この研究は、警察のインタビューのような繊細な分野でのAIの倫理的な使用について、深刻な懸念を提起してるわ。
時々、こういった記事を読んで面白いことを探そうとしてると、タイトルを見ただけで「これ何やねん、意味分からへん」ってなって、もっと知りたくなるんや。これはそんな時の一つやな。
マンション・ビショップが『サイエンティフィック・アメリカン』で書いてる「量子物理学実験で負の時間の証拠が見つかる」っていう記事やねん。「負の時間って何やねん? 時間の反対? 反物質みたいな感じで時間版?」って思ったわ。
でも、これは実際にある程度存在するらしいんや。量子物理学では、負の時間っていうのは、粒子(例えば陽子とか)が、予想よりも速くプロセスを完了するような状況を指すんや。物質を通過したり、原子と相互作用したりするときに、始まる前に終わったように見えるんや。
まるで時間が逆行したかのようやけど、実際に時間が逆転したわけやないんや。むしろ、量子粒子の奇妙な確率的な性質と、日常的な時間の理解とは合わない方法で特定のタイプの相互作用を経験できることを反映してるんやな。
トロント大学の研究者たち…ジェフリー・ヒントンがおるとこやな。そこでもAIの良い研究してるわ…とにかく、彼らがこの奇妙な量子現象を発見したんや。光子が時間を逆行するように見えるんやって。
実験では、光子が超冷却原子の雲を通過するときに、時々入る前に出てくるように見えたんや。これは量子領域での光子の奇妙な振る舞いによるもので、吸収と放出が一定の時間範囲で起こり得るんや。そして、その確率的な結果の中には、「負の時間」を生み出すものもあるんやって。
まあ、この研究は時間そのものに関する理解を変えるわけやないけど、量子の世界がいかに奇妙で直感に反するものかを強調してるんやな。
これには何か説明があるはずやし、超高度なAI 4に期待してる最大の理由の一つが、こういったことを説明してくれることやと思うわ。宇宙や物理学、意識の意味について文脈を与えてくれるんやないかな。私たちの生きてる間に、アインシュタインの頭を完全に吹き飛ばすようなことを学ぶかもしれへんのや。
さて、この記事では、私たちよりもはるか昔に現れた高度な文明や宇宙人がいて、私たちの後にもっと多くの文明が現れるだろうっていう考えを探求してるんや。
そして、彼らがどんどん賢くなっていくにつれて、まず自分たちを仮想化することを選ぶかもしれへんって言うてるんや。これは理にかなってるな。この人間の肉体に縛られたくないし、超高度な金属のロボット体でさえも望まないかもしれへん。
それよりももっと頑丈なのは、純粋にデジタル化された意識やろ? あなたをあなたたらしめるもの全て、つまり全てのものが仮想化できて、それがパターンとして何かに保存されるんや。
ハードドライブみたいなものかもしれへんし、量子力学を使ったものかもしれへんし、あるいは物理学の他の要素を使って、あなたが誰であるかという情報を保持し、処理し続けるものかもしれへん。
そして、私たちの種がそっちの方向に進んで、「光速で宇宙中を飛び回るのはなんでやろ?それは物理的に超えられない限界やし。地球の中に入ったらどうや?」って考えるかもしれへんのや。
そうすれば、小惑星のことを心配する必要もないし、地球の中心や太陽の中心なんかの大きなエネルギー源もあるし、そこに存在すればええんや。
だから、私たちが宇宙を見上げても彼らが見えへんのは、彼らが自分たちの惑星の中にいるからかもしれへん。私たちが探してる物質的な痕跡を残してへんのやろうな。
これは三つの原則に基づいてるんや。特殊相対性理論、つまり光速より速く移動できへんってこと。破壊的な技術に対する文明の脆弱性、つまりデジタル意識になれば、ウイルスで傷つくこともないってことや。そして、完全に没入型の仮想現実の可能性、つまり今私たちが持ってるものよりも優れたものが、全て仮想的にできるってことやな。
著者は続けて、UFOのようなものは、実はすでに仮想化されて地球の中に住んでる、人類以前の種族かもしれへんって話してるんや。それって狂ってるやろ。私たちの「地球内部の仲間」がすでにここにいるってことやな。
もしかしたら、私たちはこのレベルの知能に到達した地球上の2番目か、それ以上の種族かもしれへんのや。でも、まだそこまで行く方法を見つけられてへん初期段階にいるんやろうな。
もしそれが本当なら、彼らは気候変動とかを台無しにするのを止めようとするんちゃうかな?だって、それが彼らが物理的な存在から離れて仮想的になった理由やろ?
ユヴァル・ハラリの新しい本も半分くらい読んだんやけど、社会と情報の接点について深く掘り下げてるわ。今のところめっちゃ面白い本やで。
彼は、情報そのものをもっと具体的なものとして考えるべきやっていう考えを深く掘り下げてるんや。多くの面で予想以上に危険で、でも同時に予想以上に団結させる力があるんやって。
宗教的な例や歴史的な例、政治的な例をたくさん挙げて、共鳴するストーリーがいかに価値があるかを説明してるんや。これらのストーリーのおかげで、私たちはこれまで決してできなかったような方法でグループを作り、みんなを同じページに乗せることができるんやって。
でも、必ずしも真実が勝つっていうわけやないんやな。実際、真実を認めずに「これがこうなんや、他は見るな、これが答えや」って言うのが、人々を団結させる最高の方法の一つかもしれへんのや。
でも、ストーリーは人類最強の発明やっていう考えは面白いな。いつも言語が最強やって思ってたけど、実際は自分たちに語るストーリーこそが、私たちを一つの惑星として団結させ、都市や乗り物、テクノロジーといった巨大な技術の驚異を作り上げることを可能にしてるんやろうか?
何万人もの人々と大規模な物流チェーンが協力して何かを機能させるには、みんなが協力せなあかんのやからな。
そして、もし私たち全員がストーリーの力を本当に理解したら、柔軟性を許すような種類のストーリーになるんやろうか?だって、多くの人を巻き込むストーリーの質は、間違いなく結果や世界への影響を変えるからな。
私のチャンネルを支援したいなら、パトレオンに参加するかYouTubeのメンバーシップに参加してくれや。どっちでもめっちゃ助かるわ。
ほな、前回の動画から私のお気に入りのコメントをいくつか見つけて、それを歌にしてみようか。
おっ、これは完璧な歌詞になりそうやな。
「ドローンとロボットによる警察活動がやってくる。みんなが嫌がるやろうけど、できることはほとんどないんや。残念やけどな」
明るくて楽しいスタイルの音楽にしようと思うわ。
おっ、この人は新しい…実際に機能する…サモンについて話してるな。
「数日前にスーパーの駐車場で2回試してみたんや。自分の車が他のドライバーの間を縫って自分のところに来るのを見てるのは狂ってるで。気の弱い人向けやないな」
まだ使ったことないわ。ちょっと怖くて…でも面白いわ。分かるで。
ほな、もう一つ、この明るい歌に使える完璧なコメントがあるで。ドローンについてや。
「外に出るときも、家の中を歩き回るときも、どこかのカメラに映ってる可能性が高いんや。誰かか何かに。家の中でさえもな」
(歌い始める)
♪ ドローンとロボットの警察がやってくる〜
みんな嫌がるけど、できることはない〜
悲しいけどね〜
静かなスーパーの駐車場で試してみた〜
自分の車が来るのを見るのは狂ってる〜
弱気な人には向いてないよ〜
外を歩いても、家の中でも〜
カメラに映ってるかもしれない〜
誰かが、何かが見てる〜
家の中でさえも〜 ♪
ほな、チャンネル登録してな。もしかしたら、あなたの家の中でさえ撮影してるかもしれへんで。
♪ これが世界の終わりの始まり〜 ♪

コメント

タイトルとURLをコピーしました