
13,009 文字

デジタル技術は私たちの生活を容易にし、ソーシャルネットワークは世界中の人々とのつながりを作ることを可能にします。スマートフォンを手にすることで、ほぼ無限の知識にアクセスできます。ミシェル・セールは著書「小指」でデジタルのお守りについて語っていましたが、この利便性、ハイパーコネクション、無料の背後で、私たちは魂とまでは言わなくとも精神を失っているのではないでしょうか。
アンヌ・アロンベールさん、こんにちは。
こんにちは。あなたはパリ第8大学の准教授で哲学者ですね。そしてあなたの専門分野はデジタルです。ちょうどいいタイミングで、2023年4月にアリア出版から「デジタル・スキゾフレニア – 新技術時代における精神の危機」を出版されました。
著作のタイトルに、あまり使われない言葉を使っていますね。スキゾフレニアという言葉を使っていますが、これは私たちがあまり理解していない言葉です。この言葉は何を意味し、なぜここで使用したのですか?
医学的な意味でこの言葉を正確に説明することはできませんが、私はこれをある種のイメージとして使いました。私が言いたかったのは、通常スキゾフレニアと呼ばれる病理を指すのではなく、ある意味で時代のスキゾフレニアについて語っていたのです。つまり、私たちの時代がデジタル技術に関する2つの立場、2つの種類の言説の間で引き裂かれているかのようです。
これらの2つの言説とは何でしょうか?第一の言説は、デジタル技術の起業家やトランスヒューマニズムの潮流でよく見られるもので、これらのデジタル技術の性能を称賛し、しばしば技術的装置に人間の能力を付与するものです。例えば、人工知能という言葉を使うときの「知能」、機械学習やディープラーニングと言うときの「学習」、会話エージェントと言うときの「エージェンシー」などです。
これが第一の言説で、技術的装置を人間化する傾向があります。一方で、今度は科学的な言説があり、これらのデジタルメディアが実際には私たちの精神的能力、知的能力、記憶力、思考力、想像力に影響を与え、私たちの能力に潜在的に危険な影響を及ぼすという事実を記録しています。
私が示したかったのは、機械にこれらの能力を付与する第一の言説が、実際にはより深刻で問題のある現実、つまりデジタルメディアによる私たちの記憶力、注意力、思考力、想像力の破壊の可能性を隠蔽する傾向があるということです。
そうですね、パラドックスや両義性について語ることもできたでしょうね。
確かにそうですが、この用語に私が特に関心を持ったのは、ギュンター・アンダースという哲学者が1950年代、60年代に、1956年に「人間の時代遅れ」という著作を出版した際にも言及していたからです。この著作の中でギュンター・アンダースは「人工的に生み出されたスキゾフレニア」について語っています。
彼がそれで何を意味していたかというと、ギュンター・アンダースはデジタル技術には関心がありませんでした。1956年なので、それは別の技術の時代、別のメディアの時代です。彼は主にラジオとテレビに関心を持っていました。彼が人工的に生み出されたスキゾフレニアについて語るとき、これらの人工物、これらの技術的装置やメディアが、分裂や分散の効果を生み出すということを意味していました。
つまり、それらは私たちを同時に2つの場所に存在させるようになります。テレビを見ているとき、私は見ている出来事が起こっている場所にいると同時に、自分の居間にいるのです。同様に、他のことをしながらラジオを聞くことができます。彼が言いたかったのは、まだ一度も厳密な医学的な用語の使用ではありませんでしたが、主体が分裂している、分散している、分離しているということでした。
私はデジタルメディアによって、これらの分散や分裂の効果が増幅されているという印象を持っていました。この用語を使用することが非常に興味深いと思えたのは、ギュンター・アンダースが、おそらく初めて、私たちを取り巻くメディア的支援、技術的環境が、実際に私たちの精神に、私たちの内的活動、精神活動に影響を与えることを示唆したからです。
したがって、これは精神とは何かについての新しい視点でもあります。精神は常に、私たちを取り巻くメディアや支援によって条件付けられています。そこには象徴や知識などが外在化されているのです。
このような疑問や懸念、時には恐れは新しいものではありません。なぜなら、あなたの著作の中で、プラトンがすでに口頭から文字への移行が問題を引き起こす可能性があると述べているからです。つまり、これはデジタルそのものの問題ではなく、結局のところ思考や脳の外在化の問題なのですね。
その通りです。私が本の中で試みているのは、今日デジタル技術で起こっている問題を系譜学的な視点に位置づけることです。つまり、今日メディアと呼ばれているもの、記憶の媒体、知識の媒体、象徴の媒体の進化の歴史を少し遡ることです。
私は文字から始めて、さらに蓄音機、写真、映画、テレビにも言及しています。もちろんとても簡単に触れただけですが、これは毎回、特定の精神機能、特定の精神的機能が媒体の中に外在化されていることを示すためです。そしてこの外在化は常に、これらの機能の委譲という問題を提起します。
例えば、文字の場合、プラトンが説明していることですが、文字は私たちの記憶の薬、補助となります。なぜなら、あらゆる種類のことを書き留めることができるおかげで、私たち自身がそれを記憶する必要がなくなり、メモを信頼することができるからです。携帯電話でも同じことが起きています。以前は電話番号を暗記する必要がありましたが、今はすべて記録されています。
つまり、記憶は文字によって外在化されますが、同時にプラトンが言うように、この外在化は危険になる可能性があります。なぜなら、私たちは記憶する努力をしなくなり、結果として記憶能力を失ってしまうからです。記憶能力は生まれつきの能力ではありません。記憶を訓練せず、維持しなければ、単純に失われてしまうのです。
これがデジタルにおけるリスクです。他の能力も関係してきます。例えば、具体的な例を一つ挙げると、今日の生成AI、これは私たちに代わってテキストを生成したり書いたりすることを可能にしますが、ここでは記憶能力ではなく、表現能力が外在化されているのです。
したがって、このような表現能力の外在化がどのような課題をもたらすのか、考える必要があります。なぜなら、私たちが話したり文章を書いたりするとき、あらゆる種類の能力を駆使しているからです。記憶力、統合力、予測力、また相手に対する想像力なども必要です。
これらすべての能力をアルゴリズムによる計算装置に委譲するとき、それは明らかにあらゆる種類の問題を引き起こします。ある程度は大いに助けになりますが、後で触れることができる多くの困難も生じます。
確かに、他の困難としては、知識や知恵、そして政治までもアルゴリズムに委譲することになりますね。しかし、その前に系譜学の話に戻りましょう。あなたは本を1939年のポール・ヴァレリーの言葉で始めていますが、彼はすでに今日私たちが情報過多と呼んでいるものについて言及し始めています。当時は新聞やラジオしかなかったのに、情報が多すぎることを懸念していました。
今では常にスクリーンを見て、私たちの注意力はスクリーンに占有されていますが、当時はまだ余裕があったはずです。人間は情報過多に耐えられないとか、それがどのような問題を引き起こすのかということについて、すでに懸念を示していたのは驚きですね。
実際、問題となるのは、情報が多く流通し、アクセス可能になればなるほど、選択と振り分けの問題が出てくるということです。つまり、これらの情報がどのように選択され、振り分けられるのかということです。
明らかに、私たちの注意力には限界があります。それは単に一日の時間によっても制限されています。睡眠も必要で、常に情報を吸収し続けることはできません。これが一つ目の要素です。
しかし今日、デジタルメディア空間では、この情報の振り分けや選択は、多くの場合、自動推薦アルゴリズムによって行われています。これがあなたにとって最も適切なコンテンツを提案するのです。
実際には、提案されるコンテンツはあなたにとって最も適切なものではありません。なぜならアルゴリズムはあなたの考えや期待、欲望を読み取ることはできないからです。しかし、最も提案されるコンテンツは、最も多く閲覧され、最も多くのクリックを集める可能性のあるものです。
ソーシャルネットワークやコンテンツプラットフォームの企業の用語で言えば、ユーザーエンゲージメントを最大化するためです。つまり、提案されるべきコンテンツが暴力的、センセーショナル、虚偽、愚かなものであったとしても、プラットフォーム上に人々をできるだけ長く留まらせることが目的なのです。
これは民主主義にとって本当の課題となります。なぜなら、私たちはある意味で、適切な情報を選択する力を、必ずしも政治的ではないものの、ユーザーエンゲージメントを最大化し、注意を捕捉し、データを収集して広告主に売り渡すという経済的な目的を持つ一部の民間企業に委ねてしまっているからです。
情報の流通、何が見えて何が見えないのかということは、世論形成にとって実際の課題なのです。ここに新しい問題があると思います。これは情報過多の現象だけでなく、誤情報などの現象にもつながっています。
あなたに反論することもできます。これらの民間企業は、以前にはアクセスできなかった情報にアクセスできるツールも開発しましたし、人工知能により、現在では例えば腫瘍学での診断など、医療の進歩も可能になっています。ここに両義性があります。つまり、リスクがあると言いたくなりますが、同時にこれらの技術には良い面もあるのです。
そうですね、それは明らかです。問題は、あなたが「良い面」と呼ぶものをどのように強化するかということです。私が信じているのは、良い面を強化するためにはリスクを特定する必要があるということです。
一般的に、リスクは人間の解釈、判断、決定の活動が統計的計算や確率的計算によってショートカットされる場合に存在します。例えば医療分野では、医師が医用画像の分野でのいわゆる人工知能を使用して、これらの文書を分類し、インデックス化するなどのツールを持っている場合、その診断は…というわけです。
そして医師がこれらのツールを選択し、設計し、開発し、その仕組みを理解し、最終的にアルゴリズム装置が提供する結果を解釈する立場にある場合、それは実際に素晴らしいことになり得ます。
問題が発生するのは、例えば司法の分野で、裁判官の判断を支援するためにアルゴリズムが使用されるけれども、もし裁判官がアルゴリズムの提案に同意しない場合、正当化を求められ、特定のケースにおいて自身の知識と判断能力を行使する自由を失ってしまうような場合です。
つまり、重要なのは、これらの技術を、人間の解釈、経験、知識を支援するために使用し、また、これらの人間の知識をできるだけ広く共有できるようにすることです。
そうですね、あなたは代償が少し高すぎると感じているようですね。つまり、人工知能について話すとき、それは非常に誤った名称だと仰っていました。人間の知能との比較を生んでしまうため、人工知能という言葉を使うべきではない、なぜなら人工知能は実際には知能ではないからだと。
その通りです。それは知能ではなく、実際には計算なのです。確率的計算、統計的計算です。「人工知能」という用語の問題点は千も万もありますが、私にとって根本的な問題の一つは、これらの装置の技術的な仕組みを覆い隠してしまうことです。
しかし、技術を使用する際には、その仕組みを最低限理解することが不可欠です。例えば、顕微鏡を使用する科学者が、顕微鏡の仕組みをまったく知らず、見ている画像がどのように作られているのかを理解していなければ、その画像を理解することはできないでしょう。
今日、私たちは人工知能に基づくあらゆる種類の装置を日常的に使用していますが、この言葉でそれを呼んでいる限り、人工知能が何であるかを理解していません。なぜなら、この言葉で呼ぶとき、私たちはそれを人間の複製のようなものにしてしまいますが、それはまったく人間の複製ではありません。
むしろ、ある種の技術的な記憶の媒体、計算の技術と言えます。時には非常に興味深い結果を生み出すことができますが、これらの結果がどのように生み出されているのかを理解する必要があります。結果だけを見て、その結果に至るプロセスを見ないのは、私の意見では誤りです。
特に、これらの技術は、人間の活動をシミュレートする能力を宣伝するという、ある種の宣伝的な理由で開発されることが多いからです。例えば、有名なチューリングテストのように、機械が人間と同じように話せるようになるという考えです。これは、人間個人と技術的装置の間の完全に誤った競争関係になっています。
実際には、人間同士を結びつけ、人間の知識を共有することを可能にする装置を開発すべきです。例えばウィキペディアは協働的な百科事典です。これは本当に、知識共有のためのデジタル媒体の完璧な例です。このプラットフォームには、人間を装おうとする意図はまったくありません。それは意味をなさないのです。
その内容や機能の仕方は問題視されることがあるかもしれませんが、完全にその通りです。そしてまさに、ルールが透明で、ウィキペディアのルールには多くの問題があるからこそ、それについて問題提起され、議論することができるのです。
議論があり、論争があることが興味深いのです。しかし、ChatGPTのような装置の場合、少なくとも初期には誰もデータベースを知らず、アルゴリズムも知りませんでした。そうなると、この主題について集団的な議論を持つことはできません。これらは、シモンドンが「閉じた技術的対象」と呼んだものなのです。
そして最悪なのは、これらの起業家たち – カリフォルニアの起業家と言いかけましたが、みんながカリフォルニアというわけではありませんが – が人間を増強できると考え始めることです。これがトランスヒューマニズムです。つまり、チップやアルゴリズム、人工知能によって、私たちにより良い生活や永遠の命を与えることができると説明するまでに至っているのです。
はい、確かにそれはある種のイデオロギーです。シリコンバレーの起業家たちから発展したトランスヒューマニズムのイデオロギーです。少し懸念されるのは、人工知能や機械学習といった用語のほとんどが、実際にはこの種のイデオロギー的言説から来ているということです。これらは全く科学的な用語ではありません。
人工知能分野の初期に何が起こったのかを振り返ると、情報科学の分野には非常に基本的な区別があります。それは情報と媒体の区別、つまりソフトウェアとハードウェアの区別です。この区別は情報科学の分野で非常に重要です。なぜなら、あらゆる種類の情報を信号に変換し、それを媒体に実装できるからです。
しかし、この区別は人間を考える際には当てはまりません。つまり、私たちには体に実装された思考があるわけではありません。これは完全に二元論的な見方です。
チップを埋め込めば…
それどころではありません。トランスヒューマニスト的言説は今日、私たちの精神をダウンロードできると言っています。つまり、私たちの脳を冷凍保存し、その後、脳に含まれている情報を抽出するというのです。これらの情報がどこにあるのか、どのように含まれているのかは分かりませんが、それは重要ではないとされ、その情報をUSBメモリなどのデジタル媒体に実装するというのです。
カリフォルニアではこの種のプロジェクトを開発するためのスタートアップも設立されています。私が言いたいのは、これは魂と身体の完全に二元論的な見方であり、明らかに科学的根拠がなく、完全にイデオロギー的で、さらには神秘的とも言えるような言説に基づいているということです。
思考は常に、私が本の中で示そうとしているように、どこか脳の中に含まれているものではありません。精神とは、異なる生きた身体の間の関係であり、これらの身体は技術的媒体を介して一種のコミュニケーションを取り合うのです。
話し言葉は、ある意味で最初の技術的媒体で、音声的なものです。そして本や画像などがあり、これらのすべてのメディア的支援が、私たちの思考が外在化される場所であり、これらの精神を共有することを可能にします。精神とは、この共有の関係以外の何ものでもありません。私たちは何より生きた身体である私たちの間での、象徴の循環なのです。
それはまさにあなたの著作の大きな部分を占めており、最も気になっているように見えるのは他者性の問題です。これらのデジタルツールのすべて、あるいは少なくともある部分が他者性を変容させ、さらには破壊しているとお考えですね。
すべてではありません。しかし、特定の原則に従って機能するものがあります。例えば、支配的な私的ソーシャルネットワークの場合、個人は通常、原子化されています。ソーシャルネットワークと呼ばれていますが、実際にはまったくソーシャルネットワークではありません。
なぜなら、私たち一人一人が非常に個別化されていることに気づくでしょう。私たちの個人データは接続され、収集され、プロファイリングされ、互いに区別されています。私たちが出会う唯一の方法は、投稿したメッセージの閲覧数を比較することです。これは社会性ではなく、個人間の競争や対立の形態です。
これは暴力や憎しみの形態につながる可能性があります。したがって、一定の危険があります。このように機能しないソーシャルネットワークを想像することは完全に可能です。実際にそのようなものも存在し、そこでは集団的なプロジェクト、共通のプロジェクトを中心に出会い、特定の討論サロンで交流します。
必ずしも個人データで知られる必要はなく、潜在的に匿名性を保つことができます。特に、閲覧数やクリック数が必ずしも数値化されず、人気度が必ずしも主要な課題ではありません。
例えば、すみませんが、ウィキペディアの例に戻りますと、これはある形のソーシャルネットワークです。なぜなら、様々な個人が貢献し、発言し、時には少し…激しい方法で議論することもありますが、貢献する人々は、ショッキングなメッセージの閲覧数ではなく、貢献の質によって評価されるのです。
他者性の問題について最後に言えば、今日、いわゆる会話エージェントや音声アシスタントなどについて、ますます問題が生じてくると思います。これらの装置に対して、私たちのほとんどが人に話しかけるように話しかけているのを見てきましたよね。何かを頼んだり…
そうですね、怒鳴ったりもします。
その通りです、怒鳴ったりもします。でも実際には、明らかに誰かと話しているわけではありません。私たちがこれらの装置とどのように相互作用するかは、その後、私たちが互いにどのように相互作用するかに影響を与えることを理解する必要があります。
これらの装置はどのように設計され、なぜそのように作られているのでしょうか?これらは、あなたのリクエストに最も適応した方法で応答するように設計されています。なぜなら、これらのいわゆる機械学習アルゴリズムの目的は、あなたのリクエストに可能な限り適応することだからです。常にあなたのリクエストをすべて記録し、最も適切な応答を提案します。
しかし、他者と出会うということは、その逆です。他者はあなたに適応するのではありません。そうでなければ、それはもはや他者ではなく、あなた自身です。他者性があるということは、まさに抵抗があり、相互の理解不足があり、誤解があるということです。
そしてそれには能力が必要です。注意力の能力、好奇心の形態、他者への開放性など、多くの能力が必要です。私が言いたいのは、これらの装置との関係のモデルに基づいて私たちの社会関係のモデルを変形させてしまうと、さらに私たちが常に人間化するように促されているこれらの装置との関係のモデルに基づいて考えると、実際には私たちの社会性の能力、礼儀正しさの能力を失ってしまう危険があるということです。
これは、私たちが経験し、今でも経験している意見のバブルと同じ主題ですね。つまり、ソーシャルネットワーク上で、私と同じように、あるいはそれに近い考えを持つ人々しか見ないということです。これは「アイデアを持ち、それが確信となり、他者と共有されることで意見となる」という現象を引き起こしました。これは同じ問題に戻ってくるのでしょうか?
全く同じ問題ではありませんが、確かに非常に関連しています。これはまた、私の意見では非常に問題のあるコンテンツの自動推薦という考えに結びついています。「あなたはこの動画が好きでした」と言われますが、実際には好きだったかどうかは分かりません。なぜなら、質問されることは一度もないからです。
あなたはそれを見ました。
その通りです。それはあなたの注意を他のものよりも長く引きつけることができました。これがTikTokのアルゴリズムの仕組みです。あなたが見た動画の種類、クリックした動画、そして動画を見た時間に基づいて機能します。
これら二つの基準に基づいて動画が推薦されますが、これは非常に疑問です。なぜなら、例えば、ある動画に多くの時間を費やしても、それを好きではない可能性があり、それが将来推薦されるべき動画だとは思わない可能性があるからです。
テレビに関する研究が数年前に行われました。申し訳ありませんが、正確な参照は覚えていませんが、視聴者の一定の割合、たしか70%程度が好きではない番組を見ていることを示していました。これは非常に疑問です。
なぜなら、これらの自動推薦アルゴリズムはあなたの注意を捕捉するように作られているため、ある種の依存現象が引き起こされる可能性があるからです。つまり、完全に衝動的に、考えることなく、提案されたコンテンツを見続けることになります。
そして自己増殖する一種のループができます。あなたはそれらが好きではないかもしれず、他のものを見たかったかもしれませんが、それらを見たために、似たようなものが提案され続け、すぐに閉じ込められてしまいます。
TikTokの場合、Center for Countering Digital Hateという組織が示したように、心理的に少し脆弱なプロファイルを持つ青少年が、例えば鬱や自殺傾向に関連する動画を見始めると、数分で同じ種類の動画の自動推薦の泡に捕らえられてしまい、それが潜在的な病理的傾向を悪化させる可能性があります。
したがって、ここには本当の問題があります。ある放送局の社長の表現を借りれば、「利用可能な脳の時間を飽和させる」ということですね。
その通りです。これは実際、Netflixの最高経営責任者によって少し異なる方法で取り上げられました。「Netflixの最大の敵は人々の睡眠だ」と彼は言いました。つまり、人々をプラットフォーム上で可能な限り長く起きていさせることが課題となります。たとえそれが睡眠能力を危険にさらすことになったとしてもです。
私たちは睡眠が目覚めている生活にとって不可欠であることを知っています。眠らなければ、ある意味で狂ってしまうか、暴力的になってしまいます。そうです、できるだけ多くの注意を捕捉するというこの考えがあります。
最後に言いたいのは、これは再度デジタルそのものの問題ではないということです。異なる原則に基づいて、コンテンツの閲覧数や視聴時間、あるいはデータを捕捉し、人々の注意を引きつける必要のある企業のニーズだけに基づかない、異なる方法で機能する推薦アルゴリズムを想像することは完全に可能です。
実際に、人間の判断や評価に基づくアルゴリズムの推薦を想像することができます。これは「トーネソル」という非常に興味深い協会が提案していることです。彼らは協働的で貢献的な推薦アルゴリズムを開発しようとしています。つまり、個人の投票に基づくアルゴリズムです。人々が「このコンテンツはこういう理由で興味深い、あのコンテンツはこういう理由であまり興味深くない」といったことを言えるのです。そこから、全く新しい情報の循環の方法が生まれる可能性があります。
そうですね、あなたは著書の中で、アメリカのリバタリアニズムや自由主義と、ソーシャルクレジットの間でモデルを見つける必要があると述べています。ソーシャルクレジットについて説明しますと、中国では行動に応じて評価され、それによって物事や権利が解放され、ポイントが付与され、旅行ができたりできなかったりします。この二つの間でモデルを見つける必要があるとお考えですか?
はい、どちらの極端からも離れなければなりません。実際、よく見ると、これら二つのモデルは、全く同じイデオロギーとは言えませんが、ある共通の原則に基づいていることが分かります。
例えば、両者ともデジタル技術を非常に個人主義的な方法で使用し、個人のデータを収集し、追跡します。中国のモデルの場合は、その人の過去に基づいて将来を予測し、それに基づいて権利を付与します。アメリカ側では、同じように個人の過去に基づいて将来を予測しますが、特定の商品や購買行動を提案するためです。
しかし、私が信じているのは、これらのデジタル技術は、元々、個人に関するデータを収集するために開発されたわけではないということです。
また、このような方法は環境的な観点からも非常にコストがかかります。なぜなら、これは巨大なデータセンターを必要とし、それには大規模な冷却システムが必要で、大量の水を使用します。今後数年で水は本当に不足すると分かっています。すでに問題が発生している場所もあります。GoogleやMetaがデータセンターを設置しようとした際、地域住民が将来の干ばつを懸念したというケースもありました。
私が言いたいのは、このモデルは人権や人間の自由、公共生活にとって有害であるだけでなく、環境的な観点からも有害だということです。しかも、デジタル技術は元々、個人データを収集するためではなく、知識を集団的に共有するために開発されたのです。
そうですね、それがウェブのハイパーリンクの基本です。
その通りです。ハイパーテキストリンクによってサイトからサイトへと移動できます。私が信じているのは、今日、私たちはデジタルの本来の原則、つまり知識の共有、貢献、そして人間集団の結びつけという原則に立ち返ることができるということです。
デジタル国家評議会の注意力経済に関する報告書でも引用した例をいくつか挙げますと、例えば、地域の市民とボランティア、支援を必要とする人々、協会、地方自治体を結びつける代替的なプラットフォームがあります。
ここでは、デジタルが知識の共有や地域内の連帯のために活用されているのです。これは、プロファイルを個別化し、各個人間に競争関係を作り出す世界的なソーシャルネットワークとは全く異なります。
そして富は、一つのグループのためだけにあります。
その通りです。そしてプロファイルは民間の事業者の手中にあります。問題は、事業者が民間か公共かということではなく、本来なら多様化されているべき技術に対して、一部の事業者が覇権を持っているということです。
かつて私たちには複数のテレビチャンネルがありましたが、今日では – 正確な数は分かりませんが – 10社か20社ほどの大手企業がすべての資本と力を集中させています。これは非常に問題です。特に情報通信技術、つまり公共空間や意見、知識、情報の流通に関わる場合には。
最後の部分になりますが、私たちはこれらのデジタル装置にとても簡単に騙されているような印象を受けます。少なくともフランスでは、考えることなくGoogleを受け入れ、人工知能も、サービスを提供してくれるからという理由で、とても簡単に受け入れています。
これらのツールについて、即時的な有用性だけでなく、問題提起や疑問を持つために、どのような姿勢を取るべきでしょうか?それとも教育を改善する必要があるのでしょうか?
はい、教育は本当に重要な役割を果たすと思います。今日、技術の歴史や技術の人類学が学校のカリキュラムで教えられていないのは、かなり驚くべきことです。実際には、これらは非常に若い年齢から教えることができるものです。
そのため、個人は市民となる年齢、つまり成人年齢に達しても、日常のデジタル環境を生み出した技術的、メディア的進化を理解する能力を与えられていません。
必然的に問題となるのは、あなたが言ったように、これらの技術をすべて道具として捉えてしまうことです。つまり、何かを行うための手段として捉えますが、これらが手段ではなく、私たちの環境であり、私たちに作用し、変容させる環境であることに気づきません。
私たちは技術の主体でも所有者でもありません。私たちは技術によって逆に変容されているのです。そしてこのことに気づくことができないのは、まさにメディア教育の分野で非常に興味深い取り組みが行われているにもかかわらず、です。
若い世代の批判的精神の欠如についてよく語られますが、実際にはこの問題の立て方自体に問題があると思います。なぜなら、あなたはどのように批判的精神を獲得したのでしょうか?学校で読み書きを学びました。つまり、テキストを作成することを学び、テキスト作成の技術、文法、修辞学、論証などを知っているからこそ、批判的に読むことができるのです。
しかし、私たちは画像の制作方法を学んだことがありません。動画の制作方法を学んだことがありません。これらの動画がインターネット上でどのように流通するのかを学んだことがありません。アルゴリズムの作成方法や、推薦アルゴリズムの仕組みを学んだことがありません。
では、それらがどのように制作されているのかも知らないのに、受け取るコンテンツに対して批判的精神を持つことがどうしてできるでしょうか?
私は、批判的精神の欠如を嘆くのではなく、本当にメディア教育を強化する必要があると思います。また、技術の歴史や技術の人類学も強化する必要があります。
そして、教育分野では、緊張の経済の原則に基づかない、異なる方法で機能する他のタイプの技術も開放する必要があると思います。自由なソフトウェアをベースに開発されたさまざまな装置があり、データ収集や広告に基づかない代替的なソーシャルネットワークも存在します。
これらのすべての技術は、往々にして過小評価され、十分に活用されていません。しかし、教育はまさに若い世代がこれらを習得できるようにすべきです。これにより、理解や学習の努力を必要としない、非常に人間工学的なインターフェースを使用するという容易さに常に陥ることを避けられます。
これらは考えることを妨げるように設計されていますが、問題のある、懸念すべき副作用を持っている可能性があり、それを検討する必要があります。
アンヌ・アロンベールさん、ありがとうございました。あなたの著書「デジタル・スキゾフレニア」はアリア出版から出版されています。このインタビューが、デジタルツールの使用について考え、より良い使用法を見出すきっかけとなれば幸いです。
アゴラ・クロニクルが再び素晴らしいスタジオで私たちを迎えてくれたことに感謝します。インフレ時代の従来の通貨に対する最良の代替案についての彼らのレポートを無料でダウンロードすることをお忘れなく。リンクはこの動画の説明欄にあります。
コメント