ゲーテ・インスティトゥートとドイツ連邦政治教育センター(bpb)は、メディアが持つ力に対する理解を深め、虚偽の情報やオンライン上のヘイトスピーチへの対応策の実施方法について議論することを目的に、「Facts and Contexts Matter: Media Literacy in East Asia and Europe(フェイクニュースとメディア・リテラシー:東アジアとヨーロッパからの視座)」を共同開催しました。韓国、日本、台湾、ドイツから専門家を招き、それぞれの地域の状況と、誤情報や偽情報、オンラインのヘイトスピーチと闘うために採用している方法について議論していただきました。
ここ数年、誤情報と偽情報の「脅威」に関する研究への関心は、世界中の学術界とジャーナリズム双方で着実に高まっています。基調講演に登壇した香港大学の鍛冶本正人氏とベルリン自由大学のジャネット・ホフマン氏は、誤情報や偽情報の実際の脅威が時には過剰に誇張され、経験に基づく根拠だけではなく、深みや背景を欠いていることがあるという点で意見が一致しました。「誤情報はプラットフォームの問題だと思われがちですが、虚偽や誤解を招く情報の多くはトップダウン、つまり政治エリートからもたらされています」とホフマン氏は話しました。これに付け加えて鍛冶本氏は「誤情報はむしろ両極化、不平等、憎悪、不信、その他の問題の症状であって原因ではありません」と述べました。
[Insert picture of screenshot on the right side. Byline: モデレーターを務めたラウ・アイメン氏(ダブルシンク・ラボのソーシャル・エンゲージメント・リード)、鍛冶本正人氏(香港大学)とジャネット・ホフマン氏(ベルリン自由大学)]
誤情報や偽情報が投票行動やヘイトクライムに及ぼす影響は、科学的に測定することが難しい場合が多いのですが、両専門家は、誤解を招く情報の共有における集団のアイデンティティーの影響について話しました。「情報は、自分がどの政治団体に属しているかを示すために共有するのであって、必ずしもその情報を信じているからではありません」とホフマン氏は述べています。これに対して鍛冶本氏は「全員が集団重視の行動を意識すれば状況は良くなるかもしれません。短絡的でテクノロジー中心の教育ではなく、集団行動に関する教育を取り入れるべきでしょう。私たちは信頼できる質の高いコンテンツを識別し、作成することをもっと重視するべきです」と話し、ファクトチェックの域を超えるのであれば、メディア・リテラシー教育は必要であるという考えを示しました。同氏のチームとネットワークは、2019年から同氏の学生が主導するニュースルームを使って、ファクトチェック・プロジェクトのアニーラボ(Annie Lab)とAsian Network of News and Information Educators(ANNIE)の運営を行っています。
クルーガー氏は、生成AIの力と、例えば写真や動画に透かしを入れることで人間的なコンテンツを人工的なコンテンツと区別する方法について、さらに幅広い考察を行いました。他の2人のパネリストは、生成AIを使ったローカルアプリケーションの話をしました。韓国では、ヘイトスピーチを拡散して強い批判を受けた人気チャットボット「イルダ」に生成AIモデルを導入して再教育が行われました。「イルダの最初のバージョンは、『Science of Love Service』(恋愛相談プラットフォーム)から取得した1億件のチャットを使ってトレーニングされました。イルダのヘイトスピーチは人間が交わしたチャットから生まれたものなのです」とソウル大学校のホン・ソンウク氏は述べました。同氏は、イルダがどのように変わったかを研究し、イルダのプログラミングを行った技術系スタートアップのスキャッターラボが、ICT Policy institute(ICT政策研究所)やイルダのユーザーと共創しながらどのように倫理原則を確立したかを説明しました。