「身處社會之中,我們必須習慣被操縱。」

Der Erfahrungsaustausch über den Umgang mit Fehl- und Desinformation kann inspirieren. Das Bild zeigt eine Gruppe von Menschen, die an ihren Laptops arbeiten. Illustration: Yukari Mishima. © bpb/Goethe-Institut; Illustration: Yukari Mishima

2023年10 月,來自東亞和歐洲的 12 位專家匯聚一堂,討論如何有效應對網路錯誤訊息和仇恨言論,並各自提出了創新方法以解決問題。




錯誤資訊和陰謀論一直是社會結構的一部分。然而,網際網路的出現和社交媒體的興起從根本上改變了新聞的傳遞和接收。最近人工智慧技術的發展和易於使用的媒體制作工具進一步加速了資訊的傳播。在許多社會中,世界範圍內的謠言、造假消息和煽動仇恨的言論加深了社會裂痕和兩極分化。

為了更好地了解這些動態,並討論如何實施干預措施,歌德學院德國聯邦公民教育局 在2023年10月28日聯合舉辦「事實與脈絡很重要:東亞和歐洲的媒體素養」活動。來自韓國、日本、台灣和德國的專家介紹了各自地區打擊錯誤資訊、造假消息以及網絡仇恨言論的方法。

東亞和歐洲的錯誤資訊和造假消息動態

在過去幾年中,學術界和新聞界對錯誤資訊和造假消息 「威脅 」的研究興趣在全球範圍內持續增長。來自香港大學的鍛治本正人(Masato Kajimoto)和柏林自由大學的珍妮特.霍夫曼(Jeanette Hofmann)在主旨發言中一致認為,誤報和假新聞的實際威脅有時遭過分誇大,缺乏深度和背景,也缺乏經驗基礎。霍夫曼表示:「我們經常認為,錯誤資訊是平台的問題, 但很多造假和錯誤的資訊實則自上而下 — 來自政治菁英。」鍛治本補充說道:「錯誤資訊是兩極分化、不平等、仇恨、不信任和其他問題的癥狀,而不是原因」。

錯誤資訊和造假消息對投票行為或仇恨犯罪的影響往往難以科學衡量,但兩位專家都談到了集體認同在分享誤導性資訊方面的影響。霍夫曼說:「分享資訊是為了表明屬於哪個政治團體,而不一定是因為相信這些資訊。」 「如果每個人都了解部落行為,情況可能會好一些。我們應該開展關於群體行為的教育,而不是專注於短期的、以技術為中心的教育」,鍛治本說,他相信媒體素養教育重要,但認為媒體素養教育不應局限於事實核查,「我們應更注重識別和創造可信的優質內容」。通過他的學生主導的新聞編輯室和事實查核項目Annie Lab 以及亞洲新聞與資訊教育工作者網絡(ANNIE),這正是他的團隊和網絡自2019年以來一直努力在做的事情。

霍夫曼強調了高品質媒體的重要性,認為這是對抗錯誤資訊和造假消息的最佳途徑之一,而鍛治本則指出,除英文外,其他語言缺乏高品質的資訊。這可能是一個問題,尤其是在全球傳染病大流行時期,在缺乏高品質資訊的地方,謠言就有了滋生的空間。
 
台灣民主實驗室社會參與負責人劉羿雯主持了香港大學的鍛治本正人(Masato Kajimoto)和柏林自由大學的珍妮特-霍夫曼(Jeanette Hofmann)之間的對話。

生成式人工智慧如何改變資訊環境和媒體素養?

我們現有的人工智慧模型反映了建立系統的法規和倫理。德國人工智慧研究中心首席執行長兼科學主任安東尼奧.克呂格(Antonio Krueger)說:「目前,我們的人工智慧模型大多符合美國公司認為我們應該符合的標準,而中國的模型則符合中國監管機關認為它們應該如何工作的標準。」

克呂格更廣泛地探討了生成式人工智慧的力量,以及在照片和影片中加入水印以區分真人與人工智慧生成內容的方法。另外兩位小組成員談到了生成式人工智慧的本地應用。在韓國,流行的聊天機器人 「Iruda 」曾因傳播仇恨言論而受到強烈批評,通過引入生成式人工智慧模型,該機器人不再有偏差行為。「Iruda 的第一個版本是通過從 『Science of Love Service』(一個戀愛諮詢平台)中檢索到的一億條聊天記錄訓練出來的。她的仇恨言論來自人類交換的聊天記錄」,首爾大學的洪性旭(音譯,Sungook Hong )講述道。他研究了 Iruda 是如何轉變的,並解釋了為 Iruda 編碼的技術新創公司 Scatter Lab 是如何與韓國情報通信企劃評價院政策研究所和 Iruda 的用戶共同創建倫理原則的。

利用人工網絡刺激人類神經網絡,這是侯宜秀(Isabel Hou)在演講中傳達的訊息。侯宜秀是非營利組織台灣人工智慧學校的秘書長,該組織旨在教育行業利益相關者了解人工智慧技術的發展趨勢。在演講中,她介紹了基於開源技術運行的事實查核機器人Cofacts,其數據庫由活躍用戶眾包的知識組成。侯宜秀強調,僅靠生成式人工智慧並不是靈丹妙藥: 「增強讀者的能力,提高他們的數位素養,讓他們能夠自己做出決定」。克呂格補充道:「作為一個社會,我們需要習慣操縱 — 並學習新的工具, 這些工具由不同的利益相關者提供資訊。」
 
第二場討論是關於生成式人工智慧的挑戰。 除了描述現有趨勢之外,專家們還介紹了各國當地的應用程式 - 例如韓國聊天機器人 Iruda 和台灣聊天機器人計畫 Cofacts。

談論政治: 國家法規與意識形態

2023 年 8 月 25 日,歐盟《數位服務法案》(DSA)正式生效。Google、Meta 或亞馬遜等科技巨頭現在要對其平台上發布的內容承擔更嚴格的責任,並需要為客戶提供反饋選項,以便他們能夠報告有問題的內容。來自英國戰略對話研究所的毛里裘斯.多恩(Mauritius Dorn)解釋了《網路安全法》的運作方式,並講述了一些討論過程,這些討論促成了旨在營造更安全的網路環境的法案。他談到了存在問題的領域: 「我們需要了解歐盟在網路外交中重點關注哪些因素。」柏林自由大學的珍妮特.霍夫曼主持了會議,她補充道:「如由民族國家來界定非法內容,從而確定哪些平台需要下架,將是個嚴重的問題,在司法不獨立的國家尤為關鍵。對於限制言論自由權的歐盟國家來說,DSA 最終可能會成為一個強有力的工具。」
 
雖然歐洲希望與 DSA 合作,更密切地監管大型平台,但日本卻依靠非政府組織的工作來打擊錯誤訊息和虛假訊息。 在第三場討論中,ISD 的毛里裘斯.多恩(Matthias Dorn)和 JFC 的古田大輔(Daisuke Furuta)解釋了(不)監管的原因以及它帶來的優缺點。
日本事實查核中心(Japan Fact-check Center)主編稱,這可能是日本政府反對平台監管的原因之一:「在日本,總務省平台服務研究小組建議,應由私營部門打擊不實資訊,而不是通過法律進行監管。」他認為應加強創立具有 「中立治理結構 」的組織。古田指出:「當然,私營事實查核組織無法單獨應對大型科技平台」,並提到需要某種監管:「然而,這並不是我們現任政府的當務之急」。總體而言,日本似乎較少受到錯誤資訊和造假消息的影響 — 與鄰近的台灣一樣。古田的事實查核組織與台灣的同類組織有著密切的聯系: 「大多數事實核查工具都來自西方國家,但我們缺少中文工具。台灣在開發這些工具方面走在前列。」他認為,需要更加了解 「非西方 」平台,如中國的微博服務或日本的即時通訊應用程式 Line,以打擊錯誤資訊或有害言論。

圖片庫: 在四個國家實地應對錯誤資訊和仇恨言論

  • Die Geschichte von CCDM: Wie und warum die südkoreanische zivilgesellschaftliche Medienbeobachtungsstelle gegen Desinformation und Hassrede vorgeht © Goethe-Institut Korea/bpb
    韓國民主媒體公民聯盟 (CCDM) 政策主席鄭秀璟(音譯, Sookeung Jung) 談論了韓國歷史最悠久的媒體監督組織的活動,該組織成立於 1984 年,伴隨著韓國從獨裁走向民主的過渡。
  • Desinformation und Strategien zur Förderung der Medienkompetenz in Japan © Goethe-Institut Korea/bpb
    假訊息與促進日本媒體素養的策略:法政大學的坂本旬(上圖)談到了促進媒體素養的各種措施,如學校和圖書館的例子; SmartNews媒體研究所(SMRI)的長澤江美(下圖)則介紹了媒體素養遊戲和其他活動。
  • Bekämpfung von Desinformation und Hassrede in Deutschland © Goethe-Institut Korea/bpb
    在德國打擊假訊息和仇恨言論:非政府組織阿馬杜・安東尼奧基金會(Amadeo Antonio Stiftung)的西蒙妮・拉法埃爾(Simone Rafael)介紹了她的組織的活動,包括數位街頭工作、新聞活動和講師培訓。
  • Aufbau eines glaubwürdigen Informationsnetzwerks in Taiwan © Goethe-Institut Korea/bpb
    在台灣建立可信賴的資訊網絡:非政府組織台灣資訊環境研究中心(IORG)共同主持人游知澔描述了致力於研究、新聞、事實查核和教育的各種非政府組織的密集網絡,以加強媒體素養並增強對可靠資訊來源的信任。

利用全球視角尋求集體解決方案

最後一個小組專門探討了錯誤資訊與仇恨言論之間的聯系,並從定義問題入手:什麽是仇恨言論?「在德國,人類尊嚴在憲法中的突出地位決定了對仇恨言論的態度」,戰略對話研究所的多恩表示。「在韓國,定義的重點是歧視。仇恨言論意味著人們被排斥在主要社會之外」,韓國民主言論市民聯合 (CCDM) 的鄭秀璟補充道。台灣人工智慧學校的侯宜秀認為,不論台灣法院如何定義仇恨言論是什麽,仇恨言論與造假消息之間關聯不容忽視。香港大學的鍛治本正人提出了亞洲一些國家法院政治化的問題,多恩補充說,平台在設計其產品和政策方面有很大的空間,這就是為什麽迫切需要提高內容審核和推薦系統的透明度。歐盟《數位服務法案》試圖為這一努力做出貢獻。
 
在最後的小組討論中,專家們討論了錯誤訊息和仇恨之間的聯繫,並討論了可能的解決方案。
小組成員一致認為,要解決仇恨言論問題,必須采取綜合方法。「法律監管是不夠的。還需要行為監管,直接禁止仇恨言論的表達,例如在課堂上。此外,還需要改變數位環境,使仇恨言論更難傳播」,鄭秀璟表示。鍛治本概述了課堂上解決這一問題的不同方法。有的只處理所說的內容。另一些則說「讓我們了解歷史,讓我們了解仇恨心理,讓我們揭開傷口」。小組成員指出,媒體素養教育應針對所有年齡段的人。解決仇恨言論問題的方法需要良好的協調和全社會的參與。多恩認為,這也是通過新工具和新空間來 「創新民主」,以維護公眾利益: 「我們正處於多重危機之中,因此我們需要一些空間,讓人們能夠獲得基於事實的資訊,了解問題對他們生活的影響,並在沒有仇恨和煽動的情況下提出他們的問題。」

總歸而言,這次會議表明,亞洲和歐洲國家在應對錯誤資訊方面的共同點可能比最初想象的要多。

會議流程及講者

作者

請您訂閱歌德學院社群網站