“우리는 사회적으로 조작에 익숙해져야 한다”
- 동아시아 및 유럽에서 오정보와 허위 정보의 역학 관계
- 생성형 인공지능은 정보 환경과 미디어 리터러시 정책을 어떻게 변화시킬까요?
- 정치 분야: 국가의 규정과 이데올로기
- 사진 갤러리: 4개국 현장에서 이루어지는 오정보와 혐오표현에 대한 대처
- 집단적인 해결방안에 대한 세계적 관점 활용
- 컨퍼런스 프로그램 및 스피커
오정보와 음모론은 항상 사회구조의 일부로 간주되어 왔습니다. 하지만 인터넷의 등장과 소셜미디어의 부상은 뉴스가 전파되고 소비되는 양상에 근본적인 변화를 유도하게 되었고, 최근에는 인공지능 기술과 사용이 편리한 미디어 제작 도구들의 급속한 발전으로 정보 확산 속도가 더욱 가속화되었습니다. 세계 각지로 퍼져 나가는 소문, 거짓 정보, 혐오표현 조장은 많은 사회에서 사회적 균열과 양극화를 심화시켰습니다.
이와 같은 역학 관계에 대한 이해도를 높이고 적절한 개입 방법을 논의하기 위해 괴테인스티투트와 독일연방정치교육원(bpb)은 2023년 10월 28일 온라인 컨퍼런스 “Facts & Contexts Matter: 동아시아 및 유럽의 미디어 리터러시”를 공동 개최했습니다. 한국, 일본, 대만, 독일의 전문가들은 오정보, 허위정보, 온라인 혐오표현과 관련된 자국의 현 상황을 소개하고 이에 대응하기 위해 적용한 방법을 논의했습니다.
동아시아 및 유럽에서 오정보와 허위 정보의 역학 관계
오정보와 허위정보의 ‘위협’에 대한 학계와 언론계의 연구 노력은 지난 몇 년간 꾸준히 증가해 왔습니다. 기조연설자인 홍콩대학교의 마사토 카지모토와 베를린자유대학의 자네트 호프만은 오정보와 허위정보가 가하는 실질적 위험이 과장된 경우가 종종 있으며, 실증적 기반뿐만 아니라 깊이와 맥락이 부족하다는 점에 동의했습니다. “우리는 오정보가 플랫폼의 문제라고 생각하는 경우가 많습니다. 하지만 실제로는 오정보와 허위 정보의 상당수가 정치 엘리트들로부터 하향식으로 전달되는 경우가 많습니다.” 또한 호프만과 카지모토는 “허위정보는 원인이라기보다는 양극화, 불평등, 혐오, 불신 등의 문제에서 비롯된 현상입니다”라고 덧붙였습니다.오정보와 허위정보가 투표 결과나 혐오 범죄에 미치는 영향을 과학적으로 측정하기는 쉽지 않지만, 카지모토와 호프만 두 사람 모두 집단의 정체성이 오정보 공유에 영향을 미친다는 점을 언급했습니다. 호프만은 “사람들은 자신이 어느 정치 집단에 속해 있는지 알리기 위해 정보를 공유하지만 그렇다고 해서 반드시 그것을 믿는다는 의미는 아닙니다”라고 말했습니다. 카지모토는 “우리 모두가 집단 행동에 대해 인지한다면 상황은 지금보다 나아질 수 있습니다. 우리는 단기간의 기술 중심 교육에 집중할 것이 아니라 집단 행동에 대한 교육을 포함해야 합니다”라고 덧붙였습니다. 그는 단순히 팩트체크에 그치지 않고 그 이상의 것을 제공할 수 있다면 미디어 리터러시 교육이 효과를 발휘할 것으로 생각합니다. “신뢰할 수 있는 양질의 콘텐츠를 발굴하고 제작하는 데 집중해야 합니다.” 카지모토는 2019년부터 학생들이 운영하는 팩트체킹 뉴스룸 애니랩(Annie Lab)과 아시아 뉴스 및 정보 교육자 네트워크(ANNIE)를 통해 팀원들과 함께 이러한 활동을 실천하고 있습니다.
호프만은 오정보와 허위정보에 대처하는 가장 중요한 최선의 방법이 양질의 미디어라고 강조하였고, 카지모토는 영어 이외의 언어로 제공되는 양질의 정보가 부족하다는 점을 지적했습니다. 이는 팬데믹으로 인한 전 세계적인 위기 상황에서는 더욱 문제가 될 수 있습니다. 양질의 정보가 부족할 경우, 소문이 확산될 여지가 있기 때문입니다.
생성형 인공지능은 정보 환경과 미디어 리터러시 정책을 어떻게 변화시킬까요?
현재 도입된 인공지능은 시스템이 구축된 국가의 규정과 윤리를 반영합니다. 독일 인공지능연구센터(German Research Center for Artificial Intelligence)의 소장이자 연구 책임자인 안토니오 크뤼거는 “당사의 인공지능 모델은 미국 기업들이 중요하게 생각하는 가치와 대부분 일맥상통합니다. 마찬가지로 중국 모델은 중국 규제당국이 중요하게 생각하는 가치를 반영하고 있습니다”라고 이야기했습니다.크뤼거는 생성형 인공지능의 힘과 사진 및 동영상에 워터마크를 삽입하여 인간의 콘텐츠와 인공지능의 콘텐츠를 구분하는 방법 등에 대한 일반적인 설명을 제시했습니다. 나머지 두 명의 토론자는 생성형 인공지능을 사용 중인 자국의 애플리케이션을 소개했습니다. 한국에서는 혐오표현을 유포해 거센 비판을 받았던 인기 챗봇 이루다에 생성형 인공지능 모델을 도입해 교육시킨 사례가 있습니다. 서울대학교 홍성욱은 “이루다의 첫 번째 버전은 연애 상담 플랫폼인 ‘연애의 과학’에서 추출한 1억 건의 대화를 바탕으로 학습했습니다. 이루다의 혐오표현은 인간이 주고받은 대화에서 비롯된 것이었습니다.”라고 설명했습니다. 그는 이루다의 변화 과정을 연구하고, 이루다를 개발한 기술 스타트업 스캐터랩이 정보통신기술정책협회 및 이루다 사용자와 함께 윤리 원칙을 수립한 과정을 설명했습니다.
‘인공 네트워크를 사용하여 인간의 신경망을 자극하라.’ 이 메시지는 산업의 이해관계자들에게 인공지능 기술 동향을 교육하는 비영리 단체인 대만 인공지능아카데미(Taiwan AI Academy) 사무총장 이사벨 호우가 전한 메시지입니다. 그녀는 오픈소스 기술로 구동되며 실제 사용자들에게서 크라우드소싱한 지식으로 데이터베이스를 구성하는 팩트체킹 봇 코팩츠(Cofacts)를 소개했습니다. 호우는 생성형 인공지능이 모든 문제를 해결할 수는 없다고 강조했습니다. “독자가 스스로 결정을 내릴 수 있도록 디지털 리터러시를 강화해야 합니다.” 이에 덧붙여 크뤼거는 “사회 전체가 조작에 익숙해지고 새로운 도구를 학습해야 합니다.”라고 이야기했습니다. 여기에서 말하는 도구란, 다양한 이해관계자로부터 정보를 제공받는 도구를 의미합니다.
정치 분야: 국가의 규정과 이데올로기
2023년 8월 25일 유럽연합의 디지털서비스법(DSA, Digital Services Act)이 공식 발효되었습니다. Google, Meta, Amazon 등 빅테크 기업들은 이제 자사 플랫폼에 게시된 콘텐츠에 대해 더 엄격한 기준의 적용을 받게 되며, 고객이 문제가 있는 콘텐츠를 신고할 수 있는 피드백 옵션을 제공해야 합니다. 독일 싱크탱크 전략적대화기구(Institute of Strategic Dialogue)의 마우리티우스 도른은 디지털서비스법의 적용 방식을 설명하고 더욱 안전한 온라인 환경을 조성하기 위한 목적으로 법이 제정되기까지 어떤 논의가 진행되었는지 소개했습니다. 그는 문제가 되는 영역에 대해 “유럽연합 회원으로서 우리는 사이버 외교에서 중점을 두고 있는 요소가 무엇인지 알아야 합니다”라고 이야기했습니다. 세션의 사회를 맡은 베를린자유대학의 자네트 호프만은 이에 대해 “문제는 불법 콘텐츠를 정의하고 폐쇄할 플랫폼을 선택할 책임이 국가에 있다는 점입니다”라고 덧붙였습니다. 법원이 독립적이지 않은 국가에서는 이와 같은 국가적 역할이 더욱 필수적입니다. 디지털서비스법은 표현의 자유에 대한 권리를 제한하는 유럽연합 국가에서 강력한 도구로 작용하게 될 것입니다.사진 갤러리: 4개국 현장에서 이루어지는 오정보와 혐오표현에 대한 대처
-
민주언론시민연합(CCDM)의 정책위원장 정수경은 한국에서 가장 오랜 역사를 가진 미디어 감시단체의 활동을 소개했습니다. 그녀가 정책위원장을 역임하고 있는 민주언론시민연합은 1984년에 설립되어 한국 사회가 독재 정권에서 민주주의로 전환되는 과정을 함께했습니다. -
호세이대학교의 준 사카모토는 학교, 도서관 등에서의 다양한 미디어 리터러시 정책 개입에 대해 이야기했고, 싱크탱크인 스마트뉴스미디어연구소(SMRI)의 에미 나가사와는 여러 활동 중에서 미디어 리터러시 게임에 대해 소개했습니다. -
비영리기구인 아마데우안토니오재단(Amadeu Antonio Stiftung)의 시모네 라파엘은 디지털 거리 캠페인과 언론 활동부터 온라인 및 오프라인의 혐오표현에 대응하는 집단에 대한 지지 및 교육에 이르기까지, 단체에서 추진 중인 다양한 활동을 소개했습니다. -
건전한 환경은 강력한 네트워크에 달려있습니다. 대만의 비영리기구인 정보환경연구센터(IORG)의 공동이사를 역임하고 있는 치하오 유는 연구, 저널리즘, 팩트체킹, 교육 등 대만의 비정부기구들이 모여 구성한 네트워크가 대만 사회에서 신뢰의 네트워크를 구축하기 위해 긴밀하게 협력하고 있는 방식을 소개했습니다.
집단적인 해결방안에 대한 세계적 관점 활용
마지막 세션은 오정보와 혐오표현의 연관성을 구체적으로 살펴보고, 혐오표현의 정의에 대한 질문으로 시작되었습니다. 혐오표현이란 실제로 무엇을 의미하는가? 독일 전략적대화기구의 마우리티우스 도른은 “독일에서는 헌법에서 중요하게 생각하는 인간의 존엄성이 혐오표현을 결정짓는 기준이 됩니다”라고 이야기했습니다. 민주언론시민연합(CCDM)의 정수경은 “한국에서는 혐오표현의 정의가 차별에 초점을 맞추고 있습니다. 혐오표현은 곧 주류 사회에서 배제되는 것을 의미합니다”라고 덧붙였습니다. 대만 인공지능아카데미의 이사벨 호우는 대만에서는 혐오표현과 관련이 있는 허위정보에 높은 관심을 보이고 있으며, 대만 법원이 혐오표현을 정의한다고 밝혔습니다. 홍콩대학교의 마사토 카지모토는 일부 아시아 국가의 정치화된 법원에 대해 문제를 제기했고, 도른은 플랫폼이 제품과 정책을 설계할 여지가 충분하기 때문에 콘텐츠 중재 투명성과 추천 시스템의 필요성이 더욱 시급하다고 덧붙였습니다. 디지털서비스법은 이러한 노력에 기여하고자 합니다.토론자들은 혐오표현에 대처하기 위해서는 전체론적 접근 방식이 필요하다는 데 동의했습니다. 정수경은 “법적 규제만으로는 충분하지 않습니다. 교실 등에서 혐오표현을 드러내는 것을 직접적으로 금지할 수 있는 행동 규제 방안이 필요합니다. 또한 디지털 환경을 변화시켜 혐오표현에 동조하기 어려운 환경을 만들어야 합니다”라고 말했습니다. 마사토 카지모토는 교실에서 이 문제를 해결할 수 있는 다양한 방법을 간략하게 소개했습니다. 일부는 실질적 발언에 대해서만 언급하지만, 일각에서는 “혐오의 역사와 심리에 대해 배워야 합니다. 상처를 직접 마주할 필요가 있습니다”라고 이야기하기도 합니다. 토론자들은 전 연령대를 대상으로 미디어 리터러시 교육을 실시해야 한다고 지적했습니다. 혐오표현에 대처하기 위한 접근법은 사회 전반의 협조와 참여를 필요로 합니다. 마우리티우스 도른은 공익을 위한 새로운 도구와 공간을 통해 ‘민주주의를 혁신’하는 것도 중요하다고 생각합니다. “우리는 복합적인 위기 상황에 처해 있기 때문에 사람들이 혐오와 선동 없이 자신의 삶에 영향을 미치는 문제에 대해 사실 기반의 정보를 수집하고 질문할 수 있는 공간이 필요합니다”라고 말했습니다.
결론적으로 이번 콘퍼런스에서는 오정보에 대응하는 아시아와 유럽 국가들의 입장에 당초 예상했던 것보다 상당한 공통점이 있다는 사실을 보여주었습니다.