Trolling internetowy
Liczy się tylko nienawiść
Julii Ebner udało się przeniknąć do środowiska internetowych trolli i przyjrzeć się, jak działają. Ich strategie są proste – i fatalne w skutkach.
Marlene Halser: Fabryki trolli – to brzmi jak mieszanka gry komputerowej z gatunku fantasy i „Władcy pierścieni“. Kim jest internetowy troll?
Julia Ebner: To użytkownik, który celowo próbuje utrudniać komunikację w sieci. Awanturnik, często kosztem innych. Najczęściej próbuje podżegać do konliktów i wpływać na opinie innych użytkowników.
W 2016 roku, podczas kampanii poprzedzającej wybory prezydenckie w USA, okazało się, że trollom coraz częściej przyświecają cele polityczne.
Dawniej trolle rzeczywiście ograniczały się „tylko“ do robienia kawałów. Wybór Trumpa na prezydenta USA to punkt zwrotny. Od tamtej pory trolle coraz bardziej próbują wywierać wpływ na opinie krążące w mediach społecznościowych. Reconquista Germanica, największa w Niemczech fabryka trolli, a także wiele innych podobnych organizacji, przede wszystkim radykalnie prawicowe wspólnoty internetowe trolli w różnych krajach europejskich, wiele się nauczyły obserwując aktywność swoich amerykańskich kolegów podczas kampanii prezydenckiej na przełomie lat 2015 i 2016. Zdobyte wówczas know-how stosują teraz w swoich krajach.
50 procent lajków pod hejtami pochodzi od zaledwie 5 procent rzeczywistych użytkowników.
To radykalnie prawicowa „armia” trolli, która próbuje wywrzeć wpływ na dyskurs polityczny w Niemczech. Inicjuje na Facebooku i na Twitterze kampanie zastraszające i dezinformujące. Na krótko przed wyborami do Bundestagu w 2017 roku Reconquista Germanica miała 7 000 członków, tuż przed ostatnim zablokowaniem jej serwera w czerwcu 2018 roku grupa liczyła aż 10 000 członków. Grupa jest zorganizowana według rygorystycznej hierarchii, na wzór wojskowy, częściowo nawiązującej do nazizmu. Ale to nie jedyna taka grupa. Na przykład #Infokrieg (dosł. Wojna informacyjna) jest znacznie mniejsza i należy do sieci tzw. Identytarystów, radykalnie prawicowego ugrupowania, które uważa muzułmanów i migrantów za zagrożenie dla tożsamości europejskiej. Członkowie obu grup komunikują się za pośrednictwem czatu Discord.
Przed wyborami do Bundestagu w 2017 roku analizowała Pani aktywność obu tych kontrowersyjnych grup. Udało się Pani przeniknąć do ich siatki. Co Pani zaobserwowała?
Najbardziej mnie zaskoczyło i zmartwiło to, jak bardzo skoordynowane są akcje trolli i jak skutecznie ich „armie“ działają w mediach społecznościowych. Nie spodziewałam się tego.
Jakie efekty przynoszą akcje w mediach społecznościowych?
To, co zaplanują trolle na tajnych platformach, widać później na kanałach mainstreamowych. Udaje im się wylansować trendy na określone hashtagi, celowo „zasypywać“ hejtami określonych polityków, dziennikarzy i aktywistów, zastraszać ich postami. Analiza wykazała, że ponad 50 procent lajków pod hejtami w mediach społecznościowych pochodzi tylko od 5 procent rzeczywistych użytkowników. Reszta to sprawka trolli. Ich działalność przynosi efekty – to dość przerażające.
By atakować swoich przeciwników po lewej stronie sceny politycznej, trolle tworzą konta, które sytuują się światopoglądowo w pobliżu obozu lewicowego.
Są różne możliwości, w zależności od tego, co chce się osiągnąć. Jedną z nich są kampanie manipulacyjne online – lub jak mówią trolle, „raids”.
Czyli „ataki“. To język militarny.
Tak, język trolli czerpie z nomenklatury wojskowej. Ale opiera się również na języku gier komputerowych. „Raid” to w grach komputerowych „wielki napad”. Celem jest wylansowanie hashtagu własnego autorstwa lub przejęcie hashtagu pochodzącego z obozu lewicowego i znajdującego się w czołówce trendów na Twitterze. Aby to się mogło udać, trolle umawiają się w swoich grupach na określoną godzinę i publikują w tym samym czasie bardzo dużo tweetów lub postów opatrzonych jednym i tym samym hashtagiem.
Dlaczego nie wiadomo od razu, kto za tym stoi? Gdy okazuje się, że hejty generowane są przez wciąż te same konta?
Trolle często korzystają z fałszywych kont – takie konta powstają miesiącami dzięki nagromadzeniu tweetów i followerów. Dlatego można odnieść wrażenie, że bardzo wiele osób zamieszcza posty lub tweety opatrzone tym samym hashtagiem, choć w rzeczywistości to sprawka niewielu technicznie uzdolnionych trolli. Bywa, że trolle tworzą specjalnie konta o treściach lewicowych czy lewicujących. Z początku osoba, która administruje takim kontem, zamieszcza posty lub tweety na tematy raczej niezwiązane z polityką, by później zaatakować przeciwników korzystając z ustalonego wcześniej hashtagu. To tak zwany „red pilling“. Podawanie czerwonej pastylki.
Aluzja do filmu „Matrix“?
Dokładnie tak. Ten, kto połknie czerwoną pastylkę, wreszcie zobaczy, jaki świat jest naprawdę. Kto weźmie niebieską pastylkę, nadal będzie żył snem. „Red pilling“ to eufemizm na określenie procesu radykalizowania się, który trolle chcą wywołać u innych osób. Chodzi im o to, by podzielić ludzi na dwa obozy: własny i wrogi. W ich przekonaniu nikt nie powinien mieć poglądów centrowych.
Na forach internetowych trolli słychać porady, by po dwóch, trzech tweetach zmienić konto – żeby uniknąć tak zwanego „shadow banning“.
Obecnie Facebook i Twitter rejestrują już, gdy jeden użytkownik korzysta ze zbyt wielu kont lub gdy ktoś opublikuje zbyt wiele tweetów w krótkim czasie. Wówczas konto zostaje zablokowane. To w żargonie trolli tak zwany „shadow banning“. Dlatego na forach dyskusyjnych trolli pojawiają się rady, by już po dwóch, trzech tweetach zmienić konto.
W styczniu 2018 roku weszła w życie Netzwerkdurchsetzungsgesetz, czyli ustawa na rzecz lepszego egzekwowania prawa w mediach społecznościowych, powszechnie zwana „ustawą facebookową” (Facebook-Gesetz), w skrócie NetzDG. Ustawa zobowiązuje media społecznościowe do bardziej konsekwentnego usuwania mowy nienawiści ze swoich platform. Czy to coś daje?
NetzDG odwraca uwagę od rzeczywistego problemu. Usuwanie postów, które nawołują do stosowania przemocy, rozpowszechniają treści niebezpieczne lub karalne lub są wyraźnie naznaczone mową nienawiści, to oczywiście również część strategii. Ale sam termin „mowa nienawiści“ nie jest niestety precyzyjnie zdefiniowany. Oznacza to, że pracownicy mediów społecznościowych sami muszę decydować, który komentarz zaliczyć do mowy nienawiści, a który nie. Ostatnie miesiące pokazały, że skutkiem NetzDG jest również dezorientacja i że nierzadko, przy powoływaniu się na ustawę, usuwane są z sieci również treści satyryczne. NetzDG to rozwiązanie polityczne, lecz ustawa nie może prowadzić do tego, że poklepiemy się po ramieniu i powiemy sobie: świetnie, to był nasz przyczynek do zwalczania nienawiści i ekstremizmu w sieci, zrobiliśmy, co w naszej mocy i teraz możemy spać spokojnie. To byłby wielki błąd.