
Ekstremiści coraz częściej wykorzystują platformy związane z grami komputerowymi do rekrutacji i radykalizacji użytkowników, zwłaszcza młodych i podatnych na wpływy - poinformowali naukowcy w czasopiśmie „Frontiers in Psychology”.
Zdaniem autorów publikacji z Anglia Ruskin University (Wlk. Brytania), chociaż same rozgrywki przeważnie są niewinną rozrywką, to środowiska komunikacyjne towarzyszące grom - takie jak czaty, fora i transmisje na żywo - są wykorzystywane przez grupy ekstremistyczne do prowadzenia działalności propagandowej i rekrutacyjnej.
W ramach badania naukowcy przeprowadzili pogłębione wywiady z moderatorami treści platform związanych z grami, ekspertami technologicznymi oraz osobami zajmującymi się przeciwdziałaniem radykalizacji i przemocy. Uwzględnili regulaminy platform oraz istniejącą literaturę naukową.
Ustalili, że to nie same gry komputerowe, lecz serwisy komunikacyjne używane przez graczy, takie jak Discord, Twitch i Steam, tworzą podatny grunt do szerzenia treści ekstremistycznych. Chodzi przede wszystkim o platformy umożliwiające czatowanie, komentowanie oraz prowadzenie transmisji na żywo, na których dochodzi do bezpośredniego kontaktu między użytkownikami.
Badacze podkreślają, że szczególnym zainteresowaniem grup ekstremistycznych cieszą się gry o charakterze militarystycznym i z estetyką hipermęskości, zwłaszcza strzelanki z perspektywy pierwszej osoby. Takie tytuły łączą nieznajomych wokół wspólnych zainteresowań, co ułatwia nawiązywanie relacji.
Autorzy badania opisali zjawisko tzw. „funnelingu”, czyli celowego przenoszenia graczy z głównych, lepiej nadzorowanych mediów społecznościowych (np. Facebooka czy Instagrama) na serwisy mniej moderowane. Proces ten rozpoczyna się często od pozornie neutralnych lub żartobliwych treści, które zawierają odniesienia do ideologii ekstremistycznych. Z czasem, gdy interakcje przenoszą się na mniej nadzorowane kanały, użytkownicy są stopniowo oswajani z coraz bardziej radykalnymi narracjami. Szczególnie narażeni na takie zachowania są bardzo młodzi użytkownicy.
Zidentyfikowane w badaniu treści ekstremistyczne obejmowały głównie ideologię skrajnie prawicową, m.in. białą supremację, neonazizm, antysemityzm, a także mizoginię, rasizm, homofobię i teorie spiskowe.
Nieco rzadziej pojawiają się materiały powiązane z ekstremizmem islamistycznym.
Obecne są również treści, które nie zawsze mają charakter ideologiczny, ale wiążą się z przemocą, np. gloryfikujące szkolne strzelaniny. Wszystkie tego typu materiały naruszają regulaminy większości platform, lecz często nie są skutecznie wychwytywane przez systemy moderacji.
Autorzy publikacji wskazali konkretne przypadki wykorzystania opisywanych platform w kontekście aktów przemocy. W 2022 roku sprawca ataku w Buffalo wykorzystywał prywatny serwer na Discordzie do planowania zamachu i publikowania treści o charakterze ekstremistycznym. Podobne mechanizmy zaobserwowano podczas protestów w Charlottesville w 2017 r. (demonstracja skrajnej prawicy zakończona śmiercią jednej osoby) oraz ataku w Halle w 2019 r. (zamach na synagogę i lokal gastronomiczny w Niemczech) oraz szturmu na Kapitol USA w styczniu 2021 roku, w trakcie którego transmisje prowadzono m.in. za pośrednictwem platformy DLive.
Moderatorzy, którzy wzięli udział w badaniu, zwrócili uwagę na problemy związane z egzekwowaniem zasad i brak jasnych procedur raportowania treści do odpowiednich służb. Część z nich czuje się przytłoczona ogromem i złożonością treści, które muszą kontrolować. Wskazują także na częste stosowanie ukrytych symboli i kodów przez użytkowników, by obejść zakazane słowa. Choć sztuczna inteligencja może nieco wspomagać moderację, nie potrafi dobrze interpretować memów, ironii i wieloznacznego języka.
W opinii autorów organy ścigania powinny lepiej rozumieć sposób działania platform wykorzystywanych przez społeczności graczy oraz związanych z nimi subkultur. Kluczowe znaczenie ma również edukacja rodziców, nauczycieli i samych dzieci na temat zagrożeń związanych z radykalizacją online. Wiele osób nie wie, jak i gdzie zgłaszać treści ekstremistyczne, a nawet jeśli to robią, często mają poczucie, że ich zgłoszenia nie są traktowane poważnie.
Dr William Allchorn, współautor badania, zwrócił uwagę, że w ostatnich latach bardzo silnie skupiano się na poprawie bezpieczeństwa na największych mediach społecznościowych, podczas gdy te mniejsze, m.in. serwisy powiązane z grami, pozostawały poza nadzorem.
Dlatego apeluje o wzmocnienie systemów moderacji, zarówno opartych na sztucznej inteligencji, jak i na ludziach, oraz o aktualizację polityk platform w celu reagowania na treści, które są szkodliwe, choć technicznie zgodne z prawem.
- Stanowcze działania przynoszą efekty, a platformy mogą zrobić więcej, by ograniczyć rozprzestrzenianie się ekstremizmu - powiedział.
Katarzyna Czechowicz (PAP)
kap/ zan/
Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.