Naukowcy: ekstremiści wykorzystują platformy związane z grami do rekrutacji młodzieży

Fot. Adobe Stock
Fot. Adobe Stock

Ekstremiści coraz częściej wykorzystują platformy związane z grami komputerowymi do rekrutacji i radykalizacji użytkowników, zwłaszcza młodych i podatnych na wpływy - poinformowali naukowcy w czasopiśmie „Frontiers in Psychology”.

Zdaniem autorów publikacji z Anglia Ruskin University (Wlk. Brytania), chociaż same rozgrywki przeważnie są niewinną rozrywką, to środowiska komunikacyjne towarzyszące grom - takie jak czaty, fora i transmisje na żywo - są wykorzystywane przez grupy ekstremistyczne do prowadzenia działalności propagandowej i rekrutacyjnej.

W ramach badania naukowcy przeprowadzili pogłębione wywiady z moderatorami treści platform związanych z grami, ekspertami technologicznymi oraz osobami zajmującymi się przeciwdziałaniem radykalizacji i przemocy. Uwzględnili regulaminy platform oraz istniejącą literaturę naukową.

Ustalili, że to nie same gry komputerowe, lecz serwisy komunikacyjne używane przez graczy, takie jak Discord, Twitch i Steam, tworzą podatny grunt do szerzenia treści ekstremistycznych. Chodzi przede wszystkim o platformy umożliwiające czatowanie, komentowanie oraz prowadzenie transmisji na żywo, na których dochodzi do bezpośredniego kontaktu między użytkownikami.

Badacze podkreślają, że szczególnym zainteresowaniem grup ekstremistycznych cieszą się gry o charakterze militarystycznym i z estetyką hipermęskości, zwłaszcza strzelanki z perspektywy pierwszej osoby. Takie tytuły łączą nieznajomych wokół wspólnych zainteresowań, co ułatwia nawiązywanie relacji.

Autorzy badania opisali zjawisko tzw. „funnelingu”, czyli celowego przenoszenia graczy z głównych, lepiej nadzorowanych mediów społecznościowych (np. Facebooka czy Instagrama) na serwisy mniej moderowane. Proces ten rozpoczyna się często od pozornie neutralnych lub żartobliwych treści, które zawierają odniesienia do ideologii ekstremistycznych. Z czasem, gdy interakcje przenoszą się na mniej nadzorowane kanały, użytkownicy są stopniowo oswajani z coraz bardziej radykalnymi narracjami. Szczególnie narażeni na takie zachowania są bardzo młodzi użytkownicy.

Zidentyfikowane w badaniu treści ekstremistyczne obejmowały głównie ideologię skrajnie prawicową, m.in. białą supremację, neonazizm, antysemityzm, a także mizoginię, rasizm, homofobię i teorie spiskowe.

Nieco rzadziej pojawiają się materiały powiązane z ekstremizmem islamistycznym.

Obecne są również treści, które nie zawsze mają charakter ideologiczny, ale wiążą się z przemocą, np. gloryfikujące szkolne strzelaniny. Wszystkie tego typu materiały naruszają regulaminy większości platform, lecz często nie są skutecznie wychwytywane przez systemy moderacji.

Autorzy publikacji wskazali konkretne przypadki wykorzystania opisywanych platform w kontekście aktów przemocy. W 2022 roku sprawca ataku w Buffalo wykorzystywał prywatny serwer na Discordzie do planowania zamachu i publikowania treści o charakterze ekstremistycznym. Podobne mechanizmy zaobserwowano podczas protestów w Charlottesville w 2017 r. (demonstracja skrajnej prawicy zakończona śmiercią jednej osoby) oraz ataku w Halle w 2019 r. (zamach na synagogę i lokal gastronomiczny w Niemczech) oraz szturmu na Kapitol USA w styczniu 2021 roku, w trakcie którego transmisje prowadzono m.in. za pośrednictwem platformy DLive.

Moderatorzy, którzy wzięli udział w badaniu, zwrócili uwagę na problemy związane z egzekwowaniem zasad i brak jasnych procedur raportowania treści do odpowiednich służb. Część z nich czuje się przytłoczona ogromem i złożonością treści, które muszą kontrolować. Wskazują także na częste stosowanie ukrytych symboli i kodów przez użytkowników, by obejść zakazane słowa. Choć sztuczna inteligencja może nieco wspomagać moderację, nie potrafi dobrze interpretować memów, ironii i wieloznacznego języka.

W opinii autorów organy ścigania powinny lepiej rozumieć sposób działania platform wykorzystywanych przez społeczności graczy oraz związanych z nimi subkultur. Kluczowe znaczenie ma również edukacja rodziców, nauczycieli i samych dzieci na temat zagrożeń związanych z radykalizacją online. Wiele osób nie wie, jak i gdzie zgłaszać treści ekstremistyczne, a nawet jeśli to robią, często mają poczucie, że ich zgłoszenia nie są traktowane poważnie.

Dr William Allchorn, współautor badania, zwrócił uwagę, że w ostatnich latach bardzo silnie skupiano się na poprawie bezpieczeństwa na największych mediach społecznościowych, podczas gdy te mniejsze, m.in. serwisy powiązane z grami, pozostawały poza nadzorem.

Dlatego apeluje o wzmocnienie systemów moderacji, zarówno opartych na sztucznej inteligencji, jak i na ludziach, oraz o aktualizację polityk platform w celu reagowania na treści, które są szkodliwe, choć technicznie zgodne z prawem.

- Stanowcze działania przynoszą efekty, a platformy mogą zrobić więcej, by ograniczyć rozprzestrzenianie się ekstremizmu - powiedział.

Katarzyna Czechowicz (PAP)

kap/ zan/

Fundacja PAP zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: naukawpolsce.pl, a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - naukawpolsce.pl. Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów wideo.

Czytaj także

  • Fot. Adobe Stock

    Olbrzymie dinozaury miały słaby zgryz

  • Fot. Adobe Stock

    Endometrioza jest powiązana z setkami innych chorób

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

newsletter

Zapraszamy do zapisania się do naszego newslettera