Wiadomość

Ekstremiści próbują oszukać media społecznościowe

Zdj. ilustracyjne (PxFuel i Pxabay CC) oszukać media społecznościowe
Zdj. ilustracyjne (PxFuel i Pxabay CC)

Ekstremiści zmieniają kody porozumiewania się, żeby oszukać algorytmy moderujące treści w mediach społecznościowych, takich jak Instagram i YouTube.

Od kiedy działanie takich organizacji jak Państwo Islamskie czy Al-Kaida zostało skutecznie ograniczone, skupiają się one na radykalizacji i rekrutacji potencjalnych terrorystów, tzw. „samotnych wilków”, przez internet. Jednak, żeby być skutecznymi muszą zmieniać komunikację, która jest na bieżąco uaktualniana w algorytmach moderujących.

Sieć używana jest głównie do promocji nienawistnych idei, czy to skrajnie prawicowych, czy lewicowych czy islamistycznych. Jednak jak twierdzi ekspert z organizacji monitorującej skrajną prawicę „Hope not Hate” Patrik Hermansson „istnieją bardziej specyficzne, mniejsze grupy, które bardziej nastawione są na działania i planują użycie przemocy”. „Docierają oni do ludzi i wysyłają bezpośrednie wiadomości, proponując im dołączenie”, twierdzi Hermansson. Oznacza to, że przejście z kręgu ideologicznego zacietrzewienia do kręgu działań przemocowych odbywa się już poza publicznym dyskursem.

Jednak firmy zarządzające sieciami społecznościowymi ograniczają także promowanie nienawiści; tutaj ekstremiści posługują się zakodowanym językiem lub świadomie są niejednoznaczni co do swoich intencji. Jednym ze sposobów jest niepoprawne wymawianie pewnych słów, które mogłyby zwrócić uwagę algorytmów moderujących.

To rodzi jednak kolejny problem. Często programy, specjaliści i dziennikarze zajmujący się tematyką muszą posługiwać się pewnym zestawem słów do opisania zagadnienia. Nieraz dochodziło do sytuacji, że z powodu debaty na temat terroryzmu materiał był oznaczany i trafiał na słabsze zasięgi w sieci.

Mimo tych ograniczeń moderatorom nie udaje się wyłapać całości szkodliwych treści. Brytyjski dziennik „i” odkrył na YouTube konto islamisty pochodzącego z Maroka, który znajduje się w bazie Counter Extremist Project.

Joe Whittaker z Uniwersytetu Swansea zajmujący się cyberzagrożeniami, kryminologią i socjologią twierdzi, że w dzisiejszych czasach mniej chodzi o utrzymywanie kontaktu, a bardziej o inspirowanie pojedynczych ekstremistów czy małych komórek terrorystycznych. I tu widzi rolę dla moderatorów w internecie.

O różnych obliczach mediów społecznościowych przeczytasz tutaj:

〉 Media społecznościowe cenzorem XXI wieku

〉 Media społecznościowe: trybuna kaznodziejów nienawiści

〉 Media społecznościowe i nowe oblicze politycznie poprawnej cenzury

Rzecznik Meta, właściciela Facebooka i Instagrama twierdzi, że firma usuwa konta osób zaangażowanych w terroryzm i zorganizowaną przemoc. „Usuwamy treści, które pochwalają, wspierają i reprezentują tych ludzi lub grupy oraz ich aktywności, gdziekolwiek je znajdziemy”, twierdzi. Jednocześnie informuje, że firma zatrudnia 350 specjalistów do przeciwdziałania terroryzmowi oraz współpracuje z ekspertami na całym świecie, żeby mieć pewność, że nadążają za zmieniającymi się trendami w świecie radykalizacji.

Według Meta, 99% treści znajdowanych jest przez systemy monitorujące, zanim zgłoszą je użytkownicy socialmediów. W samym trzecim kwartale bieżącego roku firma usunęła ponad 10 milionów treści ze swoich platform. W YouTube na 10 000 wyświetleń tylko około 20 należy do kategorii treści naruszających standardy sieci.

Udostępnij na
Video signVideo signVideo signVideo sign