Ekstremiści zmieniają kody porozumiewania się, żeby oszukać algorytmy moderujące treści w mediach społecznościowych, takich jak Instagram i YouTube.
Od kiedy działanie takich organizacji jak Państwo Islamskie czy Al-Kaida zostało skutecznie ograniczone, skupiają się one na radykalizacji i rekrutacji potencjalnych terrorystów, tzw. „samotnych wilków”, przez internet. Jednak, żeby być skutecznymi muszą zmieniać komunikację, która jest na bieżąco uaktualniana w algorytmach moderujących.
Sieć używana jest głównie do promocji nienawistnych idei, czy to skrajnie prawicowych, czy lewicowych czy islamistycznych. Jednak jak twierdzi ekspert z organizacji monitorującej skrajną prawicę „Hope not Hate” Patrik Hermansson „istnieją bardziej specyficzne, mniejsze grupy, które bardziej nastawione są na działania i planują użycie przemocy”. „Docierają oni do ludzi i wysyłają bezpośrednie wiadomości, proponując im dołączenie”, twierdzi Hermansson. Oznacza to, że przejście z kręgu ideologicznego zacietrzewienia do kręgu działań przemocowych odbywa się już poza publicznym dyskursem.
Jednak firmy zarządzające sieciami społecznościowymi ograniczają także promowanie nienawiści; tutaj ekstremiści posługują się zakodowanym językiem lub świadomie są niejednoznaczni co do swoich intencji. Jednym ze sposobów jest niepoprawne wymawianie pewnych słów, które mogłyby zwrócić uwagę algorytmów moderujących.
To rodzi jednak kolejny problem. Często programy, specjaliści i dziennikarze zajmujący się tematyką muszą posługiwać się pewnym zestawem słów do opisania zagadnienia. Nieraz dochodziło do sytuacji, że z powodu debaty na temat terroryzmu materiał był oznaczany i trafiał na słabsze zasięgi w sieci.
Mimo tych ograniczeń moderatorom nie udaje się wyłapać całości szkodliwych treści. Brytyjski dziennik „i” odkrył na YouTube konto islamisty pochodzącego z Maroka, który znajduje się w bazie Counter Extremist Project.