Reducerea de pe YouTube a QAnon nu funcționează

Grupul de extremă dreapta QAnon a atras atenția publicului în ultimele săptămâni pentru capacitatea sa de a manevra platformele de socializare pentru a răspândi dezinformarea și a crea o atenție virală pentru teoriile conspirației sale.

Platformele de socializare precum Twitter și TikTok au luat măsuri împotriva grupului după ce teoriile conspirației îndelung respinse, cum ar fi #PizzaGate, au câștigat o nouă atenție, interzicând conturile și dezactivând hashtag-urile sale populare din căutare. Deși ambele platforme s-au dovedit a fi un teren fertil pentru grup, QAnon a înflorit pe YouTube de ani de zile - în ciuda investițiilor companiei în moderarea acestuia.

Acum, platforma video încearcă să oprească apariția videoclipurilor QAnon în recomandările utilizatorilor, dar un test Digital Trends a constatat că videoclipurile cu teoria conspirației apar încă în locuri proeminente pe pagina de pornire YouTube.

Suporter QAnon cu pavilion Q Scott Olson / Getty Images

Susținătorii QAnon cred într-o serie de teorii conspiraționale respinse care au apărut pe panourile de imagine 4chan și 8chan la sfârșitul anului 2016. Grupul consideră că o figură numită „Q”, care pretinde că face parte din administrația Trump, publică expediții despre războiul președintelui Donald Trump împotriva unui complot de „stare profundă”. Grupul a cunoscut o creștere majoră pe YouTube din 2016, deoarece algoritmul bazat pe implicare promovează videoclipuri QAnon.

„QAnon a acționat inițial pe YouTube”, a spus Will Partin, un analist de cercetare la Data & Society Research Institute, care studiază grupul din 2017. „A fost preluat de YouTubers, care au dat într-adevăr picioarele conspirației și, ca rezultat, , l-a răspândit cu adevărat și a făcut munca de conectare la alte lucruri care erau deja în aer ”în rândul conservatorilor.

„Nu poți împiedica pe cineva să o caute în mod activ”

Datorită naturii YouTube în sine, platforma s-a dovedit a fi locul primordial în care au prosperat pseudo-documentare și talk-show-uri de lungă durată care descifrează indicii sau „pesmet” de „Q”. Cei interesați de teoriile QAnon ar putea găsi cu ușurință alți utilizatori care recomandă videoclipuri suplimentare în secțiunea de comentarii sau prin intermediul algoritmilor de recomandare YouTube - o caracteristică care a fost pusă sub incidența criticilor ca o modalitate ușoară de a „radicaliza” spectatorii.

Însă acum, dacă introduceți „QAnon” în bara de căutare a YouTube-ului, ecranul dvs. va „afișa în mod vizibil surse autoritare”, cum ar fi organizațiile de știri și experții - o parte a planului YouTube de a ridica conținut factual pentru a combate dezinformarea. YouTube a început, de asemenea, să prezinte casete de text și panouri de informații care se leagă de surse terțe. Digital Trends a descoperit că YouTube oferă un link către articolul Wikipedia despre QAnon în videoclipuri conexe.

youtube

YouTube a spus că de când a implementat noi politici de moderare a conținutului în ianuarie, a înregistrat o reducere cu 70% a numărului de vizualizări ale conținutului QAnon din recomandările video. Întrucât YouTube este un site de platformă video, nu un site de rețele sociale, moderarea se face video-video, nu în funcție de cont. Și, potrivit unui purtător de cuvânt al YouTube, sistemele platformei au fost ajustate pentru a reduce clasarea conținutului QAnon din bara laterală de recomandări, chiar dacă vizionați videoclipuri similare.

Cu toate acestea, Digital Trends a constatat că, după ce a vizionat o jumătate de duzină de videoclipuri legate de QAnon pe platformă, YouTube a prezentat cel puțin trei videoclipuri cu conspirații legate de QAnon în fila „Toate recomandările” de pe pagina principală. Un videoclip care a fost recomandat a menționat conspirația din jurul compusului chimic Adrenocrom - larg răspândit în cadrul grupurilor QAnon ca fiind obținut de figuri de elită de la Hollywood prin uciderea copiilor - și a avut peste 1 milion de vizionări.

Un reprezentant de pe YouTube a refuzat să comenteze această poveste.

Potrivit Partin, modul în care conținutul QAnon este vizionat pe YouTube nu se bazează pe videoclipurile recomandate utilizatorilor, ci pe conținutul videoclipurilor legate de QAnon. Influenții QAnon vor striga adesea pe un altul într-un videoclip sau vor direcționa spectatorii către alte pagini, indiferent de modul în care YouTube moderează etichetele sau videoclipurile QAnon. Cu toate acestea, Partin a spus că există unele etichete QAnon care sunt atât de obscure încât este imposibil pentru YouTube să umple rezultatele căutării cu conținut factual din surse reputate.

„În acel moment, nu îl poți ascunde algoritmic, nu poți împiedica pe cineva să îl caute activ”, a spus el.

Partin a spus că YouTube a fost odată „punctul cheie” pentru ca un utilizator să fie introdus în conținutul legat de QAnon, dar acum cea mai mare parte a recrutării are loc pe Facebook - unde grupurile private QAnon se pot mări în sute de mii și sunt deosebit de greu de moderat.

Potrivit The New York Times, Facebook intenționează să facă o mișcare similară pentru a modera grupul, urmând urmele Twitter și TikTok.

„Când platformele se mută pentru a interzice QAnon, de multe ori fac totul în același timp pentru a avea putere în număr”, a spus Partin. „Dar este cu adevărat greu să construiești o politică despre QAnon, deoarece multe dintre ele sunt doar chestii obișnuite ale electoratului conservator”.

Partin a spus că singurul lucru pe care speră că oamenii îl vor înțelege despre pericolele conținutului legate de QAnon de pe rețelele de socializare nu este cât de larg sau cât de profund se cred conspirațiile sale, ci riscul apăsării butonului „share” în sine.

„Este imposibil să cunoaștem intențiile cuiva, dar intenția nu contează atât de mult”, a spus el. „Nu-mi pasă dacă cred sau nu cred acest lucru, acționează așa cum fac și răspândesc acest conținut și această credință, indiferent de intenția din spatele acestuia.”

Postări recente

$config[zx-auto] not found$config[zx-overlay] not found