Perché è importante
Diminuire il numero di video di cospirazione promossi e monetizzati automaticamente ai visitatori abituali di YouTube può solo aiutare nella lotta contro le false informazioni e le ideologie estremiste.
Un nuovo studio mostra che il piano di YouTube di smettere di raccomandare video di cospirazione nel suo feed video regolare sta funzionando.
Alcuni retroscena: A causa delle critiche sulla promozione di video di cospirazione (cure miracolose, la terra è piatta, ecc.), YouTube ha annunciato che avrebbe represso tali " contenuto limite" nel gennaio 2019.
Dove siamo ora: i ricercatori, dell'Università della California, Berkeley e della Mozilla Foundation, hanno sviluppato un sistema per classificare se un video è "cospiratorio", e poi ha emulato l'algoritmo Watch-Next di YouTube per filtrare il valore di un anno di ciò che l'algoritmo promuoverebbe attivamente. Marc Faddoula, Guillaume Chaslotb e Hany Farida hanno scoperto che c'è, in effetti, una riduzione del numero di video etichettati come cospirazioni attivamente raccomandati.
La riduzione complessiva delle raccomandazioni cospirative è una tendenza incoraggiante.
Questo non è risolto: Sebbene i ricercatori siano cautamente ottimisti, si rendono conto che il problema della radicalizzazione attraverso tali video è un problema più grande. "Chi ha una storia di visione di contenuti cospirativi può sicuramente ancora vivere YouTube come una bolla di filtro", hanno scritto, "rinforzato da consigli personalizzati e iscrizioni ai canali."
Il risultato finale: i ricercatori notano anche che il design dell'algoritmo di YouTube ha un impatto ancora maggiore sul flusso di informazioni rispetto, ad esempio, a un comitato editoriale di un media più tradizionale presa. Uno strumento così potente, sostengono gli autori di questo studio, dovrebbe essere soggetto a maggiore trasparenza e test pubblici ora e in futuro.