gamer
playit

Anche quando gli utenti dicono a YouTube di non essere interessati a determinati tipi di video, continuano a ricevere consigli inerenti al medesimo contenuto e non sono determinanti nelle scelte e nei consigli della piattaforma di Google, almeno secondo un nuovo studio di Mozilla. Utilizzando i dati dei consigli sui video di oltre 20.000 utenti di YouTube, i ricercatori di Mozilla hanno scoperto che pulsanti come “non interessato”, “non mi piace”, “smetti di consigliare il canale” e “rimuovi dalla cronologia delle visualizzazioni” sono in gran parte inefficaci nel prevenire che contenuti simili vengano consigliati. Anche nel migliore dei casi, questi pulsanti consentono di generare più della metà dei consigli simili a quelli a cui un utente ha affermato di non essere interessato, ha rilevato il rapporto. Nel peggiore dei casi, i pulsanti hanno a malapena intaccato il blocco di video simili.

Per raccogliere dati da video e utenti reali, i ricercatori di Mozilla hanno arruolato volontari che hanno utilizzato RegretsReporter, un’estensione del browser che sovrappone un pulsante generale “smetti di consigliare” ai video di YouTube visualizzati dai partecipanti. Sul back-end, agli utenti è stato assegnato un gruppo in modo casuale, quindi sono stati inviati diversi segnali a YouTube ogni volta che hanno fatto clic sul pulsante posizionato da Mozilla: non mi piace, non sono interessato, non consigliare il canale, rimuovere dalla cronologia e un gruppo di controllo per il quale nessun feedback è stato inviato alla piattaforma.

Utilizzando i dati raccolti da oltre 500 milioni di video consigliati, gli assistenti di ricerca hanno creato oltre 44.000 coppie di video: un video “rifiutato”, più un video successivamente consigliato da YouTube. I ricercatori hanno quindi valutato le coppie o utilizzato l’apprendimento automatico per decidere se la raccomandazione era troppo simile al video rifiutato da un utente.

Rispetto al gruppo di controllo di base, l’invio dei segnali “non mi piace” e “non interessato” è stato solo “parzialmente efficace” nel prevenire cattive raccomandazioni, prevenendo rispettivamente il 12% dell’11% di suggerimenti simili al video “bocciato”. I pulsanti “Non consigliare il canale” e “rimuovi dalla cronologia” erano leggermente più efficaci – hanno impedito il 43% e il 29% di raccomandazioni sbagliate – ma i ricercatori affermano che gli strumenti offerti dalla piattaforma sono ancora inadeguati per allontanare i contenuti indesiderati.

“YouTube dovrebbe rispettare i feedback che gli utenti condividono sulla loro esperienza, trattandoli come segnali significativi su come le persone vogliono trascorrere il loro tempo sulla piattaforma”, scrivono i ricercatori.

La portavoce di YouTube Elena Hernandez ha spiegato a The Verge che questi comportamenti sono intenzionali perché la piattaforma non tenta di bloccare tutti i contenuti relativi a un argomento. Ma Hernandez ha criticato il rapporto, dicendo che non tiene conto di come sono progettati i controlli di YouTube. “È importante sottolineare che i nostri controlli non filtrano interi argomenti o punti di vista, poiché ciò potrebbe avere effetti negativi per gli spettatori, come la creazione di camere d’eco. Accogliamo con favore la ricerca accademica sulla nostra piattaforma, motivo per cui abbiamo recentemente ampliato l’accesso all’API dei dati attraverso il nostro Programma per i ricercatori di YouTube. Il rapporto di Mozilla non tiene conto di come funzionano effettivamente i nostri sistemi, quindi è difficile per noi raccogliere molte informazioni”, , ha spiegato Hernandez.

Hernandez sostiene che la definizione di “simile” di Mozilla non tiene conto di come funziona il sistema di raccomandazioni di YouTube. L’opzione “non interessato” rimuove un video specifico e il pulsante “non consigliare il canale” impedisce che il canale venga consigliato in futuro, afferma Hernandez. La società afferma di non cercare di interrompere i consigli su tutti i contenuti relativi a un argomento, un’opinione o un relatore.

Oltre a YouTube, altre piattaforme come TikTok e Instagram hanno introdotto sempre più strumenti di feedback per consentire agli utenti di addestrare l’algoritmo, presumibilmente, per mostrare loro contenuti rilevanti. Ma gli utenti spesso si lamentano del fatto che, anche quando segnalano di non voler vedere qualcosa, persistono raccomandazioni simili. Non è sempre chiaro cosa facciano effettivamente i diversi controlli, afferma la ricercatrice di Mozilla Becca Ricks, e le piattaforme non sono trasparenti su come vengono presi in considerazione i feedback.

“Penso che nel caso di YouTube, la piattaforma stia bilanciando il coinvolgimento degli utenti con la soddisfazione degli utenti, che in definitiva è un compromesso tra la raccomandazione di contenuti che portano le persone a trascorrere più tempo sul sito e i contenuti che l’algoritmo pensa che le persone apprezzeranno”, ha spiegato Becca Ricks via e-mail. “La piattaforma ha il potere di modificare quale di questi segnali ottiene il maggior peso nel suo algoritmo, ma il nostro studio suggerisce che il feedback degli utenti potrebbe non essere sempre il più importante”.