Se vi è capitato di pensare che sia difficile “disaddestrare” l’algoritmo di YouTube dal suggerire un certo tipo di video una volta che è entrato nei vostri contenuti consigliati, non siete i soli. In effetti, potrebbe essere ancora più difficile di quanto si pensi far sì che YouTube comprenda accuratamente le vostre preferenze. Secondo una nuova ricerca condotta da Mozilla, uno dei problemi principali è che i controlli in-app di YouTube, come il pulsante “dislike”, sono largamente inefficaci come strumento per controllare i contenuti suggeriti. Secondo il rapporto, questi pulsanti “impediscono meno della metà dei suggerimenti algoritmici indesiderati”.
I ricercatori di Mozilla hanno utilizzato i dati raccolti da RegretsReporter, l’estensione del browser che consente alle persone di “donare” i dati relativi ai ai suggerimenti per utilizzarli in studi come questo. In tutto, il rapporto si è basato su milioni di video consigliati, oltre che sui resoconti aneddotici di migliaia di persone. Mozilla ha testato l’efficacia di quattro diversi controlli: il pulsante “non mi piace”, “non sono interessato”, “non consiglio il canale” e “rimuovi dalla cronologia”. I ricercatori hanno scoperto che questi controlli avevano diversi gradi di efficacia, ma che l’impatto complessivo era “piccolo e inadeguato”.
Dei quattro controlli, il più efficace è stato “non raccomandare il canale”, che ha impedito il 43% delle raccomandazioni indesiderate, mentre “non interessato” è stato il meno efficace e ha impedito solo l’11% dei suggerimenti indesiderati. Il pulsante “non mi piace” ha ottenuto quasi lo stesso risultato, con il 12%, mentre “rimuovi dalla cronologia” ha eliminato circa il 29%.
Nel loro rapporto, i ricercatori di Mozilla hanno notato che i partecipanti allo studio hanno dichiarato di essere disposti a fare di tutto per evitare suggerimenti indesiderati, come ad esempio guardare i video mentre si è disconnessi o si è connessi a una VPN. I ricercatori affermano che lo studio evidenzia la necessità che YouTube spieghi meglio i suoi controlli agli utenti e offra alle persone modi più proattivi per definire ciò che vogliono vedere.
“Il modo in cui YouTube e molte piattaforme operano è quello di affidarsi a una raccolta passiva di dati per dedurre le preferenze degli utenti”, afferma Becca Ricks, ricercatrice senior di Mozilla, coautrice del rapporto. “Ma è un modo di operare un po’ paternalistico, in cui si fanno scelte per conto delle persone. Si potrebbe chiedere alle persone cosa vogliono fare sulla piattaforma, piuttosto che limitarsi a guardare cosa fanno”.
La ricerca di Mozilla giunge nel momento in cui si moltiplicano le richieste alle principali piattaforme di rendere più trasparenti i loro algoritmi. Negli Stati Uniti, i legislatori hanno proposto leggi per ridurre gli algoritmi di suggerimenti “opachi” e per ritenere le aziende responsabili dei pregiudizi algoritmici. L’Unione Europea è ancora più avanti. La legge sui servizi digitali recentemente approvata richiederà alle piattaforme di spiegare come funzionano gli algoritmi per i contenuti consigliati e di aprirli ai ricercatori esterni.