In una recente inchiesta del Wall Street Journal, si è scoperto che gli account bot registrati come tredicenni su TikTok vengono inondati di contenuti relativi alla guerra tra Israele e Hamas.
Cosa è successo
Il WSJ ha condotto un’indagine creando diversi account automatici per comprendere il tipo di contenuti che l’algoritmo di TikTok raccomanda al suo giovane pubblico. Gli account bot sono stati rapidamente inondati di video sul conflitto, molti dei quali con punti di vista estremi. Gran parte dei contenuti è stata vista come un’istigazione alla paura, con alcuni video che esortavano gli spettatori a prepararsi per un attacco imminente.
Lo studio ha anche evidenziato che la curatela dei contenuti di TikTok dipende in gran parte dalle abitudini di visione degli utenti, rendendo difficile per i ricercatori e i genitori tracciare il tipo di contenuti a cui i giovani utenti sono esposti.
In risposta all’indagine, un portavoce di TikTok ha informato il WSJ che l’esperimento non rispecchia le esperienze degli utenti adolescenti sulla piattaforma. Hanno ricordato che TikTok ha rimosso oltre 6,9 milioni di video con contenuti grafici e 2,4 milioni che promuovevano organizzazioni violente e piene di odio tra il 7 ottobre e il 30 novembre.
Perché è importante
Questa indagine giunge in un momento in cui TikTok ha dovuto affrontare critiche per le sue politiche sui contenuti. Nell’ottobre del 2022, TikTok è stato multato dalla Russia per essersi rifiutato di rimuovere alcuni contenuti. Più di recente, nel novembre del 2023, i legislatori hanno chiesto di vietare TikTok, citando i suoi contenuti pro-palestinesi e anti-israeliani.
Data l’escalation della crisi umanitaria a Gaza, l’esposizione di giovani individui a contenuti così polarizzati solleva preoccupazioni sull’influenza dell’algoritmo di TikTok sulla sua base di utenti.
Foto di Eliseu Geisler su Shutterstock