TikTok non è così salutare come applicazione, e a confermarlo è un importante studio condotto in merito che li accerta. Ma di che cosa parliamo nello specifico?
Ogni social network dovrebbe garantire alla sua utenza una assoluta riservatezza della privacy e una visione dei contenuti non nociva, dunque dovrebbero essere dei video visualizzabili da chiunque. Le restrizioni possono esserci fino ad un certo punto, ma nel momento in cui il servizio non riesce a distinguere i filmati pericolosi da quelli che in realtà non lo sono, allora si entra automaticamente in un circolo vizioso.
Uscirne diventa una impresa non da poco dati che l’algoritmo fallisce nel suo intento, lasciando allo sbaraglio l’ignara utenza che, come era successo in un periodo su YouTube, inizia a mostrare dei contenuti non idonei alla piattaforma che dovrebbero essere bannati istantaneamente. Per fortuna si tratta di circostanze singolari e che vengono rilevate subito; le IA progettate per questo compito si sono evolute abbastanza da riconoscere in fretta i video da rimuovere.
Dubitare della propria salute guardando TikTok: è un problema più che serio
Non sembra che sia ancora successo su TikTok, perché tenendo conto di una studio effettuato di recente pare che gli utenti dell’app non siano così tanto al sicuro. Forse abbiamo avuto a che fare anche noi con dei video che non avremmo mai dovuto vedere, ma come abbiamo detto la ricerca è stata condotta sulla base di alcuni dati verificati e che rispecchiano la realtà dei fatti. Cosa hanno scoperto gli esperti informatici?
Il CCDH, acronimo di Center for Countering Digital Hate, ha condotto uno studio secondo cui TikTok potrebbe mostrare agli adolescenti contenuti potenzialmente dannosi relativi al suicidio e ai disturbi alimentari entro pochi minuti dalla creazione di un account. Con precisione basterebbero tre minuti di utilizzo per andare incontro a questo genere di filmati.
Per portare avanti l’esperimento hanno creato otto nuovi account negli Stati Uniti, nel Regno Unito, in Canada e in Australia rientrando in una età minima di 13 anni. Questi profili si sono fermati a guardare i video sull’immagine corporea e sulla salute mentale, per poi vedere come l’app tendeva a suggerire filmati sull’immagine corporea e sulla salute mentale ogni 39 secondi in un periodo di 30 minuti.
Gli esperti ci dicono che sia un problema da non sottovalutare per una semplice ragione: proporre questi contenuti fin dall’inizio potrebbe danneggiare la loro salute mentale e immagine del corpo. Indurli a pensare che siano sbagliati è molto facile con gli edit e i video promozionali in uscita, motivo per cui si spera che TikTok, con le dovute indagini effettuate, modifichi presto il suo algoritmo in vista dell’evidente disagio.