La Commissione continua a lavorare per garantire che le aziende tecnologiche si assumano la responsabilità della sicurezza dei loro utenti.
L’Unione europea ha avviato una serie di indagini sulle principali piattaforme di social media per affrontare le crescenti preoccupazioni legate alla sicurezza dei bambini e alla loro salute mentale. Le autorità europee sono sempre più allarmate dalle potenziali conseguenze che l’uso eccessivo dei social media può avere sui giovani utenti, in particolare per quanto riguarda i comportamenti di dipendenza e gli effetti negativi sulla loro salute mentale.
Queste indagini riflettono una crescente attenzione a livello globale sulla responsabilità delle grandi aziende tecnologiche nel garantire un ambiente online sicuro e sano per gli utenti più giovani. Tra i vari aspetti sotto indagine, la Commissione europea sta esaminando se le piattaforme di social media rispettino le nuove normative introdotte per proteggere i minori da contenuti dannosi e promuovere comportamenti sicuri online.
Preoccupazioni per la sicurezza e la salute mentale dei bambini
La Commissione europea ha avviato un’indagine formale su Meta, la società madre di Facebook e Instagram, per valutare se queste piattaforme abbiano violato il Digital Services Act (DSA). Questa legge, approvata la scorsa estate, impone alle aziende digitali di essere responsabili per la disinformazione, le truffe sugli acquisti, l’abuso sui minori e altri danni online. Le preoccupazioni delle autorità europee sono legate al fatto che Meta potrebbe non aver fatto abbastanza per mitigare i rischi legati agli effetti negativi sulla salute fisica e mentale dei giovani utenti.
L’indagine esaminerà in particolare gli effetti di dipendenza, noti come “effetti del rabbit hole“, dove gli algoritmi delle piattaforme possono esporre i giovani a contenuti negativi come immagini corporee irrealistiche, alimentando quindi comportamenti dannosi. La Commissione valuterà anche l’efficacia degli strumenti di verifica dell’età e la protezione della privacy per i minori forniti da Meta.
Un portavoce di Meta ha dichiarato che la società è impegnata a offrire esperienze online sicure e adeguate all’età per i giovani, sottolineando che sono stati sviluppati oltre 50 strumenti e politiche per proteggerli. Le autorità europee rimangono però scettiche riguardo all’efficacia di queste misure e intendono approfondire come Meta abbia valutato la loro adeguatezza.
Oltre all’indagine su Meta, la Commissione europea ha avviato anche procedimenti contro altre piattaforme come TikTok. L’indagine su TikTok ha portato la piattaforma cinese a ritirare volontariamente il suo servizio TikTok Lite reward-to-watch in Francia e Spagna, in risposta alle preoccupazioni sulla pericolosità del servizio.
La Commissione ha inoltre avviato procedimenti contro X per presunto incitamento all’odio e contro AliExpress per questioni di trasparenza pubblicitaria e gestione dei reclami. Questi sforzi riflettono un impegno più ampio da parte dell’UE a garantire che tutte le piattaforme digitali rispettino il DSA e proteggano gli utenti più vulnerabili.