Gli strumenti di Instagram progettati per proteggere gli adolescenti dai contenuti dannosi non riescono a impedire loro di vedere post legati a suicidio e autolesionismo. E' quanto afferma uno studio condotto dagli esperti di alcuni gruppi di tutela dei minori.
Gli account a protezione degli adolescenti di Instagram mostrano ancora contenuti pericolosi
I ricercatori hanno anche affermato che la piattaforma di social media, di proprietà di Meta, ha incoraggiato i bambini "a pubblicare contenuti che hanno ricevuto commenti altamente sessualizzati da parte degli adulti".
I test, condotti da gruppi per la sicurezza dei bambini e ricercatori informatici, hanno rilevato che 30 dei 47 strumenti di sicurezza per adolescenti su Instagram erano "sostanzialmente inefficaci o non esistevano più".
Meta ha contestato la ricerca e i suoi risultati, affermando che le sue protezioni hanno portato gli adolescenti a vedere contenuti meno dannosi su Instagram.
"Questo rapporto travisa ripetutamente i nostri sforzi per responsabilizzare i genitori e proteggere gli adolescenti, travisando il funzionamento dei nostri strumenti di sicurezza e il modo in cui milioni di genitori e adolescenti li utilizzano oggi", ha detto un portavoce di Meta, aggiungendo che ''gli account per adolescenti sono leader del settore perché forniscono protezioni di sicurezza automatiche e controlli parentali semplici".
L'azienda ha introdotto gli account per adolescenti su Instagram nel 2024, affermando che avrebbe aggiunto una migliore protezione per i giovani e avrebbe consentito una maggiore supervisione da parte dei genitori.
È stato esteso a Facebook e Messenger nel 2025.
I ricercatori hanno affermato che dopo aver creato falsi account per adolescenti hanno riscontrato problemi significativi con gli strumenti. Oltre a scoprire che 30 degli strumenti erano inefficaci o semplicemente non esistevano più, hanno affermato che nove strumenti "hanno ridotto il danno ma hanno avuto dei limiti".
I ricercatori hanno affermato che solo otto dei 47 strumenti di sicurezza analizzati funzionavano in modo efficace, il che significa che agli adolescenti venivano mostrati contenuti che infrangevano le regole di Instagram su ciò che dovrebbe essere mostrato ai giovani.
Ciò includeva post che descrivevano "atti sessuali umilianti" e suggerimenti di completamento automatico per termini di ricerca che promuovono il suicidio, l'autolesionismo o i disturbi alimentari.
"Questi fallimenti indicano una cultura aziendale di Meta che mette l'impegno e il profitto prima della sicurezza", ha dichiarato Andy Burrows, amministratore delegato della Molly Rose Foundation, che si batte per leggi più severe sulla sicurezza online nel Regno Unito.
La fondazione è stata istituita dopo la morte di Molly Russell, che si è tolta la vita all'età di 14 anni nel 2017. In un'inchiesta tenutasi nel 2022, il medico legale ha concluso che è morta mentre soffriva degli "effetti negativi dei contenuti online".
I ricercatori hanno affermato nello studio che l'algoritmo di Instagram "incentiva i bambini sotto i 13 anni a mettere in atto comportamenti sessuali rischiosi per ottenere like e visualizzazioni".
Hanno detto inoltre che "li incoraggia a pubblicare contenuti che hanno ricevuto commenti altamente sessualizzati da adulti", scoprendo poi che gli utenti di account adolescenti potevano inviare "messaggi offensivi e misogini l'uno all'altro" e sono stati suggeriti account per adulti da seguire.
Burrows ha affermato che i risultati suggeriscono che gli account per adolescenti di Meta erano "una trovata performativa guidata dalle pubbliche relazioni piuttosto che un tentativo chiaro e concertato di risolvere i rischi per la sicurezza a lungo termine su Instagram".
Meta è una delle tante grandi aziende di social media che hanno affrontato critiche per il loro approccio alla sicurezza dei bambini online.