- Come funziona il nuovo sistema di notifiche
- Una svolta nel parental control sui social
- Il ruolo del chatbot Meta AI
- Quando arriva in Italia
- Il dibattito sulla sicurezza dei minori online
- Domande frequenti
Una notifica sul telefono. Poche righe che possono cambiare tutto. Instagram si prepara a informare direttamente i genitori quando i loro figli minorenni cercano sulla piattaforma termini legati al suicidio e all'autolesionismo. Non un filtro passivo, non un blocco silenzioso: un avviso esplicito, recapitato via e-mail, sms o WhatsApp, che segnala ai familiari l'esistenza di un possibile campanello d'allarme.
La funzione, già in fase di test in alcuni mercati, sarà estesa anche all'Italia entro la fine dell'anno.
Come funziona il nuovo sistema di notifiche
Il meccanismo è più semplice di quanto si possa immaginare, ed è proprio questa semplicità a renderlo potenzialmente efficace. Quando un adolescente con un account supervisionato effettua ricerche contenenti parole chiave associate a temi critici — suicidio, autolesionismo, disturbi alimentari e altre aree considerate sensibili — il sistema di Meta attiva automaticamente una notifica destinata al genitore o al tutore collegato.
L'avviso non rivela il contenuto specifico visualizzato dal minore, ma segnala che è stata effettuata una ricerca su un argomento potenzialmente pericoloso. Il genitore riceve il messaggio attraverso il canale che ha scelto in fase di configurazione: posta elettronica, sms o WhatsApp.
Si tratta, in sostanza, di un ponte tra il mondo digitale in cui si muovono gli adolescenti e quello degli adulti che ne sono responsabili. Un ponte che fino a oggi non esisteva.
Una svolta nel parental control sui social
Stando a quanto emerge dalle prime analisi degli esperti, questa mossa segna un cambio di passo significativo. Franz Russo, tra i più attenti osservatori italiani del mondo digitale, ha dichiarato che si tratta della prima volta in assoluto che una piattaforma social introduce un sistema di notifica proattiva rivolto ai genitori su ricerche sensibili dei minori.
La differenza rispetto agli strumenti di parental control già esistenti è sostanziale. Fino a oggi, le opzioni a disposizione delle famiglie si limitavano a restrizioni sull'uso — limiti di tempo, filtri sui contenuti, approvazione dei follower — tutte misure che agiscono a monte, cercando di prevenire l'esposizione. Nessuna, però, era in grado di intercettare un segnale di disagio nel comportamento di ricerca del ragazzo e trasmetterlo ai genitori in tempo reale.
È un passaggio che ridefinisce il confine tra tutela della privacy del minore e diritto-dovere di vigilanza della famiglia. Un equilibrio delicato, che inevitabilmente solleverà discussioni.
Il ruolo del chatbot Meta AI
La novità sulle ricerche non è l'unico fronte su cui Meta si sta muovendo. L'azienda di Mark Zuckerberg sta sviluppando in parallelo un sistema di notifiche legate alle conversazioni dei minori con il chatbot Meta AI, l'assistente basato su intelligenza artificiale integrato nelle piattaforme del gruppo.
I dettagli su questo secondo filone sono ancora scarsi, ma la direzione è chiara: estendere il monitoraggio anche alle interazioni con i sistemi di IA conversazionale, che rappresentano un canale sempre più utilizzato dagli adolescenti per esplorare temi personali, talvolta proprio quelli più delicati.
Il tema della responsabilità delle aziende tech nei confronti dei minori attraversa del resto l'intero settore, ben oltre i confini dei social network. Lo dimostra, ad esempio, la scelta di Anthropic dice no al Pentagono: "Claude non sarà un'arma senza vincoli", un caso che evidenzia come le grandi aziende dell'intelligenza artificiale stiano iniziando a porsi limiti etici sull'uso delle proprie tecnologie.
Quando arriva in Italia
Per le famiglie italiane, l'attesa non dovrebbe essere lunga. Meta ha confermato che la funzionalità di notifica ai genitori sulle ricerche sensibili sarà disponibile nel nostro Paese entro il 2026.
L'Italia, peraltro, non parte da zero sul fronte normativo della protezione dei minori online. Il quadro europeo del Digital Services Act impone già alle piattaforme obblighi specifici sulla tutela degli utenti più giovani, e il Garante per la protezione dei dati personali ha più volte richiamato i social network a rafforzare i meccanismi di verifica dell'età e di protezione.
Resta da capire come il sistema si integrerà con le norme italiane ed europee sulla privacy, in particolare con il GDPR, che prevede regole stringenti sul trattamento dei dati dei minori. Il consenso del genitore per l'attivazione della supervisione dovrebbe garantire la base giuridica necessaria, ma sarà compito delle autorità nazionali verificare la piena conformità.
Il dibattito sulla sicurezza dei minori online
I numeri giustificano l'urgenza. Secondo i dati più recenti dell'Istituto Superiore di Sanità, gli accessi al pronto soccorso per autolesionismo tra gli adolescenti italiani sono aumentati in modo preoccupante negli ultimi cinque anni. E diversi studi internazionali hanno tracciato una correlazione — pur con tutte le cautele metodologiche del caso — tra l'esposizione a contenuti sensibili sui social e il peggioramento del disagio psicologico giovanile.
La mossa di Instagram non risolve il problema, evidentemente. Ma sposta l'asticella: per la prima volta, una piattaforma con oltre un miliardo di utenti attivi sceglie di non restare neutrale di fronte a un comportamento potenzialmente indicativo di sofferenza, e di coinvolgere attivamente chi ha la responsabilità legale e morale di intervenire.
La sfida, adesso, è duplice. Da un lato, evitare che il sistema generi un eccesso di falsi allarmi, alimentando ansia anziché prevenzione. Dall'altro, assicurarsi che la notifica arrivi davvero a genitori pronti a gestirla: perché un messaggio su WhatsApp che segnala una ricerca sul suicidio, senza strumenti per capire cosa fare dopo, rischia di trasformarsi in un'arma a doppio taglio.
Meta promette che le notifiche saranno accompagnate da risorse e indicazioni su come affrontare la situazione. Sarà fondamentale verificare se queste risorse saranno adeguate, localizzate per il contesto italiano e realmente utili. O se resteranno l'ennesimo link a una pagina di supporto generica.
La questione resta aperta. Ma il fatto stesso che esista, oggi, un sistema che trasforma un algoritmo in un possibile alleato delle famiglie merita attenzione. E un giudizio sospeso fino a quando non se ne potranno misurare gli effetti reali.
Domande frequenti
Quando sarà disponibile in Italia la funzione di notifica ai genitori su Instagram?
Meta ha annunciato che il sistema di notifiche proattive per i genitori sulle ricerche sensibili dei minori sarà esteso all'Italia entro la fine del 2026. Non è stata comunicata una data precisa di lancio.
Come riceveranno i genitori le notifiche?
I genitori potranno ricevere gli avvisi attraverso tre canali a scelta: e-mail, sms o WhatsApp. La preferenza viene impostata durante la configurazione dell'account supervisionato.
Quali ricerche attivano la notifica?
Il sistema si attiva quando un minore cerca sulla piattaforma termini associati a temi critici e sensibili, come suicidio, autolesionismo e argomenti correlati. Non vengono comunicati ai genitori i contenuti specifici visualizzati, ma solo la natura della ricerca.
Il genitore può vedere esattamente cosa ha cercato il figlio?
No. Il sistema segnala che è stata effettuata una ricerca su un'area tematica sensibile, ma non rivela le parole esatte digitate né i contenuti consultati, nel rispetto della privacy del minore.
Serve attivare qualcosa per ricevere le notifiche?
Sì. Le notifiche funzionano nell'ambito degli account supervisionati di Instagram, che richiedono il collegamento tra l'account del minore e quello del genitore o tutore. Senza questa configurazione, il sistema non può inviare alcun avviso.