Chatbot AI, limitate da Meta per gli adolescenti
Chatbot AI, Meta ha deciso di limitare alcune funzioni agli adolescenti. Ecco i dettagli.

Meta ha deciso di fermare l’accesso degli adolescenti ai suoi bot con personalità dedicate. La scelta è temporanea ma segna un cambio di rotta netto. Al centro ci sono i timori legati alla sicurezza dei più giovani. L’azienda vuole ridisegnare l’esperienza prima di riaprirla. In gioco c’è l’uso dei chatbot AI dentro le piattaforme social più diffuse.
La decisione è arrivata a fine gennaio 2026. Meta ha spiegato che sta lavorando a una nuova versione dei suoi “AI characters”. L’obiettivo è offrire più tutele. I genitori dovranno avere più controllo. Le interazioni dovranno essere più tracciabili. Per ora resterà attivo solo Meta AI. Tutti gli altri chatbot AI con personalità sono stati bloccati per i teen.
Il provvedimento nasce da episodi preoccupanti. In vari casi bot generativi hanno dato consigli pericolosi. Si è parlato di autolesionismo. Di disturbi alimentari. Anche di droga. Alcuni utenti minorenni hanno ricevuto suggerimenti su come nascondere comportamenti ai genitori. Questi fatti hanno attirato l’attenzione della Federal Trade Commission. L’FTC ha aperto un’indagine sui rischi legati ai chatbot AI.
Meta aveva già mosso un primo passo in autunno. A ottobre erano arrivati strumenti di controllo parentale. Non sono bastati. Ora l’azienda ha scelto la linea dura. Il blocco vale per chi dichiara di essere adolescente. Vale anche per chi viene identificato come tale dai sistemi interni. L’accesso agli AI characters resta vietato.
Secondo Meta questa pausa è necessaria. Serve tempo per creare un ambiente più sicuro. I genitori dovranno poter vedere cosa succede. Dovranno poter limitare le funzioni. Il linguaggio usato dall’azienda però lascia intuire problemi seri. I sistemi attuali non garantiscono protezione completa. L’indagine FTC pesa molto su questa scelta.
Il contesto rende tutto più complesso. Uno studio recente mostra che il 72% dei teen americani ha già usato un compagno virtuale. Molti lo fanno ogni giorno. Questo dato entra in contrasto con la strategia di Meta. L’azienda voleva riempire le sue app di bot con personalità. Per aumentare il tempo passato online. Per ora questo piano è sospeso.
Il problema resta strutturale. I modelli apprendono da enormi quantità di dati. Possono essere spinti a dire cose sbagliate. Gli utenti giovani sanno come provocare certe risposte. Mettere in sicurezza totale un chatbot AI è molto difficile. Forse impossibile. La mossa di Meta è prudente. Ma non risolve il nodo di fondo. I chatbot AI resteranno una sfida aperta.
Scritto da Michele Bellotti









y7pmvh
xlkp9d
Commenta!