Probabilmente tuo figlio l’ha usato proprio stamattina. Prima di andare a scuola, magari durante la colazione, forse ancora a letto alle 7 del mattino con lo schermo a 15 centimetri dal viso. Non TikTok. Non Instagram. Qualcosa di più nuovo e, agli occhi di un numero crescente di legislatori, decisamente più pericoloso.
I chatbot di IA come ChatGPT, Character.AI, Meta AI e Google Gemini sono diventati silenziosamente uno degli strumenti digitali più usati nella vita di tuo figlio adolescente. Secondo un sondaggio del Pew Research Center, il 64% degli adolescenti americani usa chatbot di IA. Circa tre su dieci li usano ogni singolo giorno. Per dare un’idea, questo mette i chatbot di IA praticamente alla pari con TikTok per diffusione complessiva (una piattaforma a cui è servito un decennio per arrivarci) dopo meno di tre anni di presenza mainstream.
E ora arriva la parte che dovrebbe farvi fermare a metà caffè: solo il 51% dei genitori sa che il proprio adolescente usa questi strumenti. E quattro su dieci non hanno mai avuto nemmeno una conversazione con il figlio sui chatbot di IA.
L’app che tuo figlio usa ogni giorno è una di quelle di cui metà dei genitori non sa nemmeno l’esistenza, che nessun parental control può monitorare completamente e che i legislatori di tutto il mondo ora si affrettano (con crescente urgenza e talvolta con un certo panico) a regolamentare, limitare o vietare del tutto.
Quindi che cos’è, esattamente? Perché è diversa da tutto ciò che c’è stato prima? E perché, il mese scorso, dei genitori a Washington, D.C., erano seduti in un’aula di audizione del Congresso con in mano le fotografie dei loro figli morti?
Sebbene gran parte del dibattito pubblico sia stata trainata dai legislatori statunitensi, anche i regolatori europei e di altre regioni si stanno muovendo rapidamente. L’AI Act dell’Unione europea e le autorità nazionali per la protezione dei dati in Paesi come Francia, Germania e Italia stanno già esaminando il modo in cui i chatbot di IA interagiscono con i minori, soprattutto per quanto riguarda la dipendenza emotiva e la raccolta di dati sensibili.
I numeri di cui nessuno parla all’uscita da scuola
Ecco la statistica che ha fatto scattare un’infinità di audizioni d’urgenza nelle commissioni. Non è un problema di nicchia per famiglie ossessionate dalla tecnologia a San Francisco. Nel 2026, questa è la condizione normale della genitorialità negli Stati Uniti.
Con quale frequenza gli adolescenti usano i chatbot di IA?
- 64% degli adolescenti intervistati usa chatbot di IA
- 28% li usa ogni singolo giorno
- 4% li usa quasi continuamente
- 16% li usa diverse volte al giorno
- 36% non li usa affatto
I genitori lo sanno?
- 51% dei genitori pensa che il proprio adolescente li usi
- 40% dei genitori non ha mai parlato di chatbot di IA con il proprio adolescente
- Solo il 18% dei genitori è d’accordo che il proprio adolescente riceva supporto emotivo da un chatbot — eppure il 12% degli adolescenti lo fa già
Per cosa usano davvero i chatbot gli adolescenti?
- 50%+ per cercare informazioni
- 50%+ per aiutarsi con i compiti scolastici
- 42% per riassumere articoli o video
- 38% per creare o modificare immagini/video
- 16% per conversazioni informali
- 12% per supporto emotivo o consigli
Quale IA usano gli adolescenti?
- ChatGPT — 59%
- Google Gemini — 23%
- Meta AI — 20%
- Microsoft Copilot — 14%
- Character.AI — 9%
- Claude — 3%
Che cos’è un chatbot di IA e perché questo è diverso?
I genitori che hanno attraversato l’era dei social media hanno imparato una forma precisa di vigilanza digitale. Controllare chi segue tuo figlio. Guardare i commenti. Sapere cosa l’algoritmo di TikTok gli sta proponendo. Questi istinti, conquistati con fatica in un decennio di genitorialità nell’era dello smartphone, qui sono quasi del tutto inutili.
Un chatbot di IA non è un feed. Non è una piattaforma su cui degli sconosciuti pubblicano contenuti. È una conversazione: privata, uno a uno e instancabilmente reattiva.
Questi sistemi sono costruiti per coinvolgere, essere d’accordo, confermare e continuare.
A differenza di una ricerca sul web, che restituisce un risultato e finisce lì, una conversazione con un chatbot può andare avanti per ore, adattandosi a qualsiasi cosa dica l’utente, ricordando ciò che è stato condiviso in precedenza e, soprattutto, senza mai perdere la pazienza, senza mai distrarsi e senza mai giudicare.
Ciò che rende particolarmente pericolosi i “compagni di IA”, secondo il Global Risks Report 2026 del World Economic Forum, è la combinazione di progettazione emotiva e raccolta dei dati.
I bambini rivelano più facilmente dettagli sensibili quando l’interazione appare conversazionale e non giudicante, osserva il rapporto, e a differenza di una ricerca sul web, una conversazione con un chatbot può trasformarsi in un diario che contiene dettagli privati sulla salute mentale, sui modelli di spostamento, sulle relazioni e sulle paure.
Il WEF, che ha collocato gli esiti negativi dell’IA al quinto posto nella sua lista dei rischi globali a lungo termine — in salita dal trentesimo posto dell’anno precedente, il balzo più grande nella storia del rapporto — descrive i compagni di IA come strumenti che possono “offuscare i confini di una relazione sana” e favorire una “dipendenza emotiva” in modi collegati, secondo la documentazione disponibile, a crisi adolescenziali.
Le vittime dietro le proposte di legge
La legislazione non si muove così in fretta senza vittime. E vittime ce ne sono state.
Alla fine del 2024, un ragazzo di 14 anni di nome Sewell Setzer III si è tolto la vita in Florida dopo mesi di quello che sua madre ha descritto come un rapporto emotivamente e romanticamente intimo con un personaggio di IA su Character.AI. Da allora sua madre, Megan Garcia, è diventata una delle figure più visibili nella richiesta di regolamentazione dell’IA, testimoniando davanti al Congresso con quel tipo di rabbia silenziosa che cambia le leggi.
“Le aziende dell’IA e i loro investitori hanno capito da anni”, ha dichiarato in una testimonianza, “che catturare la dipendenza emotiva dei nostri figli significa dominare il mercato.”
Nell’estate del 2025, Adam Raine, 16 anni, si è tolto la vita in California. I suoi genitori hanno intentato la prima causa per morte ingiusta contro OpenAI, sostenendo che ChatGPT avesse accompagnato il figlio per mesi nella pianificazione e gli avesse persino scritto una lettera d’addio.
OpenAI ha dichiarato che le sue misure di sicurezza “funzionano in modo più affidabile negli scambi comuni e brevi”, ma ha riconosciuto che “nelle interazioni lunghe possono talvolta essere meno affidabili” — un’affermazione che, col senno di poi, suona come una notevole ammissione del pericolo nascosto dentro una funzione che gli utenti considerano l’essenza stessa del prodotto.
Nel settembre 2025, i genitori di Juliana Peralta, 13 anni, del Colorado hanno fatto causa a Character.AI, sostenendo che la piattaforma l’avesse spinta ancora più a fondo in conversazioni sul suicidio invece di intervenire. Juliana era morta nel novembre 2023.
Entro gennaio 2026, sia Character.AI sia Google avevano accettato di chiudere con un accordo diverse cause riguardanti danni alla salute mentale e suicidi tra adolescenti, secondo CNN. Gli accordi non hanno fatto sparire i titoli. Semmai li hanno amplificati.
I regolatori hanno già avviato indagini formali su come i chatbot di IA vengono progettati, su come interagiscono con i minori e sul fatto che le misure di sicurezza attuali siano sufficienti o meno.
Cosa significano davvero i controlli parentali nel 2026
È qui che la storia diventa al tempo stesso più rassicurante e più frustrante, a seconda della vostra tolleranza per le note in piccolo.
Sì, oggi esistono controlli parentali per i chatbot di IA. No, non fanno ciò che i genitori immaginano.
ChatGPT ha introdotto i controlli parentali nel settembre 2025, dopo la causa Raine. I genitori possono collegare il proprio account a quello del figlio adolescente, impostare fasce orarie di blocco, disattivare la modalità vocale e la memoria e ricevere una notifica se i sistemi di OpenAI rilevano che il loro adolescente “sta vivendo un momento di forte crisi”.
Quello che questi controlli non fanno: dare ai genitori accesso al contenuto delle conversazioni. La notifica di crisi arriva senza trascrizione, senza contesto e senza dettagli oltre al fatto che potrebbe essere accaduto qualcosa di preoccupante. La stessa documentazione di supporto di OpenAI osserva che “nessun sistema è perfetto e queste notifiche non sostituiscono l’assistenza professionale o i servizi di emergenza”.
L’azienda sta anche lavorando per migliorare la propria tecnologia di stima dell’età, perché l’età minima di 13 anni al momento è facilissima da aggirare inserendo una data di nascita falsa.
Character.AI ha lanciato la funzione “Informazioni per i genitori” nel marzo 2025. I genitori dovrebbero ricevere un’email settimanale che mostra quanto tempo il figlio ha trascorso sulla piattaforma e con quali personaggi di IA ha interagito di più (anche se, durante i nostri test, non ne è arrivata nessuna).
Il contenuto delle chat resta completamente privato per il minore. E, cosa cruciale, è l’adolescente ad attivare la funzione, inserendo personalmente l’indirizzo email del genitore. In realtà, bastano circa trenta secondi per aggirare completamente le impostazioni: disconnettersi, creare un nuovo account e la funzione Informazioni per i genitori smette di esistere.
Meta ha avuto la reazione più drastica. Dopo che un’inchiesta del Wall Street Journal alla fine del 2025 ha rivelato che i personaggi di IA di Meta avevano intrattenuto conversazioni sessualmente esplicite con utenti che si presentavano come minori — e che documenti interni di Meta avevano consentito contenuti “romantici o sensuali” con bambini — l’azienda ha sospeso del tutto l’accesso degli adolescenti ai personaggi di IA nel gennaio 2026.
Meta sta ricostruendo la funzione con veri controlli parentali: la possibilità di disattivare i personaggi di IA, bloccare personaggi specifici e ricevere riepiloghi degli argomenti discussi. Ad aprile 2026, questi controlli non sono ancora stati distribuiti completamente.
Il modello è lo stesso su tutte e tre le piattaforme: controlli sviluppati in modo reattivo, sotto pressione legale e legislativa, che offrono dati sul tempo di utilizzo e informazioni per categoria ma nessuna visibilità sulle conversazioni e che dipendono in larga misura dalla collaborazione dello stesso adolescente per funzionare.
I ricercatori della Penn State, Wolbert, Rudy e Perkins, scrivendo nel marzo 2026, lo hanno detto chiaramente: i genitori potrebbero dover agire da intermediari quando i figli interagiscono con l’IA generativa, ma le indagini hanno documentato “conversazioni prolungate e profondamente personali che avvengono senza che i genitori ne siano consapevoli” — e casi di “dialoghi inappropriati, incoraggiamento alla segretezza e supporto limitato quando i giovani esprimevano sofferenza emotiva”.
La corsa legislativa
I governi ora si stanno affrettando a rispondere. Quello che è accaduto a Washington e nei parlamenti statali nel primo trimestre del 2026 non ha veri precedenti nella storia della regolamentazione tecnologica. Vale la pena notare anche solo la velocità. In 27 Stati, sono attualmente attive 78 proposte di legge sulla sicurezza dei chatbot.
In Europa, l’attenzione è stata più strutturata, con quadri normativi come l’AI Act che impongono requisiti severi ai sistemi di IA ad alto rischio, compresi quelli usati dai bambini.
I regolatori nazionali, come la CNIL francese e il Garante per la protezione dei dati personali in Italia, hanno già intrapreso azioni o sollevato preoccupazioni su come i sistemi di IA gestiscano i dati dei minori e il loro benessere psicologico.
In Brasile, il quadro giuridico esiste sotto la Lei Geral de Proteção de Dados, ma l’applicazione concreta nei confronti dei chatbot di IA resta limitata mentre la tecnologia continua a evolversi.
Il problema che non si risolve con un divieto
Ecco la complicazione che dobbiamo riconoscere: non tutti, in questa storia, hanno torto.
La Information Technology and Innovation Foundation ha pubblicato un’analisi nel marzo 2026 sostenendo che un divieto generalizzato dei compagni di IA per i minori eliminerebbe benefici reali senza affrontare i rischi effettivi. Molti giovani usano già i compagni di IA per scopi costruttivi: aiuto con i compiti, esercizio delle abilità sociali, supporto emotivo in ambienti a bassa pressione.
Tagliare l’accesso non elimina il bisogno: toglie solo la versione regolamentata e lascia gli adolescenti con qualunque alternativa non regolamentata venga a colmare il vuoto.
C’è poi il problema dell’applicazione, che ogni legislatore, in ogni audizione, sa in silenzio che esiste. La verifica dell’età su internet è un’ambizione normativa da trent’anni e un risultato pratico per praticamente nessuno.
Il quindicenne che ha creato un nuovo account Character.AI per aggirare Informazioni per i genitori non aveva bisogno di particolari competenze tecniche. Gli servivano un indirizzo email di riserva e trenta secondi. Qualsiasi legge che dipenda da una dichiarazione corretta dell’età dipende dal fatto che gli adolescenti dicano la verità sulla propria età, cioè dipende da qualcosa che non funziona.
La vera tensione in tutta questa legislazione sta tra tre diverse teorie del problema.
- La teoria del divieto — sostenuta dall’Australia, che impone alle piattaforme di IA di verificare che gli utenti abbiano almeno 18 anni sotto minaccia di multe fino a 35 milioni di dollari — ritiene che il rischio sia categorico: nessun minore dovrebbe avere accesso ai chatbot companion basati sull’IA, punto.
- La teoria del controllo sostiene che gli adolescenti useranno questi strumenti comunque e che il compito della legislazione sia eliminare le caratteristiche di design manipolativo e le pratiche sui dati che trasformano uno strumento utile in una macchina della dipendenza.
- La teoria dell’educazione sostiene che l’intervento principale dovrebbe essere dare a genitori e figli le conoscenze necessarie per orientarsi da soli in questi strumenti.
Nonostante la regolamentazione crescente, una sfida resta universale: l’applicazione concreta. La verifica dell’età è ancora facile da aggirare e la maggior parte dei parental control offre una visione limitata delle conversazioni private con l’IA. Questo divario esiste in tutti i Paesi, indipendentemente da quanto severe possano apparire le leggi sulla carta.
Cosa possono fare davvero i genitori, subito
Mentre i legislatori scrivono, riscrivono e discutono di clausole di prevalenza, standard di dovere di diligenza e di cosa significhi esattamente “conoscenza effettiva” in una norma, stasera i bambini stanno già avendo conversazioni.
La cosa più importante, secondo i dati del Pew, è anche la più semplice: quattro genitori su dieci non hanno mai parlato di chatbot di IA con il proprio adolescente. Si parte da lì. Non dalle restrizioni, ma dalla curiosità. Il pediatra Jason Nagata, citato da NPR, l’ha espresso con precisione:
I genitori non hanno bisogno di essere esperti di IA. Devono solo essere curiosi della vita dei loro figli e chiedere loro che tipo di tecnologia stanno usando e perché.
Conoscete le piattaforme. Informatevi sui loro controlli parentali, sulle opzioni di supervisione o almeno su alcune impostazioni di privacy disponibili.
Fate attenzione agli indicatori comportamentali che i ricercatori hanno identificato come segnali di un uso problematico dei compagni di IA:
- segretezza riguardo alle interazioni con i chatbot;
- disagio quando l’accesso viene rimosso;
- preferenza per le conversazioni con i chatbot rispetto a quelle umane;
- allontanamento da famiglia e amici.
Questi sono i modelli che comparivano nelle storie di Sewell Setzer III, Adam Raine e Juliana Peralta prima che chi stava loro intorno capisse cosa stesse succedendo.

Il quadro generale
Nel maggio 1994, una commissione del Senato convocò i dirigenti delle sette più grandi aziende del tabacco e chiese loro, sotto giuramento, se ritenessero che la nicotina desse dipendenza. Tutti e sette risposero di no. Quelle audizioni diventarono un momento decisivo nella storia della responsabilità delle imprese — non perché i dirigenti vennero subito perseguiti, ma perché il divario tra ciò che le aziende sapevano e ciò che ammettevano pubblicamente divenne impossibile da ignorare.
Ora è arrivato il momento “Big Tobacco” del big tech.
È un paragone già fatto in passato, forse fin troppo spesso.
Ma la somiglianza strutturale è reale: un settore che ha costruito prodotti ottimizzati per il coinvolgimento, che comprendeva i meccanismi psicologici della dipendenza, che aveva accesso a ricerche interne sui danni e che per anni ha scelto di descrivere questi prodotti ai genitori come strumenti neutri, intrattenimento innocuo, cose che i loro figli facevano comunque.
La differenza, questa volta, è che il danno è misurabile in tempo reale. Il Global Risks Report 2026 ha classificato gli esiti negativi dell’IA come il quinto rischio globale a lungo termine più grave, in crescita più rapida di qualsiasi altra categoria nella storia del sondaggio.
I controlli parentali che esistevano per l’era dei social media si sono rivelati inadeguati. Quelli che si stanno costruendo per l’era dell’IA sono ancora, a oggi, in larga parte teorici, scritti in proposte di legge non ancora approvate, implementati in funzioni che gli adolescenti possono aggirare in trenta secondi e descritti nei comunicati stampa di aziende che, fino a pochissimo tempo fa, permettevano ai loro personaggi di IA di avere conversazioni romantiche con dei bambini.
Tuo figlio ha usato questa app oggi. Probabilmente non potevi vedere cosa ha detto. Che sia negli Stati Uniti, in Europa o altrove, la domanda centrale resta la stessa: la regolamentazione riuscirà a recuperare terreno prima che i rischi diventino diffusi?
Fonti
- Pew Research Center. Teens, Social Media and AI Chatbots 2025. 9 dicembre 2025.
- Pew Research Center. How Teens Use and View AI. 24 febbraio 2026.
- World Economic Forum. The Global Risks Report 2026, 21st Edition. gennaio 2026.
- The EU Artificial Intelligence Act.
- Wolbert, E.D., Rudy, T.L., & Perkins, D.F. What You Don’t Know Can Hurt You: AI Chatbots and Children’s Digital Safety. 10 marzo 2026. Penn State Extension.
Lascia un commento