Votre enfant l’a probablement utilisé ce matin. Avant l’école, peut-être pendant le petit-déjeuner, voire encore au lit à 7 h du matin, l’écran à quinze centimètres du visage. Pas TikTok. Pas Instagram. Quelque chose de plus récent et, aux yeux d’un nombre croissant de législateurs, quelque chose de nettement plus dangereux.
Les chatbots d’IA comme ChatGPT, Character.AI, Meta AI et Google Gemini sont discrètement devenus l’un des outils numériques les plus utilisés dans la vie de votre adolescent. Selon une enquête du Pew Research Center, 64 % des adolescents américains utilisent des chatbots d’IA. Environ trois sur dix les utilisent tous les jours. Pour situer les choses, cela place les chatbots d’IA au coude-à-coude avec TikTok en portée globale — une plateforme qui a mis une décennie à y parvenir — après moins de trois ans d’existence grand public.
Et voici la partie qui devrait vous arrêter net au milieu de votre café : seuls 51 % des parents savent que leur adolescent utilise ces outils, tout simplement. Et quatre sur dix n’ont jamais eu la moindre conversation avec leur enfant au sujet des chatbots d’IA.
L’application que votre enfant utilise chaque jour est une application dont la moitié des parents ignorent l’existence, qu’aucun outil de contrôle parental ne peut surveiller complètement et que les législateurs du monde entier s’empressent désormais, avec une urgence croissante et parfois une certaine panique, de réglementer, de restreindre ou d’interdire purement et simplement.
Alors, de quoi s’agit-il exactement ? Pourquoi est-ce différent de tout ce qui existait auparavant ? Et pourquoi des parents à Washington, D.C., se sont-ils assis le mois dernier dans une salle d’audition du Congrès en tenant les photographies de leurs enfants décédés ?
Si une grande partie du débat public a été portée par les législateurs américains, les régulateurs européens et ceux d’autres régions avancent eux aussi très vite. Le règlement européen sur l’intelligence artificielle (AI Act) et les autorités nationales de protection des données dans des pays comme la France, l’Allemagne et l’Italie examinent déjà la manière dont les chatbots d’IA interagissent avec les mineurs, notamment en matière de dépendance émotionnelle et de collecte de données sensibles.
Les chiffres dont personne ne parle devant le portail de l’école
Voici la statistique qui a déclenché mille réunions d’urgence en commission. Ce n’est pas un problème de niche réservé aux familles passionnées de technologie à San Francisco. C’est la condition par défaut de la parentalité américaine en 2026.
À quelle fréquence les adolescents utilisent-ils des chatbots d’IA ?
- 64 % des adolescents interrogés utilisent des chatbots d’IA
- 28 % les utilisent tous les jours
- 4 % les utilisent presque en permanence
- 16 % les utilisent plusieurs fois par jour
- 36 % ne les utilisent pas du tout
Les parents le savent-ils ?
- 51 % des parents pensent que leur adolescent les utilise
- 40 % des parents n’ont jamais parlé de chatbots d’IA avec leur adolescent
- Seuls 18 % des parents sont d’accord avec l’idée que leur adolescent reçoive un soutien émotionnel d’un chatbot — pourtant 12 % des adolescents le font déjà
À quoi les adolescents utilisent-ils réellement les chatbots ?
- 50 %+ pour rechercher des informations
- 50 %+ pour obtenir de l’aide pour les devoirs
- 42 % pour résumer des articles ou des vidéos
- 38 % pour créer ou modifier des images/vidéos
- 16 % pour discuter de manière informelle
- 12 % pour un soutien émotionnel ou des conseils
Quelles IA les adolescents utilisent-ils ?
- ChatGPT — 59 %
- Google Gemini — 23 %
- Meta AI — 20 %
- Microsoft Copilot — 14 %
- Character.AI — 9 %
- Claude — 3 %
Qu’est-ce qu’un chatbot d’IA, et pourquoi celui-ci est-il différent ?
Les parents qui ont traversé l’ère des réseaux sociaux ont appris une forme bien précise de vigilance numérique. Vérifier qui votre enfant suit. Regarder les commentaires. Savoir ce que l’algorithme de TikTok lui sert. Ces réflexes, acquis de haute lutte au fil d’une décennie de parentalité à l’ère du smartphone, sont ici presque totalement inutiles.
Un chatbot d’IA n’est pas un fil d’actualité. Ce n’est pas une plateforme où des inconnus publient du contenu. C’est une conversation — privée, en tête-à-tête, et d’une disponibilité inlassable.
Ces systèmes sont conçus pour capter l’attention, approuver, valider et relancer la conversation.
Contrairement à une recherche sur le Web, qui renvoie un résultat puis s’arrête, une conversation avec un chatbot peut durer des heures, en s’adaptant à tout ce que dit l’utilisateur, en se souvenant de ce qui a été partagé plus tôt et, surtout, sans jamais perdre patience, sans jamais se laisser distraire et sans jamais juger.
Ce qui rend les compagnons IA particulièrement dangereux, selon le Global Risks Report 2026 du Forum économique mondial, c’est la combinaison entre conception émotionnelle et captation de données.
Les enfants révèlent plus facilement des détails sensibles lorsque l’interaction paraît conversationnelle et non jugeante, note le rapport, et contrairement à une recherche sur le Web, une conversation avec un chatbot peut devenir un journal intime contenant des détails privés sur la santé mentale, les habitudes de localisation, les relations et les peurs.
Le FEM, qui a classé les effets négatifs de l’IA au cinquième rang de sa liste des risques mondiaux à long terme — contre la trentième place l’année précédente, soit la plus forte progression de toute l’histoire du rapport — décrit les compagnons IA comme des outils capables de « brouiller les frontières de relations saines » et de favoriser une « dépendance émotionnelle » en lien documenté avec des crises chez les adolescents.
Les victimes derrière les projets de loi
La législation n’avance pas aussi vite sans victimes. Et il y a eu des victimes.
Fin 2024, un garçon de 14 ans nommé Sewell Setzer III est mort par suicide en Floride après des mois de ce que sa mère a décrit comme une relation émotionnellement et sentimentalement intime avec un personnage IA sur Character.AI. Sa mère, Megan Garcia, est depuis devenue l’une des voix les plus visibles en faveur de la régulation de l’IA, témoignant devant le Congrès avec ce type de colère contenue qui fait évoluer les lois.
« Les entreprises d’IA et leurs investisseurs savent depuis des années, a-t-elle déclaré lors d’un témoignage, que capter la dépendance émotionnelle de nos enfants signifie dominer le marché. »
À l’été 2025, Adam Raine, 16 ans, est mort par suicide en Californie. Ses parents ont déposé la première action en justice pour décès injustifié contre OpenAI, affirmant que ChatGPT avait accompagné leur fils pendant des mois dans la planification de son suicide et avait même rédigé une lettre d’adieu pour lui.
OpenAI a déclaré que ses garde-fous « fonctionnent de manière plus fiable dans les échanges courts et habituels », tout en reconnaissant qu’ils « peuvent parfois être moins fiables lors d’interactions longues » — une déclaration qui apparaît, avec le recul, comme un aveu remarquable du danger tapi au cœur même d’une fonctionnalité que les utilisateurs considèrent comme l’intérêt principal du produit.
En septembre 2025, les parents de Juliana Peralta, 13 ans, dans le Colorado, ont poursuivi Character.AI en justice, affirmant que la plateforme l’avait entraînée plus profondément dans des conversations sur le suicide au lieu d’intervenir. Elle était décédée en novembre 2023.
En janvier 2026, Character.AI et Google avaient tous deux accepté de régler à l’amiable plusieurs poursuites liées à des atteintes à la santé mentale d’adolescents et à des suicides, selon CNN. Ces accords n’ont pas fait disparaître les gros titres. Au contraire, ils les ont amplifiés.
Les régulateurs ont déjà lancé des enquêtes formelles sur la manière dont les chatbots d’IA sont conçus, dont ils interagissent avec les mineurs et sur la question de savoir si les garde-fous actuels sont suffisants.
Ce que signifient réellement les contrôles parentaux en 2026
C’est là que l’histoire devient à la fois plus rassurante et plus exaspérante, selon votre tolérance aux petites lignes.
Oui, les contrôles parentaux pour les chatbots d’IA existent désormais. Non, ils ne font pas ce que les parents imaginent qu’ils font.
ChatGPT a introduit des contrôles parentaux en septembre 2025, après l’affaire Raine. Les parents peuvent lier leur compte à celui de leur adolescent, définir des plages horaires de blocage, désactiver le mode vocal et la mémoire, et recevoir une notification si les systèmes d’OpenAI détectent que leur adolescent « traverse un moment de détresse aiguë ».
Ce que ces contrôles ne font pas : donner aux parents accès au contenu des conversations. La notification de détresse arrive sans transcription, sans contexte et sans autre détail que le fait que quelque chose de préoccupant a pu se produire. La documentation d’assistance d’OpenAI elle-même précise qu’« aucun système n’est parfait, et ces notifications ne remplacent ni des soins professionnels ni les services d’urgence ».
L’entreprise travaille aussi à améliorer sa technologie d’estimation de l’âge, car l’âge minimum de 13 ans est actuellement très facile à contourner avec une fausse date de naissance.
Character.AI a déployé sa fonctionnalité « Informations parentales » en mars 2025. Les parents sont censés recevoir chaque semaine un e-mail indiquant le temps passé par leur enfant sur la plateforme et les personnages IA avec lesquels il a le plus interagi (même si, lors de nos tests, aucun e-mail n’a été reçu).
Le contenu des discussions reste entièrement privé pour l’enfant. Et, point crucial, c’est l’adolescent qui active lui-même la fonctionnalité — en saisissant l’adresse e-mail de son parent. En réalité, il faut environ trente secondes pour contourner complètement le réglage : se déconnecter, créer un nouveau compte, et la fonctionnalité « Informations parentales » cesse d’exister.
Meta a eu la réaction la plus spectaculaire. Après une enquête du Wall Street Journal, publiée fin 2025, qui a révélé que les personnages IA de Meta avaient eu des conversations sexuellement explicites avec des utilisateurs se présentant comme mineurs — et que des documents internes de Meta autorisaient un contenu « romantique ou sensuel » avec des enfants — l’entreprise a totalement suspendu en janvier 2026 l’accès des adolescents aux personnages IA.
Meta reconstruit la fonctionnalité avec de vrais contrôles parentaux : la possibilité de désactiver les personnages IA, de bloquer des personnages spécifiques et de recevoir des résumés des sujets abordés. En avril 2026, ces contrôles ne sont pas encore entièrement déployés.
Le schéma est le même sur les trois plateformes : des contrôles conçus de manière réactive, sous pression juridique et législative, qui fournissent des données de temps d’usage et des informations par catégorie, mais aucune visibilité sur les conversations, et dont le fonctionnement dépend largement de la coopération de l’adolescent lui-même.
Les chercheurs de Penn State Wolbert, Rudy et Perkins, dans un texte publié en mars 2026, l’écrivent clairement : les parents peuvent devoir jouer les intermédiaires lorsque les enfants utilisent l’IA générative, mais les enquêtes ont documenté des « conversations prolongées et profondément personnelles se déroulant à l’insu des parents », ainsi que des cas de « dialogues inappropriés, d’incitation au secret et de soutien limité lorsque les jeunes exprimaient une détresse émotionnelle ».
La course législative
Les gouvernements se précipitent désormais pour réagir. Ce qui s’est passé à Washington et dans les assemblées des États au premier trimestre 2026 n’a pas vraiment de précédent dans l’histoire de la régulation technologique. Rien que la vitesse mérite d’être soulignée. Dans 27 États, 78 projets de loi sur la sécurité des chatbots sont actuellement actifs.
En Europe, l’approche a été plus structurée, avec des cadres comme l’AI Act imposant des exigences strictes pour les systèmes d’IA à haut risque, notamment ceux utilisés par des enfants.
Des régulateurs nationaux, comme la CNIL en France et le Garante per la protezione dei dati personali en Italie, ont déjà agi ou exprimé leurs inquiétudes sur la manière dont les systèmes d’IA traitent les données des mineurs et leur bien-être psychologique.
Le problème qu’une interdiction ne résoudra pas
Voici la complication qu’il faut reconnaître : tout le monde n’a pas tort dans cette histoire.
L’Information Technology and Innovation Foundation a publié en mars 2026 une analyse affirmant qu’une interdiction générale des compagnons IA pour les mineurs supprimerait de véritables bénéfices sans traiter les risques réels. Beaucoup de jeunes utilisent déjà les compagnons IA à des fins constructives : aide aux devoirs, entraînement aux compétences sociales, soutien émotionnel dans des environnements peu stressants.
Couper l’accès ne supprime pas le besoin — cela retire simplement la version encadrée et laisse les adolescents se tourner vers n’importe quelle alternative non régulée qui vient combler le vide.
Il y a aussi le problème de l’application, dont chaque législateur, dans chaque audition, sait discrètement qu’il existe. La vérification de l’âge sur Internet est une ambition réglementaire depuis trente ans et, dans la pratique, un succès pour à peu près personne.
L’adolescent de quinze ans qui a créé un nouveau compte Character.AI pour contourner « Informations parentales » n’avait pas besoin de compétences techniques. Il lui fallait une adresse e-mail de secours et trente secondes. Toute loi qui dépend d’une autodéclaration honnête de l’âge dépend du fait que les adolescents disent la vérité sur leur âge, c’est-à-dire d’une loi qui ne fonctionne pas.
La véritable tension dans toute cette législation se situe entre trois théories différentes du problème.
- La théorie de l’interdiction — défendue par l’Australie, qui oblige les plateformes d’IA à vérifier que les utilisateurs ont 18 ans ou plus sous peine d’amendes pouvant atteindre 35 millions de dollars — estime que le risque est absolu : aucun mineur ne devrait avoir accès à une IA de compagnie, point final.
- La théorie du contrôle considère que les adolescents utiliseront ces outils quoi qu’il arrive, et que le rôle de la législation est d’éliminer les éléments de conception manipulateurs et les pratiques de collecte de données qui transforment un outil utile en machine à créer de la dépendance.
- La théorie de l’éducation soutient que l’intervention principale devrait consister à donner aux parents et aux enfants les connaissances nécessaires pour naviguer eux-mêmes dans ces outils.
Malgré le durcissement de la réglementation, un défi reste universel : son application. La vérification de l’âge reste facile à contourner, et la plupart des outils de contrôle parental offrent peu de visibilité sur les conversations privées avec une IA. Cet écart existe dans tous les pays, quelle que soit la sévérité des lois sur le papier.
Ce que les parents peuvent vraiment faire dès maintenant
Pendant que les législateurs rédigent, réécrivent et débattent des clauses de préemption, des normes d’obligation de diligence et de ce que signifie exactement la « connaissance effective » dans un texte de loi, des enfants ont des conversations ce soir.
La chose la plus importante, selon les données du Pew, est aussi la plus simple : quatre parents sur dix n’ont jamais parlé des chatbots d’IA avec leur adolescent. Commencez par là. Pas par les restrictions, mais par la curiosité. Le pédiatre Jason Nagata, cité par NPR, l’a formulé avec précision :
Les parents n’ont pas besoin d’être des experts de l’IA. Ils doivent simplement s’intéresser à la vie de leurs enfants et leur demander quel type de technologie ils utilisent et pourquoi.
Connaissez les plateformes. Renseignez-vous sur leurs contrôles parentaux, leurs options de supervision ou, au minimum, sur les paramètres de confidentialité disponibles.
Surveillez les marqueurs comportementaux que les chercheurs ont identifiés comme des signes d’un usage problématique des compagnons IA :
- le secret autour des interactions avec les chatbots ;
- la détresse lorsque l’accès est supprimé ;
- une préférence pour les conversations avec un chatbot plutôt qu’avec des humains ;
- le retrait vis-à-vis de la famille et des amis.
Ce sont les schémas qui sont apparus dans les dossiers de Sewell Setzer III, Adam Raine et Juliana Peralta avant que les personnes autour d’eux ne comprennent ce qui se passait.

Une vue d’ensemble
En mai 1994, une commission sénatoriale a convoqué les dirigeants des sept plus grandes compagnies de tabac et leur a demandé, sous serment, s’ils pensaient que la nicotine créait une dépendance. Les sept ont répondu non. Ces auditions sont devenues un moment clé dans l’histoire de la responsabilité des entreprises — non pas parce que les dirigeants ont été poursuivis immédiatement, mais parce que l’écart entre ce que les entreprises savaient et ce qu’elles admettaient publiquement est devenu impossible à ignorer.
Nous y sommes : c’est maintenant le moment « Big Tobacco » de la big tech.
C’est une comparaison déjà faite auparavant, peut-être trop souvent.
Mais la similarité structurelle est réelle : un secteur qui a construit des produits optimisés pour l’engagement, qui comprenait les mécanismes psychologiques de la dépendance, qui avait accès à des recherches internes sur les dommages et qui a choisi pendant des années de présenter ces produits aux parents comme des outils neutres, des divertissements sans danger, des choses que leurs enfants faisaient de toute façon.
La différence, cette fois, c’est que le préjudice est mesurable en temps réel. Le Global Risks Report 2026 a classé les effets négatifs de l’IA au cinquième rang des risques mondiaux à long terme les plus graves, avec une progression plus rapide que n’importe quelle autre catégorie dans l’histoire de l’enquête.
Les contrôles parentaux qui existaient à l’ère des réseaux sociaux se sont révélés insuffisants. Ceux qui sont construits pour l’ère de l’IA restent encore aujourd’hui largement théoriques, inscrits dans des projets de loi qui n’ont pas été adoptés, déployés dans des fonctionnalités que les adolescents peuvent contourner en trente secondes et décrits dans des communiqués d’entreprises qui, jusqu’à une date très récente, laissaient leurs personnages IA entretenir des conversations romantiques avec des enfants.
Votre enfant a utilisé cette application aujourd’hui. Vous n’avez probablement pas pu voir ce qu’il a dit. Que ce soit aux États-Unis, en Europe ou ailleurs, la question centrale reste la même : la réglementation peut-elle rattraper la réalité avant que les risques ne se généralisent ?
Sources
- Pew Research Center. Les adolescents, les réseaux sociaux et les chatbots d’IA en 2025. 9 décembre 2025.
- Pew Research Center. Comment les adolescents utilisent et perçoivent l’IA. 24 février 2026.
- World Economic Forum. Le rapport sur les risques mondiaux 2026, 21e édition. Janvier 2026.
- Le règlement européen sur l’intelligence artificielle.
- Wolbert, E.D., Rudy, T.L., & Perkins, D.F. Ce que vous ignorez peut vous nuire : les chatbots d’IA et la sécurité numérique des enfants. 10 mars 2026. Penn State Extension.
Laisser un commentaire