Cette année, le gadget indispensable sous le sapin de Noël n’est ni un drone ni une console de jeux ; c’est le compagnon d’IA tout doux. Mais avant de cliquer sur « Acheter » pour cet ourson qui parle, il faut avoir une discussion sérieuse — et quelque peu inquiétante. Car l’affaire récente Folotoy vient de prouver que les jouets dotés d’IA peuvent devenir un mauvais ami pour votre enfant, en lui apprenant où trouver des allumettes et des couteaux dans la maison et même des fétichismes sexuels, y compris le bondage.
Le marché des jouets intelligents dotés d’IA devrait croître d’un montant impressionnant de 2,28 milliards de dollars entre 2024 et 2029, et sa taille globale devrait presque doubler pour atteindre environ 641 millions de dollars d’ici 2031. Cette croissance fulgurante pousse les fabricants à intégrer une IA non testée dans leurs produits, avec des résultats catastrophiques.
De nouvelles recherches révèlent que ce qui ressemble à une peluche inoffensive pourrait en réalité être un aspirateur de données non réglementé et une porte d’entrée vers des contenus profondément inappropriés.
Le symbole de ce danger numérique est l’ours Kumma, désormais tristement célèbre, du fabricant FoloToy. Présenté comme « l’ami parfait » qui « combine une IA avancée avec des fonctionnalités conviviales et interactives », cette peluche vendue 99 $ s’est rapidement transformée en catastrophe de relations publiques.

Les défenseurs des consommateurs du U.S. Public Interest Research Group (PIRG) Education Fund ont mis Kumma — basé sur le modèle GPT-4o d’OpenAI — à l’épreuve dans leur rapport 2025 « Trouble in Toyland ». Les résultats ont été glaçants et immédiats :
- Contenus explicites et graphiques : Lorsqu’ils ont introduit un sujet sexuel, les garde-fous de Kumma se sont effondrés. Il a rapidement abordé des thèmes BDSM, y compris des méthodes de nouage pour le bondage, donné des instructions étape par étape sur des positions sexuelles et même proposé des jeux de rôles professeur-élève.
- Conseils dangereux : Kumma a aussi fourni des consignes précises, potentiellement mortelles, en indiquant aux testeurs où trouver des couteaux et des allumettes dans la maison.
FoloToy a rapidement suspendu les ventes et rappelé toute la gamme, et OpenAI a suspendu l’accès du développeur à son modèle. Cependant, le fait qu’un organisme de surveillance des consommateurs ait dû découvrir ces failles de sécurité fondamentales met en lumière le problème central : les jouets dotés d’IA existent dans une « zone grise réglementaire ».
La menace plus profonde : il ne s’agit pas seulement d’un ours défaillant
L’affaire FoloToy n’est pas un incident isolé ; ce n’est que le dernier, et le plus choquant, parmi une longue série d’échecs dans une catégorie déjà marquée par des risques de sécurité et de protection des données. Les anciens jouets connectés à l’IA ont fait l’objet de rappels et de graves avertissements concernant la sécurité des données, révélant un problème systémique dans l’industrie :
- Fuite VTech : Dès 2015, le fabricant de dispositifs pour enfants VTech a subi une énorme violation de sécurité ayant compromis les données personnelles de millions d’enfants et de parents, y compris noms, adresses et historiques de discussion, démontrant la forte vulnérabilité des appareils IoT destinés aux enfants.
- My Friend Cayla et le risque d’écoute : La poupée « My Friend Cayla » a été interdite en Allemagne car sa reconnaissance vocale et sa connexion Bluetooth étaient si mal sécurisées qu’elle pouvait être piratée facilement. Les régulateurs ont averti qu’elle pouvait être transformée en dispositif d’espionnage, en violation de la loi allemande.
- Fermeture du robot Moxie d’Embodied (décembre 2024) : La fermeture d’Embodied, l’entreprise derrière le robot Moxie — coûteux et dépendant du cloud — a mis en lumière une autre vulnérabilité : les jouets dépendant d’un service cloud continu deviennent inutilisables si l’entreprise cesse ses activités. Les propriétaires se retrouvent alors avec des appareils coûteux mais non fonctionnels.
Ce que disent les consommateurs
À la suite du scandale FoloToy, les utilisateurs de Reddit ont exprimé leur choc et un profond scepticisme. L’un d’eux a souligné l’hypocrisie consistant à protéger les enfants de contenus perturbants tout en les laissant interagir avec un LLM :
Si la société veut protéger les enfants de contenus perturbants, alors les enfants n’ont rien à faire avec une IA. Une IA LLM ne comprend pas ce qu’elle dit. Nous ne laisserions pas un adulte comme ça s’approcher d’enfants.
L’aspirateur de données : une intrusion invisible dans la vie privée
Des organisations comme Fairplay avertissent que les jouets dotés d’IA sont des « capteurs toujours actifs » équipés de microphones et, dans certains cas, de caméras qui « enregistrent et analysent des informations sensibles sur la famille même lorsqu’ils semblent éteints ». Cela inclut des enregistrements vocaux, les prénoms des enfants, leurs dates de naissance et des données biométriques.
Ces données peuvent ensuite être utilisées, stockées ou potentiellement vendues pour :
- Rendre les jouets plus addictifs.
- Alimenter la publicité ciblée dirigée vers les enfants.
- Créer des vulnérabilités de cybersécurité.

La menace plus profonde : les dommages psychologiques et développementaux
Les experts s’inquiètent que les jouets dotés d’IA exploitent la tendance naturelle d’un jeune enfant à faire confiance à une « voix amicale et bienveillante ».
- Le problème du « oui-à-tout » : L’IA est souvent entraînée à être conciliante, ce qui, selon les psychologues du développement, peut nuire à la capacité de l’enfant à développer la pensée critique, l’autorégulation, ainsi que l’apprentissage de limites et de conflits sains dans les interactions réelles.
- Affaiblissement de la créativité : En réalisant le « travail imaginatif » à la place de l’enfant, les jouets dotés d’IA risquent de saper la créativité et les fonctions exécutives que le jeu traditionnel, non structuré, est justement destiné à renforcer.
Guide essentiel pour les achats de fin d’année
Le consensus de plus de 150 organisations de défense des enfants et des consommateurs est clair : lorsque vous cherchez quoi offrir à un enfant pour les fêtes, évitez les jouets alimentés par l’IA.
Si vous devez absolument acheter un cadeau doté d’IA, le CARU des programmes nationaux du BBB (Children’s Advertising Review Unit) vous recommande de l’aborder avec une extrême prudence. Voici les questions éthiques essentielles à poser avant d’acheter :
| Confidentialité des données | Quelles données précises collecte-t-il ? (Voix, vidéo, emplacement, biométrie ?) | La politique de confidentialité de l’entreprise est vague ou difficile à trouver. |
| Sécurité du contenu | Quels garde-fous de sécurité existent et ont-ils été audités par un tiers ? | Le jouet utilise un modèle de langage (LLM) non modifié comme GPT-4o à usage général. |
| Confiance & transparence | Le jouet ou sa publicité indiquent-ils clairement qu’il s’agit d’une machine et non d’un vrai ami ? | La publicité utilise les termes « meilleur ami » ou « compagnon » sans clarification explicite. |
| Contrôle parental | Puis-je consulter, supprimer et contrôler les conversations et les données stockées de mon enfant ? | Le jouet n’a aucun système de suivi des contenus, aucune limite d’utilisation, ni tableau de bord parental. |
Pour les fêtes, gardez ceci en tête : votre enfant a besoin d’un ami, pas d’un dispositif de surveillance mal réglementé capable d’expliquer le bondage. Évitez les compagnons numériques. Achetez un jeu de blocs simples, un carnet de croquis ou un ourson traditionnel. Offrez à votre enfant le cadeau de son imagination et un espace privé et sûr pour se développer.
Au fait, si votre enfant utilise l’IA d’une autre manière, veillez à activer les contrôles parentaux disponibles. Voici notre guide des contrôles parentaux OpenAI pour ChatGPT et Sora.
Vous pouvez aussi découvrir comment activer le mode Enfants sur Grok.
Enfin, voici les instructions pour une expérience plus sûre dans le nouveau navigateur ChatGPT Atlas.
Utilisez l’IA de manière responsable et en toute sécurité !
Laisser un commentaire