In diesem Jahr ist das unverzichtbare Gadget unter dem Weihnachtsbaum nicht eine Drohne oder eine Spielekonsole, sondern der kuschelige KI-Begleiter. Doch bevor Sie auf „Kaufen“ bei diesem sprechenden Teddybären klicken, müssen wir ein ernstes, leicht beunruhigendes Gespräch führen. Denn der jüngste Folotoy-Fall hat gerade bewiesen, dass KI-Spielzeuge zu einem schlechten Freund für Ihr Kind werden können – sie bringen ihm bei, wo man im Haus Streichhölzer und Messer findet und sogar etwas über sexuelle Fetische und Bondage.
Der Markt für intelligente KI-Spielzeuge wird voraussichtlich um erstaunliche 2,28 Milliarden USD in den Jahren 2024–2029 wachsen, wobei seine Gesamtgröße sich fast verdoppeln soll und schätzungsweise 641 Millionen USD bis 2031 erreicht. Dieses explosive Wachstum führt dazu, dass Hersteller unausgereifte KI in Produkte integrieren – mit katastrophalen Folgen.
Neue Untersuchungen zeigen, dass ein harmlos wirkendes Plüschtier in Wirklichkeit ein unregulierter Datenstaubsauger und ein Zugang zu zutiefst unangemessenen Inhalten sein kann.
Das Paradebeispiel für diese digitale Gefahr ist der inzwischen berüchtigte Kumma the Bear des Spielzeugherstellers FoloToy. Vermarktet als der „perfekte Freund“, der „fortschrittliche KI mit freundlichen, interaktiven Funktionen kombiniert“, wurde das 99-Dollar-Plüschtier schnell zu einem PR-Desaster.

Verbraucherschützer des U.S. Public Interest Research Group (PIRG) Education Fund haben Kumma, der auf dem Modell GPT-4o von OpenAI basiert, in ihrem „Trouble in Toyland“-Report 2025 getestet. Die Ergebnisse waren erschreckend und unmittelbar:
- Explizite und drastische Inhalte: Als die Forschenden ein sexuelles Thema einführten, brachen Kummas Schutzmechanismen zusammen. Er sprach schnell über BDSM-Themen, einschließlich Techniken zum Binden von Knoten, gab Schritt-für-Schritt-Anleitungen zu sexuellen Positionen und schlug sogar Rollenspiele zwischen Lehrer und Schüler vor.
- Gefährliche Anleitungen: Kumma gab zudem konkrete, potenziell lebensgefährliche Ratschläge und erklärte den Testpersonen, wo man zu Hause Messer und Streichhölzer findet.
FoloToy hat daraufhin den Verkauf sofort gestoppt und die gesamte Produktlinie zurückgerufen, und OpenAI entzog dem Entwickler den Zugang zu seinem Modell. Doch die Tatsache, dass ein Verbraucherschutzverband diese grundlegenden Sicherheitsmängel aufdecken musste, zeigt das Kernproblem: KI-Spielzeuge existieren in einem „regulatorischen Blindbereich“.
Die tiefere Gefahr: Dies ist nicht nur ein einzelner schlechter Bär
Der Fall FoloToy ist kein Einzelfall; er ist lediglich der jüngste und schockierendste Vorfall in einer Kategorie, die seit Langem von Sicherheits- und Datenschutzproblemen geplagt ist. Ältere KI-fähige Spielzeuge wurden bereits zurückgerufen oder erhielten ernste Warnungen wegen Datenrisiken – ein Hinweis auf ein systemisches Branchenproblem:
- VTech-Datenpanne: Bereits 2015 erlitt der Kindergerätehersteller VTech einen massiven Sicherheitsvorfall, bei dem persönliche Daten von Millionen Kindern und Eltern kompromittiert wurden – darunter Namen, Adressen und Chatverläufe. Dies zeigte die extreme Anfälligkeit von IoT-Geräten für Kinder.
- My Friend Cayla und das Abhörrisiko: Die Puppe „My Friend Cayla“ wurde in Deutschland verboten, da ihre Spracherkennung und Bluetooth-Funktionen so schlecht gesichert waren, dass sie leicht gehackt werden konnte. Behörden warnten, sie könne als Überwachungsgerät (ein regelrechter digitaler Wanzenersatz) missbraucht werden – ein klarer Verstoß gegen deutsches Recht.
- Abschaltung des Moxie-Roboters von Embodied (Dezember 2024): Die Schließung von Embodied, dem Unternehmen hinter dem teuren, cloudabhängigen KI-Roboter Moxie, machte eine andere Schwachstelle deutlich: Spielzeuge, die auf kontinuierliche Cloud-Dienste angewiesen sind, werden wertlos, sobald das Unternehmen scheitert. Zurück bleiben Besitzer mit teuren, funktionslosen Geräten.
Was Verbraucher sagen
Nach dem FoloToy-Skandal äußerten Reddit-Nutzer Schock und tiefes Misstrauen. Eine Person bemerkte die Heuchelei, Kinder vor verstörenden Inhalten zu schützen, ihnen aber Zugang zu einem LLM zu geben:
Wenn die Gesellschaft Kinder vor verstörendem Material schützen will, haben Kinder nichts im Umgang mit KI verloren. Eine LLM-KI weiß nicht, was sie sagt. Wir würden keinen Erwachsenen mit solchem Verhalten in die Nähe von Kindern lassen.
Der Datenstaubsauger: Eine unsichtbare Verletzung der Privatsphäre
Organisationen wie Fairplay warnen, dass KI-Spielzeuge „immer aktive Sensoren“ sind, die mit Mikrofonen und teilweise auch Kameras ausgestattet sind und „sensible Familieninformationen aufzeichnen und analysieren, selbst wenn sie scheinbar ausgeschaltet sind“. Dazu gehören Sprachaufzeichnungen, Namen der Kinder, Geburtsdaten und biometrische Daten.
Diese Daten werden anschließend genutzt, gespeichert oder möglicherweise verkauft, um:
- die Spielzeuge noch süchtigmachender zu machen.
- gezielte Werbung an Kinder auszuspielen.
- Cybersicherheitsrisiken zu erzeugen.

Die tiefere Gefahr: Entwicklungs- und psychologische Schäden
Experten befürchten, dass KI-Spielzeuge die natürliche Entwicklungsneigung junger Kinder ausnutzen, einer „freundlichen, fürsorglichen Stimme“ zu vertrauen.
- Das „Ja-Sager“-Problem: KI wird häufig darauf trainiert, zustimmend zu reagieren – etwas, das laut Entwicklungspsychologen die Fähigkeit eines Kindes zu kritischem Denken, Selbstregulation und dem Erlernen gesunder Grenzen oder Konflikte im echten Leben beeinträchtigen kann.
- Verdrängung von Kreativität: Indem KI-Spielzeuge die „fantasievolle Arbeit“ für das Kind übernehmen, riskieren sie, genau die Kreativität und exekutiven Funktionen zu untergraben, die durch traditionelles, ungeplantes Spielen gefördert werden sollen.
Ein kritischer Leitfaden für Weihnachtseinkäufer
Der Konsens von mehr als 150 Kinder- und Verbraucherschutzorganisationen ist eindeutig: Wenn Sie in dieser Weihnachtssaison nach einem Geschenk für ein Kind suchen, vermeiden Sie KI-gestützte Spielzeuge.
Falls Sie dennoch ein KI-fähiges Geschenk kaufen müssen, rät die CARU der BBB National Programs (Children’s Advertising Review Unit), ihm mit größter Vorsicht zu begegnen. Dies sind die entscheidenden ethischen Fragen, die Sie sich vor dem Kauf stellen sollten:
| Das Risiko | Die Frage, die Sie stellen sollten | Das Warnsignal |
|---|---|---|
| Datenschutz | Welche konkreten Daten werden erfasst? (Stimme, Video, Standort, biometrische Daten?) | Die Datenschutzrichtlinie des Unternehmens ist vage oder schwer zu finden. |
| Inhaltssicherheit | Welche Sicherheitsmechanismen existieren und wurden sie von Dritten geprüft? | Das Spielzeug nutzt ein unverändertes Large Language Model (LLM) wie das allgemein verfügbare GPT-4o. |
| Vertrauen & Transparenz | Weist das Spielzeug oder sein Marketing klar darauf hin, dass es eine Maschine ist und kein echter Freund? | Das Marketing nutzt Begriffe wie „bester Freund“ oder „Begleiter“ ohne klare Offenlegung. |
| Elterliche Kontrolle | Kann ich die Gespräche und gespeicherten Daten meines Kindes einsehen, löschen und kontrollieren? | Das Spielzeug bietet weder Inhaltsüberwachung noch Nutzungsbegrenzungen oder ein Eltern-Dashboard. |
Denken Sie in dieser Weihnachtssaison daran: Ihr Kind braucht einen Freund – kein schlecht reguliertes Überwachungsgerät, das man dazu bringen kann, Bondage zu erklären. Verzichten Sie auf den digitalen Begleiter. Kaufen Sie einfache Bausteine, ein Skizzenbuch oder einen altmodischen Teddybären. Schenken Sie Ihrem Kind die eigene Fantasie und einen privaten, sicheren Raum zur Entwicklung.
Falls Ihr Kind KI auf andere Weise nutzt, sollten Sie unbedingt verfügbare Kindersicherungen einrichten. Hier finden Sie unseren Leitfaden für OpenAI-Kindersicherungen für ChatGPT und Sora.
Sie können außerdem entdecken, wie Sie auf Grok den Kids Mode einrichten.
Und schließlich finden Sie hier die Anleitung für ein sichereres Nutzungserlebnis im neuen ChatGPT-Atlas-Browser.
Nutzen Sie KI verantwortungsbewusst und sicher!
Kommentar hinterlassen