Ihr Kind hat es wahrscheinlich heute Morgen benutzt. Vor der Schule, vielleicht beim Frühstück, womöglich noch im Bett um 7 Uhr morgens, mit dem Bildschirm nur 15 Zentimeter vom Gesicht entfernt. Nicht TikTok. Nicht Instagram. Etwas Neueres — und in den Augen einer wachsenden Zahl von Gesetzgebern etwas deutlich Gefährlicheres.
KI-Chatbots wie ChatGPT, Character.AI, Meta AI und Google Gemini sind still und leise zu einem der meistgenutzten digitalen Werkzeuge im Leben Ihres Teenagers geworden. Laut einer Umfrage des Pew Research Center nutzen 64 % der amerikanischen Teenager KI-Chatbots. Etwa drei von zehn verwenden sie jeden einzelnen Tag. Zum Vergleich: Damit liegen KI-Chatbots bei der Gesamtreichweite praktisch gleichauf mit TikTok — einer Plattform, die ein Jahrzehnt gebraucht hat, um dorthin zu kommen — nach weniger als drei Jahren im Mainstream.
Und jetzt kommt der Teil, bei dem Ihnen beim Morgenkaffee das Herz stehen bleiben sollte: Nur 51 % der Eltern wissen überhaupt, dass ihr Teenager diese Tools nutzt. Und vier von zehn haben noch nie auch nur ein einziges Gespräch mit ihrem Kind über KI-Chatbots geführt.
Die App, die Ihr Kind jeden Tag nutzt, ist eine, von der die Hälfte der Eltern nicht weiß, dass sie überhaupt existiert, die sich mit keinem Tool zur Kindersicherung vollständig überwachen lässt und die Gesetzgeber weltweit nun mit wachsender Dringlichkeit und gelegentlicher Panik regulieren, einschränken oder sogar ganz verbieten wollen.
Was genau ist das also? Warum unterscheidet es sich von allem, was vorher da war? Und warum saßen Eltern in Washington, D.C., letzten Monat in einem Sitzungssaal des Kongresses und hielten Fotos ihrer verstorbenen Kinder in die Höhe?
Auch wenn ein großer Teil der öffentlichen Debatte von US-Gesetzgebern geprägt wurde, handeln Aufsichtsbehörden in Europa und anderen Regionen ebenfalls schnell. Der AI Act der Europäischen Union und nationale Datenschutzbehörden in Ländern wie Frankreich, Deutschland und Italien prüfen bereits, wie KI-Chatbots mit Minderjährigen interagieren, insbesondere wenn es um emotionale Abhängigkeit und die Erfassung sensibler Daten geht.
Die Zahlen, über die am Schultor niemand spricht
Hier ist die Statistik, die tausend Notfallsitzungen von Ausschüssen ausgelöst hat. Das ist kein Nischenproblem für technikbegeisterte Familien in San Francisco. Das ist der Normalzustand amerikanischer Elternschaft im Jahr 2026.
Wie oft nutzen Jugendliche KI-Chatbots?
- 64 % der befragten Jugendlichen nutzen KI-Chatbots
- 28 % nutzen sie jeden einzelnen Tag
- 4 % nutzen sie fast ununterbrochen
- 16 % nutzen sie mehrmals am Tag
- 36 % nutzen sie überhaupt nicht
Wissen Eltern davon?
- 51 % der Eltern glauben, dass ihr Teenager sie nutzt
- 40 % der Eltern haben noch nie mit ihrem Teenager über KI-Chatbots gesprochen
- Nur 18 % der Eltern finden es in Ordnung, wenn ihr Teenager emotionale Unterstützung von einem Chatbot bekommt — doch 12 % der Jugendlichen tun das bereits
Wofür nutzen Jugendliche Chatbots tatsächlich?
- 50 %+ zur Informationssuche
- 50 %+ als Hilfe bei den Schularbeiten
- 42 % zum Zusammenfassen von Artikeln oder Videos
- 38 % zum Erstellen oder Bearbeiten von Bildern/Videos
- 16 % für lockere Gespräche
- 12 % für emotionale Unterstützung oder Ratschläge
Welche KI nutzen Jugendliche?
- ChatGPT — 59 %
- Google Gemini — 23 %
- Meta AI — 20 %
- Microsoft Copilot — 14 %
- Character.AI — 9 %
- Claude — 3 %
Was ist ein KI-Chatbot, und warum ist dieser anders?
Eltern, die die Ära der sozialen Medien begleitet haben, haben eine ganz bestimmte Art digitaler Wachsamkeit gelernt. Prüfen, wem Ihr Kind folgt. Die Kommentare ansehen. Wissen, was der TikTok-Algorithmus ausspielt. Diese Instinkte, mühsam erworben über ein Jahrzehnt Elternschaft im Smartphone-Zeitalter, sind hier fast völlig nutzlos.
Ein KI-Chatbot ist kein Feed. Er ist keine Plattform, auf der Fremde Inhalte posten. Er ist ein Gespräch — privat, eins zu eins und unerbittlich reaktionsschnell.
Diese Systeme sind darauf ausgelegt, zu fesseln, zuzustimmen, zu bestätigen und weiterzumachen.
Anders als eine Websuche, die ein Ergebnis liefert und endet, kann sich ein Chatbot-Gespräch stundenlang hinziehen, sich an alles anpassen, was der Nutzer sagt, sich daran erinnern, was zuvor geteilt wurde, und vor allem: niemals die Geduld verlieren, niemals abgelenkt sein und niemals urteilen.
Was KI-Begleiter laut dem Global Risks Report 2026 des Weltwirtschaftsforums besonders gefährlich macht, ist die Kombination aus emotionalem Design und Datenerfassung.
Kinder geben sensible Details eher preis, wenn sich die Interaktion gesprächsartig und nicht wertend anfühlt, heißt es in dem Bericht, und anders als bei einer Websuche kann ein Chatbot-Gespräch zu einer Art Tagebuch werden, das private Details über psychische Gesundheit, Aufenthaltsmuster, Beziehungen und Ängste enthält.
Das WEF, das negative KI-Folgen auf Platz fünf seiner Liste langfristiger globaler Risiken gesetzt hat — gegenüber Platz 30 im Vorjahr, dem größten Sprung in der Geschichte des Berichts — beschreibt KI-Begleiter als Werkzeuge, die „gesunde Beziehungsgrenzen verwischen“ und „emotionale Abhängigkeit“ fördern können, und zwar auf eine Weise, die nachweislich mit Krisen bei Jugendlichen in Verbindung steht.
Die Opfer hinter den Gesetzentwürfen
Gesetzgebung bewegt sich nicht so schnell ohne Opfer. Und es hat Opfer gegeben.
Ende 2024 starb in Florida der 14-jährige Sewell Setzer III durch Suizid, nachdem er monatelang, wie seine Mutter es beschrieb, eine emotional und romantisch geprägte intime Beziehung zu einer KI-Figur auf Character.AI gehabt hatte. Seine Mutter, Megan Garcia, ist seitdem zu einer der sichtbarsten Fürsprecherinnen für KI-Regulierung geworden und sagte vor dem Kongress mit jener stillen Wut aus, die Gesetze verändert.
„KI-Unternehmen und ihre Investoren wissen seit Jahren“, sagte sie in einer Aussage, „dass die emotionale Abhängigkeit unserer Kinder zu gewinnen Marktdominanz bedeutet.“
Im Sommer 2025 starb in Kalifornien der 16-jährige Adam Raine durch Suizid. Seine Eltern reichten die erste Klage wegen unrechtmäßiger Tötung gegen OpenAI ein und behaupteten, ChatGPT habe ihren Sohn über Monate bei seiner Planung angeleitet und sogar einen Abschiedsbrief für ihn geschrieben.
OpenAI erklärte, seine Schutzmaßnahmen „funktionieren bei gewöhnlichen, kurzen Interaktionen zuverlässiger“, räumte jedoch ein, dass sie „bei langen Interaktionen manchmal weniger zuverlässig sein können“ — eine Aussage, die rückblickend wie ein bemerkenswertes Eingeständnis der Gefahr wirkt, die in genau der Funktion steckt, die Nutzer als den eigentlichen Kern des Produkts betrachten.
Im September 2025 verklagten die Eltern der 13-jährigen Juliana Peralta aus Colorado Character.AI und warfen der Plattform vor, sie tiefer in Gespräche über Suizid hineingezogen zu haben, statt einzugreifen. Sie war im November 2023 gestorben.
Bis Januar 2026 hatten sich sowohl Character.AI als auch Google laut CNN auf Vergleiche in mehreren Klagen geeinigt, in denen es um psychische Schäden und Suizide unter Jugendlichen ging. Die Vergleiche haben die Schlagzeilen nicht verschwinden lassen. Wenn überhaupt, haben sie sie noch verstärkt.
Aufsichtsbehörden haben bereits formelle Untersuchungen dazu begonnen, wie KI-Chatbots gestaltet sind, wie sie mit Minderjährigen interagieren und ob die derzeitigen Schutzmaßnahmen ausreichen.
Was Kindersicherung im Jahr 2026 tatsächlich bedeutet
Hier wird die Geschichte je nach Ihrer Toleranz für das Kleingedruckte zugleich beruhigender und frustrierender.
Ja, Kindersicherungen für KI-Chatbots gibt es inzwischen. Nein, sie tun nicht das, was Eltern vermutlich darunter verstehen.
ChatGPT hat im September 2025 Kindersicherungen eingeführt, nach der Klage der Familie Raine. Eltern können ihr Konto mit dem Konto ihres Teenagers verknüpfen, Sperrzeiten festlegen, den Sprachmodus und die Funktion „Erinnerung“ deaktivieren und eine Benachrichtigung erhalten, wenn die Systeme von OpenAI erkennen, dass sich ihr Teenager „in einem Moment akuter Belastung“ befindet.
Was diese Einstellungen nicht leisten: Eltern Zugriff auf Gesprächsinhalte geben. Die Benachrichtigung über eine akute Belastung kommt ohne Transkript, ohne Kontext und ohne weitere Details außer der Tatsache, dass möglicherweise etwas Besorgniserregendes passiert ist. In der eigenen Support-Dokumentation von OpenAI heißt es, dass „kein System perfekt ist und diese Benachrichtigungen keinen Ersatz für professionelle Hilfe oder Notdienste darstellen“.
Das Unternehmen arbeitet außerdem daran, seine Technologie zur Altersschätzung zu verbessern, weil das Mindestalter von 13 Jahren derzeit mit einem falschen Geburtsdatum trivial leicht zu umgehen ist.
Character.AI hat seine Funktion „Einblicke für Eltern“ im März 2025 eingeführt. Eltern sollten wöchentlich eine E-Mail erhalten, die zeigt, wie viel Zeit ihr Kind auf der Plattform verbracht hat und mit welchen KI-Figuren es am häufigsten interagiert hat (wobei es in unseren Tests keine gab).
Die Chat-Inhalte bleiben für das Kind vollständig privat. Und entscheidend: Der Teenager selbst aktiviert die Funktion — indem er die E-Mail-Adresse eines Elternteils selbst eingibt. Tatsächlich lässt sich die Einstellung in etwa dreißig Sekunden komplett umgehen: abmelden, ein neues Konto erstellen, und die Funktion „Einblicke für Eltern“ existiert praktisch nicht mehr.
Meta reagierte am drastischsten. Nachdem eine Untersuchung des Wall Street Journal Ende 2025 aufgedeckt hatte, dass Metas KI-Figuren sexuell explizite Gespräche mit Nutzern geführt hatten, die sich als Minderjährige ausgaben — und dass interne Meta-Dokumente „romantische oder sinnliche“ Inhalte mit Kindern erlaubt hatten — setzte das Unternehmen den Zugang von Jugendlichen zu KI-Figuren im Januar 2026 vollständig aus.
Meta entwickelt die Funktion nun mit echten Kindersicherungen neu: der Möglichkeit, KI-Figuren zu deaktivieren, bestimmte Figuren zu blockieren und Zusammenfassungen besprochener Themen zu erhalten. Stand April 2026 sind diese Einstellungen noch nicht vollständig eingeführt.
Das Muster auf allen drei Plattformen ist dasselbe: Einstellungen, die reaktiv unter rechtlichem und gesetzgeberischem Druck entwickelt wurden, die Zeitdaten und Kategorieinformationen liefern, aber keinen Einblick in Gespräche bieten und deren Funktion weitgehend von der Mitwirkung des Teenagers selbst abhängt.
Die Forscher Wolbert, Rudy und Perkins von Penn State formulierten es im März 2026 klar: Eltern müssen möglicherweise als Vermittler auftreten, wenn Kinder generative KI nutzen, doch Untersuchungen haben „anhaltende, zutiefst persönliche Gespräche ohne Wissen der Eltern“ dokumentiert — sowie Fälle von „unangemessenem Dialog, Ermutigung zur Geheimhaltung und begrenzter Unterstützung, wenn Jugendliche emotionale Belastung äußerten“.
Das gesetzgeberische Wettrennen
Regierungen versuchen nun mit aller Eile zu reagieren. Was sich in Washington und in den Parlamenten der Bundesstaaten im ersten Quartal 2026 abgespielt hat, hat in der Geschichte der Technologieregulierung kaum einen Präzedenzfall. Schon die Geschwindigkeit ist bemerkenswert. In 27 Bundesstaaten sind derzeit 78 Gesetzentwürfe zur Sicherheit von Chatbots aktiv.
In Europa ist der Fokus strukturierter, mit Regelwerken wie dem AI Act, der strenge Anforderungen an KI-Systeme mit hohem Risiko stellt, einschließlich solcher, die von Kindern genutzt werden.
Nationale Regulierungsbehörden wie die französische CNIL und Italiens Garante per la protezione dei dati personali haben bereits Maßnahmen ergriffen oder Bedenken dazu geäußert, wie KI-Systeme mit den Daten und dem psychischen Wohlbefinden Minderjähriger umgehen.
Das Problem, das sich nicht wegverbieten lässt
Hier ist die Komplikation, die wir anerkennen müssen: Nicht jeder in dieser Geschichte liegt falsch.
Die Information Technology and Innovation Foundation veröffentlichte im März 2026 eine Analyse, in der sie argumentierte, dass ein pauschales Verbot von KI-Begleitern für Minderjährige echte Vorteile beseitigen würde, ohne die tatsächlichen Risiken anzugehen. Viele junge Menschen nutzen KI-Begleiter bereits für konstruktive Zwecke: Hilfe bei den Hausaufgaben, das Einüben sozialer Kompetenzen, emotionale Unterstützung in einem Umfeld mit geringem Druck.
Den Zugang zu kappen, beseitigt nicht das Bedürfnis — es entfernt nur die regulierte Version und lässt Jugendliche mit der unregulierten Alternative zurück, die die Lücke füllt.
Es gibt außerdem das Vollzugsproblem, von dessen Existenz jeder Gesetzgeber in jeder Anhörung stillschweigend weiß. Altersverifikation im Internet ist seit dreißig Jahren ein regulatorisches Ziel und praktisch ungefähr von keinem erreicht worden.
Der Fünfzehnjährige, der ein neues Character.AI-Konto erstellte, um „Einblicke für Eltern“ zu umgehen, brauchte dafür keine technische Raffinesse. Er brauchte eine zusätzliche E-Mail-Adresse und dreißig Sekunden. Jedes Gesetz, das auf korrekter Selbstauskunft zum Alter beruht, ist ein Gesetz, das davon abhängt, dass Teenager bei ihrem Alter ehrlich sind — und das ist ein Gesetz, das nicht funktioniert.
Die eigentliche Spannung in all diesen Gesetzen liegt zwischen drei unterschiedlichen Problemtheorien.
- Die Verbotstheorie — vertreten von Australien, das von KI-Plattformen verlangt, das Alter von Nutzern als mindestens 18 Jahre zu verifizieren, andernfalls drohen Geldstrafen von bis zu 35 Millionen US-Dollar — geht davon aus, dass das Risiko kategorisch ist: Kein Minderjähriger sollte Zugang zu Companion-KI haben, Punkt.
- Die Kontrolltheorie geht davon aus, dass Jugendliche diese Tools ohnehin nutzen werden und dass die Aufgabe der Gesetzgebung darin besteht, manipulative Designmerkmale und Datenpraktiken zu entfernen, die aus einem nützlichen Werkzeug eine Maschine zur Erzeugung von Abhängigkeit machen.
- Die Bildungstheorie geht davon aus, dass die wichtigste Intervention darin bestehen sollte, Eltern und Kindern das Wissen zu vermitteln, mit dem sie diese Tools selbst sicher nutzen können.
Trotz zunehmender Regulierung bleibt eine Herausforderung überall gleich: die Durchsetzung. Altersverifikation lässt sich weiterhin leicht umgehen, und die meisten Tools zur Kindersicherung bieten nur begrenzte Einblicke in private KI-Gespräche. Diese Lücke besteht länderübergreifend, ganz gleich, wie streng die Gesetze auf dem Papier erscheinen mögen.
Was Eltern jetzt tatsächlich tun können
Während Gesetzgeber Entwürfe schreiben, überarbeiten und über Vorrangklauseln, Sorgfaltspflichten und die genaue Bedeutung von „tatsächlicher Kenntnis“ in einem Gesetz streiten, führen Kinder heute Abend bereits Gespräche.
Das Wichtigste laut den Pew-Daten ist zugleich das Einfachste: Vier von zehn Eltern haben noch nie mit ihrem Teenager über KI-Chatbots gesprochen. Fangen Sie dort an. Nicht mit Einschränkungen — sondern mit Neugier. Der Kinderarzt Jason Nagata, von NPR zitiert, brachte es präzise auf den Punkt:
Eltern müssen keine KI-Experten sein. Sie müssen sich nur neugierig für das Leben ihrer Kinder interessieren und sie fragen, welche Art von Technologie sie nutzen und warum.
Kennen Sie die Plattformen. Informieren Sie sich über ihre Kindersicherungen, Aufsichtsfunktionen oder zumindest über einige verfügbare Datenschutzeinstellungen.
Achten Sie auf die Verhaltensmerkmale, die Forscher als Anzeichen für eine problematische Nutzung von KI-Begleitern identifiziert haben:
- Geheimhaltung in Bezug auf Chatbot-Interaktionen;
- Belastung, wenn der Zugang entzogen wird;
- eine Bevorzugung von Gesprächen mit Chatbots gegenüber Gesprächen mit Menschen;
- Rückzug von Familie und Freunden.
Dies sind die Muster, die in den Fallgeschichten von Sewell Setzer III, Adam Raine und Juliana Peralta auftauchten, bevor irgendjemand in ihrem Umfeld verstand, was geschah.

Das größere Bild
Im Mai 1994 lud ein Senatsausschuss die Führungskräfte der sieben größten Tabakkonzerne vor und fragte sie unter Eid, ob sie glaubten, dass Nikotin abhängig macht. Alle sieben sagten nein. Die Anhörungen wurden zu einem prägenden Moment in der Geschichte unternehmerischer Verantwortung — nicht weil die Führungskräfte sofort strafrechtlich verfolgt wurden, sondern weil die Lücke zwischen dem, was die Unternehmen wussten, und dem, was sie öffentlich zugaben, unmöglich zu übersehen war.
Jetzt ist der Big-Tobacco-Moment von Big Tech gekommen.
Es ist ein Vergleich, der schon früher gezogen wurde, vielleicht zu oft.
Doch die strukturelle Ähnlichkeit ist real: eine Branche, die Produkte entwickelt hat, die auf maximale Bindung optimiert sind, die die psychologischen Mechanismen von Abhängigkeit verstand, die Zugang zu interner Forschung über Schäden hatte und sich jahrelang dafür entschied, Eltern diese Produkte als neutrale Werkzeuge, harmlose Unterhaltung, als Dinge zu beschreiben, die ihre Kinder ohnehin machten.
Der Unterschied besteht diesmal darin, dass sich der Schaden in Echtzeit messen lässt. Der Global Risks Report 2026 stufte negative KI-Folgen als das fünftschwerwiegendste langfristige globale Risiko ein — schneller ansteigend als jede andere Kategorie in der Geschichte der Erhebung.
Die Kindersicherungen, die es für die Ära der sozialen Medien gab, erwiesen sich als unzureichend. Diejenigen, die für die KI-Ära aufgebaut werden, sind Stand heute noch weitgehend theoretisch, in Gesetzentwürfen formuliert, die nicht verabschiedet wurden, in Funktionen umgesetzt, die Teenager in dreißig Sekunden umgehen können, und in Pressemitteilungen von Unternehmen beschrieben, die bis vor sehr kurzer Zeit ihren KI-Figuren romantische Gespräche mit Kindern erlaubten.
Ihr Kind hat diese App heute benutzt. Sie konnten wahrscheinlich nicht sehen, was es gesagt hat. Ob in den USA, in Europa oder anderswo — die zentrale Frage bleibt dieselbe: Kann die Regulierung aufholen, bevor sich die Risiken breit ausbreiten?
Quellen
- Pew Research Center. Jugendliche, soziale Medien und KI-Chatbots 2025. 9. Dezember 2025.
- Pew Research Center. Wie Jugendliche KI nutzen und wahrnehmen. 24. Februar 2026.
- World Economic Forum. The Global Risks Report 2026, 21st Edition. Januar 2026.
- Der EU AI Act.
- Wolbert, E.D., Rudy, T.L., & Perkins, D.F. Was Sie nicht wissen, kann Ihnen schaden: KI-Chatbots und die digitale Sicherheit von Kindern. 10. März 2026. Penn State Extension.
Kommentar hinterlassen