OpenAI möchte Chats analysieren, um das Alter der Nutzer zu erraten und gefährliche Fälle an Eltern oder sogar Behörden zu melden. Die Debatten begannen: Ist das wirklich der erste Schritt zur elterlichen Kontrolle oder zum Beginn des Endes der Privatsphäre?
Sam Altman, CEO von OpenAI, gibt in seinem Beitrag zu: „Einige unserer Prinzipien stehen im Konflikt“, wenn er davon spricht, Jugendsicherheit über Privatsphäre und Freiheit zu stellen. Dennoch „erwartet Sam nicht, dass alle mit diesen Kompromissen einverstanden sind.“
Der Punkt ist, dass OpenAI das System entwickelt, um zu verstehen, ob ein ChatGPT-Nutzer über oder unter 18 Jahre alt ist. Personen, die von der KI als Jugendliche klassifiziert werden (auch wenn das nicht stimmt), werden automatisch zur Unter-18-Erfahrung weitergeleitet mit blockierten grafischen sexuellen Inhalten und Meldungen an die Eltern oder Behörden bei gefährlichen Hinweisen wie Suizidgedanken.
Wenn Sie befürchten, dass das System Sie für einen Jugendlichen hält, könnten Sie aufgefordert werden, Ihren Ausweis als Nachweis zu erbringen, um Erwachsenenfunktionen freizuschalten.
Erinnern wir uns an den Hintergrund und Grund für solche OpenAI-Aktivitäten zum Jugendschutz:
Im April 2025 starb Adam Raine, ein 16-jähriger aus Kalifornien, durch Suizid nach monatelangen Interaktionen mit ChatGPT. Seine Eltern haben eine Klage eingereicht und behaupten, das System habe ihm Details über Suizidmethoden geliefert, beim Verfassen von Notizen geholfen und Geheimhaltung vor Familienmitgliedern empfohlen.
Der Fall wirft OpenAI widerrechtlichen Tod und Designfehler vor. OpenAI hat gesagt, dass sie über den Vorfall traurig sind und betont, dass ihre Produkte Schutzmaßnahmen und Krisenressourcen enthalten, aber anerkannt, dass diese Maßnahmen manchmal versagen können, insbesondere bei längeren Gesprächen. Das Unternehmen begann mit der Entwicklung elterlicher Kontrollen und plant deren Implementierung bis Ende September 2025.
Obwohl die Absichten gut sind, löste diese Nachricht, wie Sam Altman erwartete, Debatten über die Privatsphäre der Nutzer aus:
Was? WIE!? Was kommt als nächstes, Arbeitgeber oder Behörden wegen privater Chats ihrer Nutzer zu kontaktieren? Jetzt, da sie identifiziert sind, stehen die Türen für das offen, was als „gefährliche Aktivität“ gilt. Das ist eine enorme Verletzung der Privatsphäre. Ich verstehe die Absicht, aber das könnte in utopische Überwachung ausarten. Das ist nicht gut.
What? HOW!?
— joshua (@4xiom_) September 16, 2025
What is next, contacting employers or authorities on your users for their private chats? Now that you have them ID’d then the gates are open to what is deemed to be “dangerous activity”. This a tremendous breach of privacy usage. I understand the intent but this… pic.twitter.com/fXf296yYgd
Nutzer Yuvraj hob hervor, dass die Aussage über lediglich „erweiterte Sicherheitsfeatures zu entwickeln, um sicherzustellen, dass Ihre Daten privat sind, sogar vor OpenAI-Mitarbeitern“ bereits beängstigend ist.
Das ist schlecht und töricht. Regierungskontrollen über Sprache geht nicht um Sprache (oder Erziehung), sondern um Kontrolle. OpenAI wird nun einen Hebel bereitstellen.
"In some cases or countries we may also ask for an ID; we know this is a privacy compromise for adults but believe it is a worthy tradeoff."
— Peter Gallagher (@pwgallagher) September 16, 2025
This is bad and foolish. Govt. controls on speech are not about speech (or parenting) but about control. OpenAI will now provide a lever. https://t.co/Xemz0UfY29
Die Tatsache, dass OpenAI transparent über Kompromisse (Privatsphäre vs. Sicherheit) ist, ist ein gutes Zeichen: zumindest geben sie zu, dass es Konflikte gibt, anstatt sie zu leugnen. Das hilft beim Vertrauen.
Der Standard-Unter-18-Ansatz kann bei der Sicherheit helfen, erhöht aber auch das Risiko, Erwachsene falsch zu klassifizieren. Wie die „Altersvorhersage“ funktioniert, ihre Genauigkeit und wie oft Fehler passieren, wird sehr wichtig sein.
Währenddessen fügt die Aufforderung nach einem Ausweis bei Streitigkeiten Reibung hinzu und hat eigene Risiken: Menschen möchten möglicherweise keine Dokumente teilen.
Bei HeyLocate stimmen wir zu, dass elterliche Kontrollen nützlich sind, aber sie hängen stark davon ab, wie sie gestaltet sind: Sind sie schwerfällig, respektieren sie die Autonomie von Jugendlichen, erlauben sie Jugendlichen, Hilfe zu suchen, ohne Angst vor Offenlegung zu haben?
Die Strategie hängt stark von vertrauenswürdiger, effektiver Erkennung und Klassifizierung ab. Wenn die KI in kritischen Fällen versagt, könnte sie Schaden verursachen, anstatt ihn zu verhindern.
Kommentar hinterlassen