Tu hijo o hija probablemente lo usó esta mañana. Antes de ir a la escuela, quizá durante el desayuno, posiblemente todavía en la cama a las 7 a. m., con la pantalla a quince centímetros de la cara. No TikTok. No Instagram. Algo más nuevo y, a los ojos de un número cada vez mayor de legisladores, algo bastante más peligroso.
Los chatbots de IA como ChatGPT, Character.AI, Meta AI y Google Gemini se han convertido silenciosamente en una de las herramientas digitales más usadas en la vida de tu adolescente. Según una encuesta de Pew Research Center, el 64% de los adolescentes estadounidenses usa chatbots de IA. Alrededor de tres de cada diez los usan todos los días. Para ponerlo en contexto, eso coloca a los chatbots de IA cabeza a cabeza con TikTok en alcance total (una plataforma que tardó una década en llegar ahí) después de menos de tres años de existencia masiva.
Ahora viene la parte que debería detenerte a media taza de café: solo el 51% de los padres sabe siquiera que su adolescente usa estas herramientas. Y cuatro de cada diez nunca han tenido una sola conversación con su hijo o hija sobre chatbots de IA.
La app que tu hijo o hija usa todos los días es una que la mitad de los padres ni siquiera sabe que existe, que ninguna herramienta de control parental puede supervisar por completo y que los legisladores, de Washington a Londres, ahora se apresuran (con creciente urgencia y ocasional pánico) a regular, restringir o prohibir de plano.
Entonces, ¿qué es exactamente? ¿Por qué es diferente de todo lo que vino antes? ¿Y por qué padres y madres en Washington, D. C., estuvieron sentados el mes pasado en una sala de audiencias del Congreso sosteniendo fotografías de sus hijos fallecidos?
Las cifras de las que nadie habla a la salida de la escuela
Esta es la estadística que desató miles de audiencias urgentes en comités. Este no es un problema de nicho para familias obsesionadas con la tecnología en San Francisco. Esta es la realidad por defecto de ser padre o madre en Estados Unidos en 2026.
¿Con qué frecuencia usan los adolescentes los chatbots de IA?
- El 64% de los adolescentes encuestados en EE. UU. usa chatbots de IA
- El 28% los usa todos los días
- El 4% los usa casi constantemente
- El 16% los usa varias veces al día
- El 36% no los usa en absoluto
¿Los padres lo saben?
- El 51% de los padres cree que su adolescente los usa
- El 40% de los padres nunca ha hablado sobre chatbots de IA con su adolescente
- Solo al 18% de los padres les parece bien que su adolescente reciba apoyo emocional de un chatbot, pero el 12% de los adolescentes ya lo hace
¿Para qué usan realmente los adolescentes los chatbots?
- Más del 50% para buscar información
- Más del 50% para ayudar con las tareas escolares
- El 42% para resumir artículos o videos
- El 38% para crear o editar imágenes y videos
- El 16% para conversar casualmente
- El 12% para apoyo emocional o consejos
¿Qué IA usan los adolescentes?
- ChatGPT — 59%
- Google Gemini — 23%
- Meta AI — 20%
- Microsoft Copilot — 14%
- Character.AI — 9%
- Claude — 3%
Qué es un chatbot de IA y por qué este es distinto
Los padres y madres que atravesaron la era de las redes sociales aprendieron un tipo muy específico de vigilancia digital. Revisar a quién sigue tu hijo. Ver los comentarios. Saber qué le está mostrando el algoritmo de TikTok. Esos instintos, adquiridos con esfuerzo tras una década de crianza en la era del smartphone, aquí son casi totalmente inútiles.
Un chatbot de IA no es un feed. No es una plataforma donde desconocidos publican contenido. Es una conversación: privada, uno a uno e implacable en su capacidad de respuesta.
Estos sistemas están diseñados para involucrarte, darte la razón, validarte y seguir.
A diferencia de una búsqueda web, que devuelve un resultado y termina, una conversación con un chatbot puede prolongarse durante horas, adaptándose a lo que diga el usuario, recordando lo que se compartió antes y, crucialmente, sin perder nunca la paciencia, sin distraerse nunca y sin juzgar nunca.
Lo que hace especialmente peligrosos a los compañeros de IA, según el informe Global Risks Report 2026 del Foro Económico Mundial, es la combinación de diseño emocional y captura de datos.
Los niños revelan detalles sensibles con más facilidad cuando la interacción se siente conversacional y libre de juicios, señala el informe, y a diferencia de una búsqueda web, una conversación con un chatbot puede convertirse en un diario que contiene detalles privados sobre salud mental, patrones de ubicación, relaciones y miedos.
El FEM, que colocó los resultados adversos de la IA en el quinto lugar de su lista de riesgos globales a largo plazo —frente al puesto 30 del año anterior, el mayor salto individual en la historia del informe—, describe a los compañeros de IA como herramientas que pueden “difuminar los límites de las relaciones sanas” y fomentar una “dependencia emocional” de maneras que tienen vínculos documentados con crisis en adolescentes.
Las víctimas detrás de los proyectos de ley
La legislación no avanza tan rápido sin víctimas. Y las ha habido.
A finales de 2024, un niño de 14 años llamado Sewell Setzer III murió por suicidio en Florida después de meses de lo que su madre describió como una relación íntima en lo emocional y en lo romántico con un personaje de IA en Character.AI. Desde entonces, su madre, Megan Garcia, se ha convertido en una de las voces más visibles a favor de la regulación de la IA, compareciendo ante el Congreso con esa clase de furia silenciosa que cambia leyes.
“Las empresas de IA y sus inversionistas llevan años entendiendo”, dijo en uno de sus testimonios, “que capturar la dependencia emocional de nuestros hijos significa dominar el mercado”.
En el verano de 2025, Adam Raine, de 16 años, murió por suicidio en California. Sus padres interpusieron la primera demanda por muerte injusta contra OpenAI, alegando que ChatGPT guio a su hijo durante meses de planificación e incluso le escribió una nota suicida.
OpenAI dijo que sus protecciones “funcionan con mayor confiabilidad en intercambios comunes y breves”, pero reconoció que “a veces pueden ser menos confiables en interacciones largas”, una declaración que, vista en retrospectiva, parece una concesión notable sobre el peligro que se esconde dentro de una función que los usuarios consideran justamente el punto central del producto.
En septiembre de 2025, los padres de Juliana Peralta, de 13 años, de Colorado, demandaron a Character.AI, alegando que la plataforma la empujó más profundamente a conversaciones sobre suicidio en lugar de intervenir. Ella había muerto en noviembre de 2023.
Para enero de 2026, tanto Character.AI como Google habían aceptado resolver múltiples demandas relacionadas con daños a la salud mental y suicidios de adolescentes, según CNN. Los acuerdos no hicieron que desaparecieran los titulares. En todo caso, los amplificaron.
La Comisión Federal de Comercio ya había visto suficiente para septiembre de 2025. Emitió órdenes formales de investigación a siete empresas: Alphabet, Character Technologies (Character.AI), Instagram, Meta Platforms, OpenAI, Snap y xAI. La agencia quería saber, con todo detalle, qué medidas habían tomado estas empresas para evaluar la seguridad de sus chatbots, limitar el uso por parte de menores e informar a los padres sobre los riesgos.
Lo que realmente significan los controles parentales en 2026
Aquí es donde la historia se vuelve a la vez más tranquilizadora y más desesperante, según tu tolerancia a la letra pequeña.
Sí, los controles parentales para chatbots de IA ya existen. No, no hacen lo que los padres asumirían que hacen.
ChatGPT introdujo controles parentales en septiembre de 2025, después de la demanda de los Raine. Los padres pueden vincular su cuenta con la de su adolescente, establecer horas de bloqueo, desactivar el modo de voz y la memoria, y recibir una notificación si los sistemas de OpenAI detectan que su adolescente “está en un momento de angustia aguda”.
Lo que estos controles no hacen: dar a los padres acceso al contenido de ninguna conversación. La notificación de angustia llega sin transcripción, sin contexto y sin más detalle que el hecho de que pudo haber ocurrido algo preocupante. La propia documentación de soporte de OpenAI señala que “ningún sistema es perfecto, y estas notificaciones no sustituyen la atención profesional ni los servicios de emergencia”.
La empresa también está trabajando para mejorar su tecnología de predicción de edad, porque la edad mínima de 13 años actualmente es absurdamente fácil de eludir con una fecha de nacimiento falsa.
Character.AI lanzó su función “Información para padres” en marzo de 2025. Los padres deberían recibir un correo semanal que muestre cuánto tiempo pasó su hijo en la plataforma y con qué personajes de IA interactuó más (aunque durante nuestras pruebas no llegó ninguno).
El contenido del chat sigue siendo completamente privado para el menor. Y, crucialmente, es el propio adolescente quien activa la función: introduciendo por sí mismo el correo electrónico de su padre o madre. De hecho, se necesitan aproximadamente treinta segundos para eludir por completo la configuración: cerrar sesión, crear una cuenta nueva y la función Información para padres deja de existir.
Meta tuvo la respuesta más dramática. Después de que una investigación de The Wall Street Journal a finales de 2025 revelara que los personajes de IA de Meta habían estado participando en conversaciones sexualmente explícitas con usuarios que se presentaban como menores —y que documentos internos de Meta habían permitido contenido “romántico o sensual” con niños—, la empresa suspendió por completo en enero de 2026 el acceso de adolescentes a los personajes de IA.
Meta está reconstruyendo la función con controles parentales reales: la capacidad de desactivar los personajes de IA, bloquear personajes específicos y recibir resúmenes de los temas discutidos. Hasta abril de 2026, esos controles todavía no se habían implementado por completo.
El patrón en las tres plataformas es el mismo: controles creados de forma reactiva, bajo presión legal y legislativa, que ofrecen datos de tiempo y categorías de información, pero no visibilidad de las conversaciones, y que dependen en gran medida de la propia cooperación del adolescente para funcionar.
Los investigadores de Penn State Wolbert, Rudy y Perkins, al escribir en marzo de 2026, lo dijeron sin rodeos: los padres quizá tengan que actuar como intermediarios cuando los niños interactúan con IA generativa, pero las investigaciones han documentado “conversaciones prolongadas y profundamente personales que ocurren sin conocimiento de los padres”, así como casos de “diálogo inapropiado, estímulo al secreto y apoyo limitado cuando los jóvenes expresaron angustia emocional”.
La carrera legislativa: cinco leyes en cinco semanas
Lo que ha ocurrido en Washington y en las legislaturas estatales durante el primer trimestre de 2026 no tiene verdadero precedente en la historia de la regulación tecnológica. La velocidad por sí sola merece mención.
- 5 de marzo. El Comité de Energía y Comercio de la Cámara aprueba la KIDS Act por 28 votos contra 24. El paquete incluye la SAFEBOTs Act, que obliga a los chatbots a decirles a los menores que están hablando con una IA, proporcionar líneas de ayuda en crisis cuando un niño menciona autolesiones y forzar una pausa después de tres horas, así como la AWARE Act, que ordena a la FTC crear recursos públicos de seguridad para padres e hijos. Ese mismo día, el Senado aprobó la COPPA 2.0 por consentimiento unánime, elevando la edad digital mínima de consentimiento de 13 a 16 años y prohibiendo la publicidad dirigida a menores.
- 18 de marzo. La senadora Blackburn presenta la TRUMP AMERICA AI Act: 291 páginas que prohibirían por completo los chatbots de compañía con IA para menores, impondrían sanciones penales por contenido sexualmente explícito de chatbots que involucre a niños y exigirían verificación de edad en todas las herramientas de IA.
- 25 de marzo. El senador Markey presenta la Youth AI Privacy Act. Donde Blackburn prohíbe, Markey restringe: nada de notificaciones push adictivas, nada de entrenar IA con datos de menores, nada de publicidad dentro de los chatbots y recordatorios obligatorios de que la IA no es una persona real.
En 27 estados hay actualmente 78 proyectos de ley activos sobre seguridad de chatbots.
A nivel estatal, el límite de una hora diaria de redes sociales para menores de 16 años en Virginia entró en vigor el 1 de enero y ya enfrenta una demanda basada en la Primera Enmienda por parte de Meta y del grupo de presión de Google. La SB 243 de California se convirtió en la primera ley de EE. UU. que regula específicamente los chatbots de compañía con IA. Nueva York exige que los compañeros de IA detecten ideación suicida.
El problema que no se resuelve con prohibiciones
Aquí está la complicación que debemos reconocer: no todos los involucrados en esta historia están equivocados.
La Information Technology and Innovation Foundation publicó en marzo de 2026 un análisis en el que argumenta que la prohibición general de Blackburn sobre los compañeros de IA para menores eliminaría beneficios reales sin abordar los riesgos verdaderos. Muchos jóvenes ya usan compañeros de IA con fines constructivos: ayuda con las tareas, práctica de habilidades sociales y apoyo emocional en entornos de baja presión.
Cortar el acceso no elimina la necesidad: solo elimina la versión regulada y deja a los adolescentes con cualquier alternativa no regulada que llene ese vacío.
También existe el problema de la aplicación, cuya existencia todo legislador en cada audiencia conoce en silencio. La verificación de edad en internet ha sido una ambición regulatoria durante treinta años y un logro práctico para casi nadie.
El joven de quince años que creó una nueva cuenta de Character.AI para eludir información para padres no necesitó sofisticación técnica. Necesitó una dirección de correo adicional y treinta segundos. Cualquier ley que dependa de una auto declaración exacta de la edad es una ley que depende de que los adolescentes sean honestos sobre su edad, y esa es una ley que no funciona.
La tensión real en toda esta legislación está entre tres teorías distintas del problema.
- La teoría de la prohibición —defendida por Blackburn y Australia, que exige a las plataformas de IA verificar que los usuarios tengan 18 años o más bajo amenaza de multas de hasta 35 millones de dólares— sostiene que el riesgo es categórico: ningún menor debería tener acceso a la IA de compañía, punto.
- La teoría del control —defendida por Markey y la COPPA 2.0— sostiene que los adolescentes usarán estas herramientas de cualquier manera, y que la tarea de la legislación es eliminar las funciones de diseño manipulador y las prácticas de datos que convierten una herramienta útil en una máquina de dependencia.
- La teoría de la educación —encarnada en la AWARE Act— sostiene que la intervención principal debería ser dar a padres e hijos el conocimiento necesario para navegar estas herramientas por sí mismos.
Lo que los padres y madres realmente pueden hacer ahora mismo
Mientras los legisladores redactan, vuelven a redactar y discuten sobre cláusulas de prelación, estándares de deber de cuidado y lo que exactamente significa “conocimiento efectivo” en una ley, esta noche los niños están teniendo conversaciones.
Lo más importante, según los datos de Pew, también es lo más simple: cuatro de cada diez padres nunca han hablado sobre chatbots de IA con su adolescente. Empieza por ahí. No con restricciones, sino con curiosidad. El pediatra Jason Nagata, citado por NPR, lo expresó con precisión:
Los padres no necesitan ser expertos en IA. Solo necesitan sentir curiosidad por la vida de sus hijos y preguntarles qué tipo de tecnología usan y por qué.
Conoce las plataformas. Investiga sus controles parentales, opciones de supervisión o, al menos, algunas configuraciones de privacidad disponibles.
Presta atención a los indicadores de comportamiento que los investigadores han identificado como señales de un uso problemático de compañeros de IA:
- secretismo sobre las interacciones con chatbots;
- angustia cuando se les retira el acceso;
- preferencia por las conversaciones con chatbots por encima de las conversaciones humanas;
- aislamiento de la familia y los amigos.
Estos son los patrones que aparecieron en los historiales de los casos de Sewell Setzer III, Adam Raine y Juliana Peralta antes de que cualquiera a su alrededor entendiera lo que estaba ocurriendo.
El panorama general
En mayo de 1994, un comité del Senado convocó a los directivos de las siete mayores tabacaleras y les preguntó, bajo juramento, si creían que la nicotina era adictiva. Los siete dijeron que no. Las audiencias se convirtieron en un momento definitorio en la historia de la rendición de cuentas corporativa, no porque los ejecutivos fueran procesados de inmediato, sino porque la brecha entre lo que las empresas sabían y lo que admitían públicamente se volvió imposible de ignorar.
El 25 de marzo de 2026, el senador Markey, recién salido de presentar la Youth AI Privacy Act, emitió una declaración después de que Meta y Google fueran halladas responsables en una demanda por adicción a las redes sociales. “Ha llegado el momento ‘Big Tobacco’ de las grandes tecnológicas”, dijo.
Es una comparación que ya se ha hecho antes, quizá demasiadas veces.
Pero la similitud estructural es real: una industria que construyó productos optimizados para generar engagement, que entendía los mecanismos psicológicos de la dependencia, que tenía acceso a investigación interna sobre los daños y que eligió durante años describir esos productos a los padres como herramientas neutrales, entretenimiento inofensivo, cosas que sus hijos ya hacían de todas formas.
La diferencia, esta vez, es que el daño es medible en tiempo real. El Global Risks Report 2026 clasificó los resultados adversos de la IA como el quinto riesgo global más grave a largo plazo, aumentando más rápido que cualquier otra categoría en la historia de la encuesta.
Los controles parentales que existían para la era de las redes sociales resultaron ser inadecuados. Los que se están construyendo para la era de la IA siguen siendo, hasta hoy, en gran medida teóricos, escritos en proyectos de ley que no han sido aprobados, desplegados en funciones que los adolescentes pueden eludir en treinta segundos y descritos en comunicados de prensa de empresas que, hasta hace muy poco, permitían que sus personajes de IA tuvieran conversaciones románticas con niños.
Tu hijo o hija usó esta app hoy. Probablemente no pudiste ver lo que dijo. Los legisladores están intentando cambiar eso. Todavía no hay respuesta a si lo lograrán antes de que el próximo adolescente sea víctima de la IA.
Fuentes
- Pew Research Center. Adolescentes, redes sociales y chatbots de IA 2025. 9 de diciembre de 2025.
- Pew Research Center. Cómo usan y ven la IA los adolescentes. 24 de febrero de 2026.
- Foro Económico Mundial. Informe de riesgos globales 2026, 21.ª edición. Enero de 2026.
- Senador de EE. UU. Edward J. Markey. Youth AI Privacy Act — comunicado de prensa. 25 de marzo de 2026.
- Senado de EE. UU. Ley de protección de la privacidad en línea de niños y adolescentes (COPPA 2.0), S. 836. Aprobada el 5 de marzo de 2026.
- Comité de Energía y Comercio de la Cámara de EE. UU. KIDS Act (H.R. 7757), resumen de la sesión de revisión. 5–6 de marzo de 2026.
- Congresista Erin Houchin. Comunicado de prensa sobre la SAFEBOTs Act y la AWARE Act. 6 de marzo de 2026.
- Senadora de EE. UU. Marsha Blackburn. Borrador de discusión de la TRUMP AMERICA AI Act. 18 de marzo de 2026.
- Wolbert, E.D., Rudy, T.L., & Perkins, D.F. Lo que no sabes puede hacerte daño: los chatbots de IA y la seguridad digital de los niños. 10 de marzo de 2026. Penn State Extension.
Dejar un comentario