Instagram está implementando una nueva función de seguridad: los padres inscritos en las herramientas de supervisión de IG recibirán una alerta si su adolescente busca repetidamente, en poco tiempo, términos relacionados con el suicidio o las autolesiones. La notificación llega por correo electrónico, mensaje de texto, WhatsApp o mensaje dentro de la app, ofreciendo a los padres una señal directa y oportuna de que su hijo podría necesitar apoyo.
Cuando un adolescente busca este tipo de contenido, Instagram ya bloquea los resultados y redirige al usuario a líneas de ayuda y recursos locales de salud mental. Lo que cambia ahora es que los padres también serán informados y recibirán acceso a orientación experta sobre cómo abordar una conversación que puede ser difícil, pero crucial.

Las alertas se lanzarán primero en Estados Unidos, Reino Unido, Australia y Canadá en las próximas semanas, y otras regiones se sumarán más adelante este año. Meta afirma que consultó a su Suicide and Self-Harm Advisory Group para establecer el umbral de las alertas, inclinándose deliberadamente hacia enviar más notificaciones en lugar de menos.
Contexto: El anuncio se produce mientras Meta se defiende en un juicio por acusaciones de que sus plataformas fueron diseñadas de manera perjudicial para los menores.

Por qué esto importa: Las cifras detrás de la función
La urgencia que impulsa funciones como esta va más allá del juicio mencionado contra Meta. Existe un amplio cuerpo de investigación.
Un estudio de 2025 publicado en JAMA por investigadores de Weill Cornell Medicine, Columbia University y UC Berkeley siguió a casi 4,300 jóvenes durante cuatro años. Encontró que los adolescentes que mostraban patrones compulsivos y adictivos de uso de redes sociales enfrentaban aproximadamente el doble de riesgo de conductas suicidas en comparación con sus pares de bajo uso. Alrededor del 40 % de los menores desarrollaron patrones de uso altos o cada vez más adictivos antes de los 14 años.
Un reporte del CDC de 2024, basado en la primera encuesta nacional Youth Risk Behavior Survey que incluyó preguntas sobre redes sociales, reveló que aproximadamente tres de cada cuatro estudiantes de preparatoria en Estados Unidos usan redes sociales varias veces al día. Entre los usuarios frecuentes, las tasas de tristeza persistente, acoso escolar y pensamientos suicidas fueron significativamente más altas. En total, el 20.4 % de los estudiantes reportó haber tenido pensamientos suicidas y el 9.5 % dijo haber intentado suicidarse.
En este contexto, un sistema de alerta temprana que promueva una conversación entre padres e hijos antes de que el adolescente encuentre la forma de acceder a contenido dañino en otro lugar podría representar un punto de intervención significativo.

Sin duda, el alcance de la nueva función de IG depende de cuántas familias estén inscritas en el programa de supervisión parental de Instagram. La herramienta requiere la participación tanto del padre o madre como del adolescente para configurarse. ¿Aún no la usa? Aquí está nuestra guía de HeyLocate para activar la supervisión de control parental en Instagram.
Meta no ha revelado cifras actuales de inscripción, pero afirma que notificará a todas las familias registradas antes de que las alertas entren en funcionamiento. Una adopción más amplia de la supervisión determinará en última instancia a cuántos adolescentes podrán llegar realmente las nuevas alertas.
Lo que sigue: Alertas para conversaciones con IA
Meta también confirmó que está desarrollando alertas parentales similares para las conversaciones de adolescentes con su asistente de IA, con más detalles previstos para finales de 2026. Esto es relevante porque las herramientas de chat con IA se han convertido en una parte creciente de la vida digital de los adolescentes y en una fuente de seria preocupación: por ejemplo, Character.AI resolvió múltiples demandas que alegaban que contribuyó a crisis de salud mental y suicidios entre usuarios jóvenes.
Mientras tanto, OpenAI informó el año pasado que GPT-5 ahora puede identificar señales de depresión, psicosis y manía; calmar a los usuarios y dirigirlos a ayuda real, reduciendo respuestas riesgosas entre un 65 % y un 80 %. Los controles parentales de ChatGPT también alertan a los padres cuando sus hijos buscan contenido perturbador.
Todas estas medidas son buenas y necesarias; sin embargo, nunca se sabe qué herramienta está utilizando su hijo para explorar distintos temas preocupantes. Asegúrese de mantenerse informado sobre la vida de su hijo (incluida la digital) y de que se sienta con la confianza de hablar con usted sobre cualquier tema. Si aún está preocupado, considere usar aplicaciones profesionales de rastreo familiar para celulares para supervisar lo que su hijo hace en su teléfono.
Si usted o alguien que conoce está pasando por una situación difícil, en Estados Unidos puede llamar o enviar un mensaje de texto al 988 para comunicarse con la Suicide & Crisis Lifeline. Fuera de Estados Unidos: https://www.iasp.info/contact/
Dejar un comentario