Instagram déploie une nouvelle fonctionnalité de sécurité : les parents inscrits aux outils de supervision IG recevront une alerte si leur adolescent recherche à plusieurs reprises et en peu de temps des termes liés au suicide ou à l’automutilation. La notification est envoyée par e-mail, SMS, WhatsApp ou message dans l’application, offrant aux parents un signal direct et rapide indiquant que leur enfant pourrait avoir besoin de soutien.
Lorsqu’un adolescent recherche ce type de contenu, Instagram bloque déjà les résultats et redirige l’utilisateur vers des lignes d’assistance et des ressources locales en santé mentale. La nouveauté est que les parents sont désormais également informés et reçoivent des conseils d’experts sur la manière d’aborder une conversation potentiellement difficile mais essentielle.

Les alertes seront d’abord déployées aux États-Unis, au Royaume-Uni, en Australie et au Canada dans les prochaines semaines, avant d’être étendues à d’autres régions plus tard cette année. Meta indique avoir consulté son Suicide and Self-Harm Advisory Group afin de définir le seuil de déclenchement des alertes, en choisissant délibérément de privilégier davantage de notifications plutôt que moins.
Contexte : cette annonce intervient alors que Meta se défend dans un procès l’accusant d’avoir conçu ses plateformes d’une manière nuisible aux enfants.

Pourquoi cela compte : les chiffres derrière la fonctionnalité
L’urgence qui motive des fonctionnalités comme celle-ci dépasse le cadre du procès mentionné contre Meta. Il existe un corpus de recherches conséquent.
Une étude de 2025 publiée dans le JAMA, menée par des chercheurs de Weill Cornell Medicine, de Columbia University et de UC Berkeley, a suivi près de 4 300 jeunes pendant quatre ans. Elle a révélé que les adolescents présentant des comportements compulsifs et addictifs liés à l’usage des réseaux sociaux faisaient face à un risque de comportements suicidaires environ deux fois plus élevé que leurs pairs ayant une faible utilisation. Environ 40 % des enfants développaient des schémas d’usage élevés ou de plus en plus addictifs avant l’âge de 14 ans.
Un rapport du CDC publié en 2024, fondé sur la première enquête nationale Youth Risk Behavior Survey incluant des questions sur les réseaux sociaux, a montré qu’environ trois lycéens américains sur quatre utilisent les réseaux sociaux plusieurs fois par jour. Parmi les utilisateurs fréquents, les taux de tristesse persistante, de harcèlement et d’idées suicidaires étaient nettement plus élevés. Globalement, 20,4 % des élèves ont déclaré avoir déjà eu des pensées suicidaires et 9,5 % ont indiqué avoir tenté de se suicider.
Dans ce contexte, un système d’alerte précoce incitant à une discussion parentale avant qu’un adolescent ne trouve un moyen d’accéder à du contenu dangereux ailleurs pourrait constituer un point d’intervention significatif.

Bien entendu, la portée de cette nouvelle fonctionnalité IG dépend du nombre de familles inscrites au programme de supervision parentale d’Instagram. L’outil nécessite la participation conjointe du parent et de l’adolescent pour être configuré. Vous ne l’utilisez pas encore ? Voici notre guide HeyLocate pour activer la supervision du contrôle parental sur Instagram.
Meta n’a pas communiqué les chiffres actuels d’inscription, mais indique qu’elle informera toutes les familles inscrites avant l’activation des alertes. Une adoption plus large de la supervision déterminera en fin de compte combien d’adolescents pourront réellement être concernés par ces nouvelles alertes.
Prochaine étape : des alertes pour les conversations avec l’IA
Meta a également confirmé qu’elle développe des alertes parentales similaires pour les conversations des adolescents avec son assistant IA, avec davantage de détails attendus plus tard en 2026. Cela est important, car les outils de discussion basés sur l’IA occupent une place croissante dans la vie numérique des adolescents et suscitent de vives inquiétudes : par exemple, Character.AI a conclu un accord dans plusieurs poursuites l’accusant d’avoir contribué à des crises de santé mentale et à des suicides chez de jeunes utilisateurs.
De son côté, OpenAI a indiqué l’an dernier que GPT-5 peut désormais identifier les signes de dépression, de psychose et de manie ; apaiser les utilisateurs et les orienter vers une aide réelle, réduisant les réponses à risque de 65 à 80 %. Les contrôles parentaux de ChatGPT alertent également les parents lorsque leurs enfants recherchent du contenu perturbant.
Toutes ces initiatives sont bonnes et nécessaires ; cependant, vous ne savez jamais quel outil votre enfant utilise pour explorer différents sujets préoccupants. Veillez à rester informé de la vie de votre enfant (y compris numérique) et à lui permettre de se sentir à l’aise pour parler de tout avec vous. Si vous êtes toujours inquiet, envisagez d’utiliser des applications professionnelles de suivi familial afin de surveiller ce que votre enfant fait sur son téléphone.
Si vous ou une personne de votre entourage êtes en difficulté, appelez le 3114 (ligne nationale française de prévention du suicide) ou contactez une ligne d’écoute comme Suicide Écoute au 01 45 39 40 00, SOS Amitié au 09 72 39 40 50 ou, si vous êtes dans un autre pays européen, consultez la liste des services locaux sur https://www.iasp.info/contact/.
Laisser un commentaire