Instagram s'apprête à lancer une nouvelle fonctionnalité de sécurité qui renforce le contrôle parental sur le comportement de recherche des jeunes utilisateurs sur la plateforme. Selon l'annonce de l'entreprise, les parents recevront une notification automatique lorsqu'un adolescent recherchera à plusieurs reprises des expressions liées au suicide ou à l'automutilation sur une courte période de temps. La notification couvrira les familles qui utilisent activement les outils de contrôle parental de Meta. L'application, qui sera initialement mise en œuvre aux États-Unis, au Royaume-Uni, en Australie et au Canada, devrait être étendue à d'autres pays à l'avenir. Cette évolution intervient à un moment où les discussions mondiales sur les effets des plateformes de médias sociaux sur la santé mentale des jeunes s'intensifient.
Dans la déclaration de Meta, il a été indiqué que le système de notification fonctionnerait selon une certaine valeur seuil. Ainsi, les parents seront avertis si plusieurs recherches à risque sont effectuées en peu de temps. L'entreprise reconnaît qu'une approche prudente est adoptée et que dans certains cas, une notification peut être envoyée même s'il n'y a pas de risque réel. Malgré cela, il est indiqué que cette méthode est privilégiée pour un début, conformément aux avis des experts. En revanche, il est rapporté que le système sera amélioré en fonction des retours d'expérience et que les valeurs seuils pourront être réévaluées au fil du temps.
Instagram vise à améliorer la sécurité des jeunes utilisateurs
Dans le cadre de ses politiques actuelles, la plateforme interdit déjà aux jeunes utilisateurs de moins de 18 ans d'accéder aux résultats de recherche liés au suicide et à l'automutilation. Ce type de contenu n'apparaît pas dans les résultats de recherche et n'est pas recommandé dans la zone d'exploration. En outre, des filtres de contenu sensible et des restrictions de contenu liées à l'âge sont également activement appliqués. Malgré cela, on sait que les jeunes peuvent essayer d’aborder des sujets similaires par le biais d’expressions indirectes ou de mots-clés différents. Le nouveau système de notification se concentre sur la détection de tels comportements de recherche répétitifs.
Les notifications à envoyer ne seront pas seulement des avertissements. Les parents pourront également accéder au contenu du guide sur la façon de communiquer sainement avec leurs enfants sur ces questions sur le même écran. La fourniture de ressources d'information préparées par des experts en santé mentale se démarque comme l'un des aspects notables de la fonctionnalité. De plus, la nécessité d’activer les outils de contrôle parental fait que le système ne fonctionnera pas par défaut pour tous les utilisateurs. Bien que cela offre un équilibre important en termes de confidentialité, les familles qui n'utilisent pas le contrôle parental seront exclues.
En outre, Instagram a annoncé qu'un mécanisme d'avertissement similaire était en cours de développement pour les outils basés sur l'intelligence artificielle. On sait que la société a récemment intégré des fonctionnalités d’intelligence artificielle basées sur le chat dans la plate-forme. Cependant, les notifications parentales pour ces systèmes devraient apparaître plus tard dans l'année. Parallèlement, Meta est également confrontée à des pressions réglementaires concernant la sécurité en ligne des jeunes utilisateurs. La loi sur les services numériques de l'Union européenne et diverses réglementations des États américains rendent plus visible la responsabilité des plateformes en matière de protection des jeunes.