Crise du spam dans les DM Instagram : l'entreprise a été avertie en 2018

Dans le cas des effets des plateformes de médias sociaux sur les jeunes aux États-Unis, la question de savoir pourquoi Instagram a lancé avec retard ses outils de sécurité de base a été mise à l'ordre du jour. Dans l'affaire entendue devant un tribunal fédéral, les procureurs ont examiné l'incapacité de Meta à mettre en œuvre certaines mesures pour protéger les jeunes utilisateurs pendant de nombreuses années. Il convient de noter que la fonction de flou automatique, développée spécialement contre les contenus obscènes envoyés vers la section DM d'Instagram, n'a été mise en œuvre qu'en 2024. Cependant, on prétend que l'entreprise savait il y a environ six ans que de tels contenus présentaient un risque pour les jeunes.

La fonctionnalité, introduite en avril 2024, brouille automatiquement les images explicites envoyées dans les DM Instagram et donne à l'utilisateur la possibilité de visualiser ou non le contenu. Cependant, une nouvelle déclaration dans le dossier judiciaire indique que les dirigeants de Meta étaient conscients de ces risques plus tôt. Dans une déposition rendue publique dans le cadre du procès fédéral, le président d'Instagram, Adam Mosseri, a été interrogé sur une chaîne de courrier électronique datant de 2018. Dans la correspondance en question, Mosseri mentionne que des événements « horribles » peuvent se produire via les messages Instagram. Il est indiqué que Mosseri a accepté cette possibilité lorsque l'avocat du plaignant a cité comme exemple des photographies sexuelles non désirées.

Cependant, Mosseri a contré les critiques selon lesquelles le système de messagerie de l'entreprise n'était pas activement surveillé autre que la suppression du matériel pédopornographique (CSAM). Déclarant que les applications de messagerie comportent intrinsèquement des risques, Mosseri a déclaré qu'elles essayaient de trouver un équilibre entre confidentialité et sécurité. Pourtant, les procureurs soutiennent que Meta aurait dû informer plus clairement les parents des risques potentiels.

Le taux de contenus indésirables parmi les jeunes utilisateurs d’Instagram attire l’attention

Les données d’enquête partagées dans les documents judiciaires fournissent de nouvelles informations sur l’étendue des contenus préjudiciables sur la plateforme. Ainsi, 19,2 % des utilisateurs âgés de 13 à 15 ans déclarent rencontrer des images de nudité ou à caractère sexuel sur Instagram, même s'ils ne souhaitent pas les voir. En outre, 8,4 pour cent du même groupe d'âge ont déclaré avoir vu quelqu'un se faire du mal ou menacer de se faire du mal au cours des sept derniers jours où ils ont utilisé l'application. Ces taux révèlent que les risques auxquels les jeunes sont confrontés dans l’environnement numérique ne sont pas que théoriques.

Au cours du procès, non seulement le retard dans le filtre de nudité, mais aussi la correspondance interne à l'entreprise ont été mis en avant. Par exemple, dans un e-mail de stagiaire daté de 2017, il est indiqué qu'ils voulaient identifier les utilisateurs « dépendants » de Facebook et étudier comment les aider. De tels documents montrent que la sensibilisation des entreprises de médias sociaux au comportement des utilisateurs remonte au passé. Cependant, le plaignant affirme qu'il n'y avait pas suffisamment de priorité entre l'objectif des entreprises d'accroître l'interaction des utilisateurs et la sécurité des jeunes.

La porte-parole de Meta, Liza Crenshaw, souligne que l'entreprise travaille depuis des années avec des parents, des experts et des forces de l'ordre, ajoutant des protections intégrées aux comptes des jeunes et améliorant les outils de contrôle parental. En outre, la société a introduit des types de comptes avec des paramètres de confidentialité plus stricts pour les jeunes, tels que les « comptes adolescents ». Pourtant, les poursuites continuent de remettre en question le timing et l’adéquation des mesures prises.

L'affaire en question est entendue par le tribunal de district américain du district nord de Californie et est parallèle à des procédures judiciaires similaires impliquant des plateformes telles que Snap, TikTok et YouTube, ainsi que Meta. Les plaignants affirment que les applications de médias sociaux sont conçues pour maximiser le temps passé devant un écran, ce qui encourage les comportements de type dépendance chez les adolescents. D'autre part, de nouvelles réglementations restreignant l'utilisation des médias sociaux par les jeunes entrent en vigueur dans différents États des États-Unis et dans certains pays.