Déclaration remarquable sur l'intelligence artificielle du haut responsable d'Instagram

Le président d'Instagram, Adam Mosseri, a déclaré que le contenu produit par l'intelligence artificielle (IA) ressemble de plus en plus à la réalité et a souligné que les utilisateurs ne devraient pas immédiatement croire les images qu'ils voient en ligne. Mosseri a déclaré que les plateformes de médias sociaux devraient assumer davantage de responsabilités à cet égard.

Mosseri a déclaré que les plateformes Internet devraient étiqueter le plus précisément possible le contenu produit par l'intelligence artificielle. Il a toutefois reconnu que certains ingrédients pourraient être négligés lors de ce processus d'étiquetage. Par conséquent, il a déclaré que les plateformes devraient non seulement baliser le contenu, mais également fournir des informations contextuelles sur les personnes qui partagent ces contenus. De cette façon, les utilisateurs peuvent mieux évaluer la fiabilité du contenu qu’ils voient.

À mesure que les outils basés sur l’intelligence artificielle se généralisent, notamment dans la production de contenus visuels et écrits, il devient important pour les utilisateurs de s’interroger sur la fiabilité du contenu qu’ils voient sur Internet. En particulier, vérifier si les allégations ou les images proviennent d’une source fiable peut renforcer le processus d’évaluation de l’exactitude du contenu.

Instagram et les autres plateformes Meta n'offrent pas non plus de contexte

Pour l’instant, les plateformes Meta n’ont pas la capacité de fournir un contexte complet, comme le souligne Mosseri. Cependant, certains signes indiquent que l’entreprise envisage d’apporter des changements majeurs à ses règles en matière de contenu. D’un autre côté, l’approche décrite par Mosseri n’est pas sans rappeler les « Community Notes » sur X (anciennement Twitter) ou les filtres de modération personnalisés sur YouTube et Bluesky. Il n'est pas encore clair si Meta envisage de développer ce type de système de modération axé sur l'utilisateur. Cependant, étant donné qu'il y a eu des exemples dans le passé montrant qu'elle s'est inspirée de plateformes telles que Bluesky, il semble probable que l'entreprise prenne une mesure similaire.

Les déclarations de Mosseri constituent un avertissement important sur la manière dont le contenu dérivé de l'intelligence artificielle affecte l'écosystème Internet. Les plateformes de médias sociaux devraient évoluer vers l’adoption de solutions basées sur le contexte pour minimiser l’impact de ces contenus et sensibiliser les utilisateurs. Dans ce processus, la coopération entre les plateformes et les utilisateurs peut jouer un rôle essentiel dans la prévention de la pollution de l’information en ligne.

L’augmentation du contenu basé sur l’intelligence artificielle oblige les utilisateurs des médias sociaux à remettre en question l’exactitude des informations qu’ils voient. Il est important que les plateformes empêchent la diffusion de contenus trompeurs en fournissant davantage d’informations contextuelles et sources à leurs utilisateurs. Dans ce contexte, l'amélioration des processus de modération du contenu et d'étiquetage des plateformes de médias sociaux augmentera la confiance des utilisateurs dans ces plateformes.

Le développement et la diffusion rapides des technologies d’intelligence artificielle nécessitent que les plateformes de médias sociaux développent de nouvelles stratégies en matière de gestion de contenu et de sécurité des utilisateurs. Les utilisateurs remettant en question la source et l’exactitude du contenu qu’ils voient augmenteront la fiabilité de leurs expériences en ligne.