Google a annoncé une nouvelle fonctionnalité qui facilitera la détection du contenu basé sur l'intelligence artificielle pour les utilisateurs de l'application Gemini. Désormais, les utilisateurs peuvent indiquer à Gemini si une image a été créée ou modifiée par les outils d'IA de Google en demandant « Cette image a-t-elle été générée par l'IA ? Vous pouvez le savoir en demandant : Cette vérification est basée sur SynthID, une technologie de filigrane invisible développée par Google.
Même si cette nouvelle fonctionnalité se limite pour l'instant aux images uniquement, Google précise que les contenus audio et vidéo seront bientôt vérifiés avec ce système. Il est également indiqué que les capacités de vérification ne se limiteront pas uniquement à l'application Gemini, mais seront également intégrées à l'avenir à d'autres plates-formes telles que la recherche Google. De cette manière, les utilisateurs pourront évaluer l’authenticité du contenu provenant de différentes sources dans un contexte plus large.
Google Gemini entame un processus de vérification complet avec le support C2PA
Alors que le processus actuel de vérification des images repose uniquement sur la technologie SynthID, Google prévoit d'étendre ces capacités avec les informations d'identification de contenu C2PA (Coalition for Content Provenance and Authenticity) à l'échelle du secteur. C2PA propose un système permettant d'identifier facilement la source des contenus créés par différents fabricants et outils logiciels. Cette étape permettra une identification plus transparente du contenu créé non seulement par les propres systèmes de Google, mais également par différents outils d'intelligence artificielle tels que Sora d'OpenAI.
Un autre développement annoncé aujourd'hui est que toutes les images créées par le nouveau modèle Nano Banana Pro de Google seront présentées avec des métadonnées C2PA. Ceci est considéré comme une évolution importante en termes de transparence dans le processus de production du contenu. La même semaine, l'annonce par TikTok d'intégrer le support C2PA dans son système de filigrane invisible semble avoir accéléré la diffusion de cette norme.
Bien que toutes ces étapes accélèrent le développement des technologies de vérification de contenu, selon les experts, les plateformes de médias sociaux doivent jouer un rôle plus actif pour mettre en place un système de vérification véritablement efficace. Alors que les utilisateurs doivent actuellement vérifier manuellement le contenu, l’automatisation de ce processus à l’avenir pourrait réduire considérablement la propagation de contenus trompeurs.
Il existe une tendance notable parmi les entreprises technologiques à s’orienter vers des normes communes telles que C2PA. Le consortium C2PA, qui comprend des sociétés telles qu'Adobe, Microsoft, Intel et Truepic, vise à créer des identités numériques fiables concernant la source du contenu. Si ce système est adopté à l’échelle mondiale, il deviendra plus possible d’utiliser des contenus basés sur l’intelligence artificielle dans le cadre de limites éthiques. Les contributions de Google dans ce domaine offrent des progrès concrets pour répondre aux attentes en matière de transparence dans la production de contenu.