Google va commencer à marquer les images créées avec l'intelligence artificielle

Ces derniers mois, le nombre d’images créées avec l’intelligence artificielle dans les recherches Google a augmenté rapidement. Il est donc difficile pour les utilisateurs de trouver les résultats réels qu’ils recherchent. En réponse à ce problème, Google a annoncé qu'il commencerait à marquer les résultats de recherche d'images générés et édités par l'intelligence artificielle. La nouvelle fonctionnalité sera disponible dans les mois à venir.

Google signalera ce contenu via la fenêtre « À propos de cette image », et cette fonctionnalité sera également incluse dans des fonctionnalités telles que la recherche Google, Google Lens et Circle to Search d'Android.

De plus, cette technologie sera intégrée aux services publicitaires. La société envisage également d'ajouter un système de balisage similaire aux vidéos YouTube, mais d'autres mises à jour à ce sujet sont attendues vers la fin de l'année.

Google reconnaîtra les images d'intelligence artificielle avec le système C2PA

Google s'appuiera sur le système de métadonnées de la Coalition for Content Provenance and Integrity (C2PA) pour détecter les images créées avec l'intelligence artificielle. Google a rejoint ce groupe industriel en tant que membre du comité directeur plus tôt cette année. Les métadonnées C2PA identifieront la source d'une image en suivant où et quand elle a été créée ainsi que l'équipement et les logiciels utilisés.

De nombreux grands noms ont déjà rejoint le C2PA, comme Amazon, Microsoft, OpenAI et Adobe. Cependant, cette norme n'est pas encore répandue parmi les fabricants de matériel et n'est actuellement disponible que sur quelques modèles d'appareils photo Sony et Leica. Cependant, les développeurs de certains outils de rendu d’IA n’ont pas adopté cette norme. Par exemple, Black Forrest Labs, qui produit le modèle de rendu Flux de Grok, fait partie des entreprises qui n'ont pas adopté cette norme.

Au cours des deux dernières années, les cas de fraude utilisant de fausses images créées grâce à l’intelligence artificielle ont considérablement augmenté. Par exemple, en février, un financier basé à Hong Kong a transféré 25 millions de dollars lors d'une vidéoconférence à des fraudeurs se faisant passer pour le directeur financier de l'entreprise. Dans une étude menée en mai, le fournisseur de vérification Sumsub a constaté que les fraudes utilisant de fausses images générées par l'intelligence artificielle ont augmenté de 245 % à l'échelle mondiale entre 2023 et 2024. Aux États-Unis, ce taux est passé à 303 %.

David Fairman, responsable de l'information et de la sécurité de Netskope pour la région Asie-Pacifique, a déclaré que cette situation s'est généralisée à mesure que les services d'intelligence artificielle sont devenus accessibles au public. « Rendre ces services accessibles au public a réduit les barrières à l'entrée pour les cybercriminels », a déclaré Fairman à CNBC. « Ils n'ont plus besoin de compétences techniques particulières », a-t-il déclaré.