L'outil de production vidéo de l'intelligence artificielle de Google annoncé en mai, qui serait produit avec 3 vidéos, a atteint des millions de surveillance sur Tiktok. Préparé par Media Matters, une organisation d'observation des médias, le rapport a révélé que la plupart de ces contenus sont pleins de stéréotypes racistes. En particulier, certaines de ces vidéos, qui ciblent les noirs, ont été identifiées comme dépassant 14 millions de vues. Le point commun de tous ces contenus était que l'éléphant «VEO» dans les vidéos et les étiquettes utilisés pour pointer l'outil de Google.
Google a déclaré qu'il avait des systèmes de filtrage qui empêchent le contenu nocif tout en introduisant VEO 3. Cependant, ces vidéos ont révélé que le système peut avoir des problèmes de contrôle du contenu. Tiktok dit qu'il n'y a certainement pas de place pour les discours de haine et la discrimination dans les règles de la communauté. Néanmoins, la capacité d'un tel contenu à atteindre des millions a provoqué de nouvelles questions sur l'efficacité des mécanismes de modération de la plate-forme.
Tiktok het Speaks reconnaît la suppression du contenu
Le temps des vidéos détectés par Media Matters était généralement limité à huit secondes. Cela coïncide avec les limites techniques de VEO 3, car l'outil de Google n'autorise que la production vidéo de huit secondes pour le moment. Un contenu est créé en ajoutant plusieurs huit secondes de clip à une ligne. Ces détails techniques suggèrent qu'il n'y a pas d'intervention éditoriale manuelle dans le processus de construction et que la production est réalisée directement via l'IA.
Les responsables de Tiktok ont déclaré que le contenu contenant des discours de haine avait été rapidement supprimé et que de nombreux comptes avec ces contenus avaient été supprimés de la plate-forme avant la publication du rapport. Ariane de Selliers, qui a fait une déclaration au nom de Tiktok, a déclaré que les règles avaient été appliquées strictement. Cette explication, cependant, n'élimine pas la question de savoir si les algorithmes peuvent détecter rapidement un contenu nocif. Parce que le fait que les vidéos atteignent une si grande vue révèle que le contenu est négligé.
Le contenu de Media Matters ne se limite pas à Tiktok, mais d'autres plateformes de médias sociaux telles que YouTube et Instagram similaires ont été signalées. Dans un examen séparé par Wired, un contenu raciste similaire s'est avéré courant dans Instagram. De plus, non seulement les individus noirs, mais aussi le contenu anti-juif et les vidéos ciblant les immigrants et les individus asiatiques sont parmi les exemples. Cela montre que le domaine du contenu produit avec l'intelligence artificielle est beaucoup plus large.
Des vidéos similaires publiées sur YouTube ont moins de visualisation que Tiktok. Néanmoins, le fait que le contenu se trouve sur plusieurs plateformes nécessite une évaluation holistique des processus d'audit. Bien que les plates-formes déclarent qu'ils se soutiennent contre le discours de haine, le taux de propagation d'un tel contenu révèle la faiblesse des mécanismes de filtre existants. Dans ce contexte, l'inspection des outils d'intelligence artificielle a de nouveau été ouverte à la discussion.
VEO 3 permet aux utilisateurs de produire des vidéos et du son uniquement avec des commandes écrites. Bien que ce type de production offre une commodité, il peut ouvrir la voie à des utilisations malveillantes. De plus, l'absence de filtrage visuel ou éthique dans le processus de production de contenu peut préparer le terrain aux vidéos de réception pour transporter du contenu nocif. Les plateformes doivent intervenir en réalisant ce contenu plus tard.
Tous ces développements conduisent à la nécessité de remettre en question non seulement la responsabilité des entreprises technologiques, mais aussi le niveau de conscience sociale. Parce que le contenu produit avec l'intelligence artificielle a le pouvoir de façonner la perception sociale. En particulier sur des plateformes telles que Tiktok, qui a un jeune public d'utilisateurs, la propagation d'un tel contenu peut avoir de graves conséquences. Par conséquent, il est clair que les processus de production et de diffusion devraient être révisés.
Bien que Google déclare qu'il faut des mesures pour éviter les demandes de contenu nocives, l'infiltration de ces contenus sur les plates-formes montre que le système n'est pas assez fort. De même, Tiktok est en retard pour mettre en œuvre des règles communautaires. La capacité du contenu à recevoir un accès aussi élevé montre clairement comment le risque de production soutenue de l'intelligence artificielle est laissé sans contrôle. Pour cette raison, il est évident que la coopération entre les sociétés de médias sociaux et les fabricants de technologies devrait être réalisée de plus près.