La classification de la société d'intelligence artificielle Anthropic par le ministère américain de la Défense (DOD) comme « risque pour la chaîne d'approvisionnement » a eu de vastes répercussions dans le secteur technologique. Suite à cette décision, plus de 30 chercheurs et ingénieurs travaillant au sein d'OpenAI et de Google DeepMind ont signé une déclaration judiciaire soutenant le procès intenté par Anthropic. Selon le document déposé devant le tribunal fédéral, Jeff Dean, scientifique en chef de Google DeepMind, fait partie des signataires. Le communiqué souligne que la décision prise par le Pentagone pourrait avoir de graves conséquences tant sur le secteur que sur l'environnement de la recherche scientifique.
Le gouvernement américain utilise généralement l’étiquette de « risque lié à la chaîne d’approvisionnement » pour désigner les entités étrangères susceptibles de constituer une menace pour la sécurité nationale. Malgré cela, il convient de noter que le ministère de la Défense a utilisé la même définition pour une société d’intelligence artificielle basée aux États-Unis. Au centre du débat se trouvent certaines limites fixées par Anthropic concernant l'utilisation de sa propre technologie d'intelligence artificielle. La société a déclaré qu’elle n’autorisait pas que sa technologie soit utilisée pour la surveillance de masse des Américains ou qu’elle soit impliquée dans des systèmes déclenchant de manière autonome des armes mortelles.
Les limites de l’utilisation de l’intelligence artificielle ont suscité la controverse
Les responsables du Pentagone, quant à eux, soutiennent que les outils d’intelligence artificielle devraient être utilisés à des fins différentes tant qu’ils sont « légaux ». Malgré cela, Anthropic maintient que ces utilisations présentent de sérieux risques éthiques et de sécurité. Ce différend s'est transformé en une crise qui a directement affecté la relation contractuelle entre l'entreprise et le ministère américain de la Défense. En plus de tout cela, Anthropic a déposé la semaine dernière deux poursuites distinctes contre le ministère de la Défense et certaines agences fédérales.
Dans la requête de soutien soumise au tribunal, les travailleurs de la technologie attirent l'attention sur un autre point. Selon l'évaluation des signataires, si le Pentagone n'était pas satisfait des termes du contrat actuel, il pourrait l'annuler et choisir de travailler avec un autre fournisseur d'intelligence artificielle. Malgré cela, qualifier l’entreprise de « risque lié à la chaîne d’approvisionnement » est considérée comme une méthode inhabituelle et controversée dans le secteur. En outre, il est indiqué qu'une telle mesure pourrait avoir un effet négatif sur la coopération entre le secteur privé et les institutions publiques.
D'autre part, il a été révélé que le ministère de la Défense a rapidement signé un nouvel accord avec OpenAI après avoir ainsi classé Anthropic. Cette évolution a provoqué une réaction de la part de certains salariés au sein d’OpenAI. Certains employés ont appelé la direction de l'entreprise à soutenir Anthropic et à adopter une position plus claire contre l'utilisation militaire unilatérale des systèmes d'intelligence artificielle.
Dans le document versé au dossier du tribunal, il est indiqué que les limitations techniques et contractuelles imposées par les développeurs à l'utilisation des systèmes d'intelligence artificielle constituent un mécanisme de sécurité important. Le fait que des réglementations juridiques complètes n’aient pas encore été clarifiées, en particulier à une époque où les technologies de l’intelligence artificielle se développent rapidement, accroît l’importance de ces limitations. Pourtant, les agences fédérales ignorant ces limites pourraient déclencher un débat plus large au sein de l’industrie.
Pour ne pas rater l'agenda technologique, 📰 ajoutez-le à Google News, 💬 rejoignez notre chaîne WhatsApp, ▶ abonnez-vous à YouTube, 📷 suivez-nous sur Instagram et 𝕏 X.
Suivez l'agenda du monde technologique avec les newsletters de Teknoblog.