La société américaine d'intelligence artificielle Anthropic a annoncé qu'elle lancerait une bataille juridique contre la classification de l'entreprise par le ministère américain de la Défense comme « risque pour la chaîne d'approvisionnement ». Dans le billet de blog rédigé par le PDG de l'entreprise, Dario Amodei, il est indiqué que même si la notification officielle du Pentagone a été confirmée, il existe de sérieux doutes quant à la base juridique de cette décision. Amodei a déclaré que la décision en question « était considérée comme n'étant pas juridiquement fondée » et que la société n'avait pas d'autre choix et que l'affaire serait donc portée devant les tribunaux. Dans l'annonce faite quelques heures avant celle d'Amodei, le Pentagone a annoncé que les produits Anthropic étaient « évalués comme un risque pour la chaîne d'approvisionnement avec effet immédiat ». Cette évolution a lancé un nouveau débat aux États-Unis sur la relation des institutions publiques avec les technologies d’intelligence artificielle.
Le contexte de la décision prise par le ministère de la Défense réside dans les désaccords politiques entre Anthropic et le gouvernement. Le ministère, appelé « Département de la Guerre » sous l'administration actuelle, avait précédemment demandé à l'entreprise de supprimer certaines restrictions de sécurité dans les systèmes d'intelligence artificielle. Ces restrictions incluent spécifiquement des limitations au développement de technologies de surveillance de masse et de systèmes d’armes entièrement autonomes. Malgré cela, Anthropic a insisté pour maintenir ces politiques de sécurité. Le président américain Donald Trump aurait alors ordonné aux institutions fédérales de cesser d’utiliser les technologies anthropiques.
Anthropic poursuit d'autres collaborations
Selon la déclaration d'Amodei, la portée de la décision prise par le ministère de la Défense est assez limitée. La classification en question est mise en œuvre uniquement comme mécanisme visant à protéger les propres processus de passation des marchés du gouvernement américain. Par conséquent, il n'y a aucun obstacle direct pour les utilisateurs généraux ou même les entrepreneurs privés travaillant avec le ministère de la Défense pour utiliser le chatbot d'Anthropic appelé Claude ou d'autres solutions d'IA. Cela indique que la décision ne mettra pas complètement fin aux relations commerciales dans le secteur technologique.
En fait, Microsoft a déclaré dans sa déclaration à CNBC qu'il prévoyait de poursuivre sa coopération avec Anthropic. Les responsables de la société ont déclaré qu'à la suite de l'évaluation des équipes juridiques, ils ont conclu qu'il était possible de travailler avec Anthropic sur des projets autres que la défense. Cette déclaration révèle que la décision du Pentagone pourrait avoir un impact limité sur les collaborations avec le secteur privé. Malgré cela, il semblerait que cette évolution crée une nouvelle incertitude, notamment pour les entreprises technologiques travaillant avec les institutions publiques.
D'autre part, Amodei a également confirmé que des « discussions constructives » avaient eu lieu ces derniers jours avec le ministère de la Défense. Il est indiqué que lors de ces réunions, des modèles alternatifs permettant de fournir des services au Pentagone ont été discutés. Les conditions de base de l'entreprise n'ont pas changé : les technologies anthropiques ne seront pas utilisées dans des activités de surveillance de masse et elle ne participera pas au développement de systèmes d'armes entièrement autonomes. Si le respect de ces deux exceptions ne peut être obtenu, les parties travailleraient sur un processus de transition plus fluide.
En plus de tout cela, Amodei s’est également excusé publiquement pour une note interne récemment divulguée à la presse. Dans la note divulguée, il a été affirmé qu'OpenAI avait utilisé des expressions dures selon lesquelles ses déclarations concernant l'accord qu'elle avait conclu avec le ministère de la Défense étaient « complètement fausses ». Amodei a déclaré que la correspondance en question était une évaluation interne et qu'il n'était pas juste qu'elle soit reflétée dans le public. Malgré cela, l’incident montre que la concurrence entre les sociétés d’intelligence artificielle devient de plus en plus visible dans le domaine des technologies de défense.
Pour ne pas rater l'agenda technologique, 📰 ajoutez-le à Google News, 💬 rejoignez notre chaîne WhatsApp, ▶ abonnez-vous à YouTube, 📷 suivez-nous sur Instagram et 𝕏 X.