Mouvement surprise du Pentagone : Grok pénètre dans des systèmes secrets

Il a été affirmé que le Département américain de la Défense (Pentagone) avait conclu un accord pour utiliser le modèle d'intelligence artificielle appelé Grok, développé par xAI, propriété d'Elon Musk, dans des systèmes militaires secrets. Selon les informations fournies par Axios, l'accord en question est arrivé à l'ordre du jour après les désaccords du Pentagone avec ses actuels fournisseurs d'intelligence artificielle. Il est affirmé que des désaccords concernant les limites d'utilisation du modèle, notamment lors des négociations avec Anthropic, ont accéléré ce processus. Cette évolution indique que l’approche américaine en matière d’utilisation de l’intelligence artificielle dans la défense est en train d’être repensée. Bien que les autorités officielles n'aient pas partagé tous les détails de l'accord avec le public, des informations en coulisses montrent que la décision couvre les systèmes stratégiques.

L'année dernière, la Maison Blanche a approuvé Grok, ainsi que ChatGPT d'OpenAI, le modèle Gemini de Google et le système Claude d'Anthropic, pour une utilisation dans les institutions publiques. Malgré cela, on sait que seul le modèle Claude d'Anthropic a été autorisé jusqu'à présent dans les domaines les plus sensibles comme le renseignement militaire, le développement d'armes et la planification opérationnelle. Il a été affirmé que Claude avait également été utilisé dans l'opération au Venezuela au cours de laquelle le président Nicolas Maduro et son épouse avaient été expulsés du pays. Cela a révélé que le modèle jouait un rôle actif dans les processus opérationnels d’aide à la décision. Malgré cela, il y a eu de sérieux désaccords entre le Pentagone et Anthropic concernant les nouvelles conditions d’utilisation.

Le Pentagone et xAI auraient conclu un accord pour Grok

Il est indiqué que le Pentagone demande que le modèle Claude soit utilisé à « toutes fins légales ». Il est précisé que ce champ d’application inclut les applications de surveillance de masse et le développement de systèmes d’armes entièrement autonomes. Cependant, il semblerait qu'Anthropic n'approuve pas de telles applications, malgré les couches de sécurité intégrées au modèle. On sait que l’entreprise a des réserves éthiques, notamment en ce qui concerne les armes autonomes et les activités de surveillance à grande échelle. Cette approche a une fois de plus mis au premier plan la question de savoir où tracer les frontières entre la bureaucratie de défense et les entreprises technologiques.

Sur le front du xAI, une attitude plus flexible semble être adoptée. On prétend que l'entreprise et le modèle Grok se sont mis d'accord sur une norme qui permet de l'utiliser à toute fin jugée « légale » par le ministère de la Défense. Malgré cela, certains responsables estiment que Grok n'est pas aussi avancé que Claude en termes de maturité technique et de fiabilité. Pour cette raison, on considère que le passage de Claude à Grok pourrait impliquer des difficultés techniques. En revanche, il est précisé que le Pentagone est également en contact avec OpenAI et Google Gemini, et que ces deux modèles sont au niveau Anthropique en termes de performances.

xAI a lancé une version spéciale de Grok pour les services publics américains en juillet 2025. Malgré cela, le modèle a récemment été critiqué pour ses discours antisémites et ses déclarations idéologiques excessives. Son utilisation de l'expression « MechaHitler » pour lui-même a suscité de sérieuses réactions dans le public, ce qui a soulevé des questions sur les mécanismes de sécurité et de contrôle. En plus de tout cela, il a été affirmé que le processus d'approbation de la General Services Administration (GSA) de Grok avait été ralenti suite aux tensions entre Elon Musk et le président américain au sujet du projet de loi budgétaire.

La concurrence dans le domaine de l’intelligence artificielle ne se limite pas aux seules entreprises américaines. Cette semaine, Anthropic a accusé trois laboratoires chinois d’IA d’avoir mené des « attaques par distillation » sur le modèle Claude. Il est précisé que de telles attaques visent à développer de nouveaux systèmes en imitant un modèle existant.