Anthropique, seulement Institutions fédérales américaines le nouveau modèle d'intelligence artificielle pour accéder Claude GovIl a annoncé. Ce modèle s'est développé, en particulier Dans les domaines de la défense et de l'intelligence Il était prêt à faciliter l'analyse des documents et les processus de traitement du contenu. Selon les informations de l'entreprise auprès du public, Claude Gov est actuellement utilisée par les hauts agences gouvernementales. Cependant, aucune information n'a été donnée sur le moment où il a été utilisé.
Anthropique indique que les restrictions sur les modèles précédemment-ouverts sont étirées dans une certaine mesure dans Claude Gov. Il est possible de faire des analyses sur le contenu des documents confidentiels. Selon les versions publiques Claude du modèle un contexte plus large d'un document plus large Il est indiqué qu'il a la capacité d'évaluer. Il a également une compréhension plus avancée de la compréhension des langues de sécurité américaines et des dialectes régionaux.
Dans la création de Claude Gov, les mêmes tests de sécurité dans d'autres modèles de l'entreprise ont été appliqués. Mais le modèle, Il s'adaptera aux priorités de la sécurité nationale sous la forme de réorganisé. Dans ce contexte, en particulier la détection des menaces, les rapports de renseignement à analyser et le contenu classifié sont optimisés pour une utilisation dans les tâches.
Anthropic définit une zone d'utilisation différente en desserrant les restrictions sur les modèles ouverts publiquement avec Claude Gov
Le fait que le modèle soit ouvert au niveau fédéral uniquement aux institutions étatiques compétentes montre qu'elle est complètement séparée des utilisateurs commerciaux ou individuels. Anthropic indique clairement que ce produit ne peut être accessible que par des utilisateurs autorisés travaillant avec des documents cachés. Cependant, une telle limitation apporte des points d'interrogation sur la mesure dans laquelle le contenu du modèle peut être intervenu. En particulier, les frontières établies entre la sécurité et la liberté d'expression restent controversées.
Anthropic s'est développé il y a environ onze mois Utiliser des exceptions liées au contrat Grâce à certaines institutions de l'État, il dit qu'il peut adapter certains aspects du modèle avec des autorisations spéciales. Néanmoins, l'utilisation dans des domaines tels que la production de désinformation, l'établissement de mécanismes de censure, les conceptions de cyberattaques ou le développement de systèmes d'armes n'est pas autorisé. En d'autres termes, bien que la zone d'utilisation ait été élargie, certaines limites éthiques et juridiques sont conservées autour du modèle.
Présentation de Claude Gov, annoncée par Openai en janvier Chatgpt Gov Il est considéré comme une réponse à son produit. Openai a annoncé que Chatgpt Gov a été utilisé par plus de 90 000 employés du gouvernement aux États-Unis. Anthropic s'est abstenu de donner des informations sur le nombre d'utilisateurs ou les exemples d'applications. Cependant, il a été confirmé que l'entreprise avait participé au programme FedStart de Palantir.
Ces développements sont les grandes entreprises d'intelligence artificielle qu'il a commencé à travailler plus près des institutions d'État indique une période. Les pratiques d'intelligence artificielle pour les services publics, non seulement aux États-Unis mais aussi dans d'autres pays, se sont accélérées. Par exemple, l'échelle AI a signé un accord de cinq ans avec le gouvernement du Qatar dans les domaines de la santé, des transports et de l'administration publique ces derniers mois. Il est également connu que la même entreprise a développé un outil d'intelligence artificielle pour la planification militaire avec le ministère américain de la Défense.