Le gouvernement américain fournira un accès préalable au lancement aux modèles d'IA d'OpenAI et d'Anthropic

Avec le développement rapide de la technologie de l’intelligence artificielle, le gouvernement américain poursuit ses efforts pour renforcer les mesures de sécurité dans ce domaine. Dans le cadre de ces efforts, OpenAI et Anthropic, deux sociétés leaders dans le domaine de l'intelligence artificielle, ont convenu de mettre leurs nouveaux modèles d'intelligence artificielle à la disposition du gouvernement américain avant de les rendre disponibles. Les entreprises ont formalisé cette décision par le protocole d’accord qu’elles ont signé avec l’US AI Safety Institute. Cet accord permet au gouvernement d’examiner les modèles d’IA avant et après leur publication.

Les entreprises technologiques et les gouvernements ont récemment commencé à accorder davantage d’importance aux risques de sécurité liés à la technologie de l’intelligence artificielle. Cette mesure a été prise pour mieux évaluer les risques potentiels que les modèles d’intelligence artificielle peuvent engendrer et pour détecter et éliminer à l’avance d’éventuels problèmes. Grâce à cette coopération, le gouvernement américain entend accélérer ses efforts pour assurer la sécurité de la technologie de l’intelligence artificielle. Dans le même temps, il est prévu de créer un réseau de sécurité international en collaborant avec les institutions compétentes du Royaume-Uni.

Une étape importante pour la sécurité de l’intelligence artificielle

L'accès du gouvernement américain aux modèles d'intelligence artificielle constitue une étape importante dans la réglementation et la sécurité de la technologie. Cette mesure a été prise à un moment où des discussions étaient en cours sur le renforcement de la réglementation sur la technologie de l'intelligence artificielle au niveau fédéral et des États américains. Le développement rapide de l’intelligence artificielle oblige les législateurs à être plus méticuleux quant au type de réglementations qui seront mises en œuvre dans ce domaine. Cependant, dans ce processus, il est également très important de prendre des mesures de sécurité sans entraver l’innovation.

Mercredi dernier, l'« Innovation Act for Safe and Reliable Artificial Intelligence Models » (SB 1047) a été adoptée dans l'État américain de Californie. Cette loi impose aux entreprises d’IA de prendre certaines mesures de sécurité, notamment avant de travailler sur des modèles d’IA avancés. Même si la loi se concentre particulièrement sur les projets d’intelligence artificielle à grande échelle, elle offre une certaine flexibilité aux développeurs open source à petite échelle. Cependant, cette réglementation a été critiquée par de nombreuses sociétés d’intelligence artificielle, notamment OpenAI et Anthropic. Les entreprises craignent que de telles réglementations n’étouffent l’innovation. La législation attend l'approbation du gouverneur de Californie, Gavin Newsom.

Pendant ce temps, la Maison Blanche continue de travailler sur des engagements volontaires avec les grandes sociétés d’intelligence artificielle. De nombreuses entreprises de premier plan se sont engagées volontairement à investir dans la recherche sur la cybersécurité et la lutte contre la discrimination, ainsi qu’à développer des technologies de signalement pour empêcher l’utilisation abusive des contenus générés par l’IA.

Elizabeth Kelly, directrice de l'Institut américain pour la sécurité de l'intelligence artificielle, a déclaré que ces nouveaux accords ne sont qu'un début, mais qu'ils constituent une étape importante sur la voie d'une gestion responsable de l'avenir de l'intelligence artificielle. Kelly a déclaré qu'il pensait que le gouvernement et les entreprises technologiques pouvaient jouer un rôle plus efficace pour assurer la sécurité de la technologie de l'intelligence artificielle grâce à cette coopération.

Cette collaboration entre OpenAI et Anthropic avec le gouvernement américain représente une étape importante vers le développement et l'utilisation responsables de la technologie de l'intelligence artificielle. Alors que l’avenir de l’intelligence artificielle est façonné par de telles collaborations et réglementations, il semble que les discussions sur la sécurité et l’utilisation éthique de la technologie se poursuivront.