Le gouvernement canadien a lancé un nouveau processus pour renforcer les mesures de sécurité avec OpenAI, au milieu d'inquiétudes croissantes concernant l'utilisation abusive des systèmes d'intelligence artificielle. Selon les informations fournies par le Wall Street Journal, lors des réunions avec le PDG d'OpenAI, Sam Altman, de nouvelles applications qui permettront de détecter plus rapidement une utilisation potentiellement risquée de ChatGPT et d'informer les autorités si nécessaire ont été discutées. Cette évolution est apparue après une fusillade dans une école secondaire au Canada. Lors de l'incident en question, OpenAI avait précédemment signalé et suspendu le compte du suspect de l'attaque. Malgré cela, il s’est avéré qu’aucune notification n’a été faite aux autorités, ce qui a donné lieu à des discussions sur l’adéquation des protocoles de sécurité.
Le ministre canadien de l'Intelligence artificielle, Evan Solomon, a annoncé qu'il avait tenu une réunion en ligne avec Sam Altman et avait formulé diverses demandes lors de cette réunion pour accroître la sécurité de la plateforme. Selon les déclarations de Solomon, Altman a accepté de prendre certaines mesures en réponse à ces demandes. En conséquence, il est prévu de créer un nouveau cadre pour informer les autorités chargées de l'application de la loi si des exemples d'utilisation suspects ou risqués sont détectés sur ChatGPT. De plus, il vise à inclure des experts dans les domaines de la vie privée, de la santé mentale et de la sécurité au Canada dans ces processus d'évaluation. L’objectif est donc de créer un mécanisme de contrôle qui protège les droits des utilisateurs et puisse identifier les menaces potentielles à un stade précoce.
Le Canada exige la déclaration d'activités suspectes lors de l'utilisation de ChatGPT
Les recommandations avancées par le gouvernement canadien incluent le réexamen non seulement des nouveaux incidents, mais également des cas d'utilisation suspects identifiés dans le passé. Evan Solomon a déclaré qu'il avait demandé à OpenAI d'évaluer ces cas rétrospectivement et de partager les données avec les forces de l'ordre lorsque cela était jugé nécessaire. Cependant, il n’est pas encore clair si OpenAI a pleinement accepté cette proposition de révision rétrospective. Malgré cela, il est indiqué que l'entreprise envisage de préparer un rapport complet détaillant les nouveaux protocoles de sécurité et de le soumettre au gouvernement canadien. Ce rapport devrait expliquer comment la plateforme détecte les comportements à risque et quelles procédures seront appliquées dans ces cas.
D’un autre côté, ce n’est pas la première fois qu’OpenAI contacte le Canada sur des questions de sécurité et de réglementation. Ann O'Leary, vice-présidente de la politique mondiale de l'entreprise, a déclaré dans des déclarations récentes que les systèmes de détection seraient améliorés. En conséquence, de nouvelles mesures techniques sont en cours d’élaboration pour empêcher les utilisateurs bannis de revenir sur la plateforme avec des comptes différents. Bien que les systèmes existants puissent identifier certains comportements à risque, la possibilité pour les utilisateurs de réaccéder à la plateforme en ouvrant de nouveaux comptes est considérée comme une vulnérabilité importante en termes de sécurité.
Une situation similaire s’est produite lors de l’attaque susmentionnée dans un lycée. OpenAI a interdit le premier compte de l'attaquant en raison d' »avertissements concernant la possibilité d'actes de violence réels ». Malgré cela, il s’est avéré que le suspect a pu réutiliser la plateforme en créant un autre compte. Cela montre que les plates-formes d’intelligence artificielle à grande échelle ont besoin de mécanismes plus avancés en matière de vérification des utilisateurs, de surveillance des comptes et d’analyse des risques.
Pour ne pas rater l'agenda technologique, 📰 ajoutez-le à Google News, 💬 rejoignez notre chaîne WhatsApp, ▶ abonnez-vous à YouTube, 📷 suivez-nous sur Instagram et 𝕏 X.