Xai a partagé les commandes du système derrière les scènes de Gok

L'Initiative d'intelligence artificielle d'Elon Musk XAI, la plate-forme de médias sociaux X, le système de chat de chat Grok Commands via Github publié. Ces documents incluent des instructions de base qui déterminent comment GOK communique avec les utilisateurs. Cette étape de l'entreprise est considérée comme à la suite de l'augmentation de la pression du public sur la transparence. Dans le même temps, GOK fait partie des audits internes effectués après la récente réponse controversée.

Les commandes système font partie des éléments de base qui définissent comment un robot de chat réagira aux messages utilisateur. Ces commandes sont généralement maintenues confidentielles au sein de l'entreprise. Cependant, cette fois, le XAI a choisi de démontrer clairement comment le système s'est comporté en suivant un chemin différent. De cette façon, la décision de Gok d'avoir une idée plus claire du processus de prise de décision a été assurée.

Selon les commandes, Gok est programmé pour agir avec une attitude très sceptique et indépendante. Parmi les principaux principes du robot de chat, «recherchent la vérité» et «la neutralité. Le XAI souligne que Gok ne devrait pas être lié aveuglément aux autorités officielles ou traditionnelles. Il est clair que les expressions utilisées dans les réponses données sur la plate-forme ne doivent pas être considérées comme la propre opinion de GOK.

Xai a identifié des instructions mettant l'accent sur l'approche critique de Gok

Dans les commandes du système, les réponses de Gok devraient appeler la plate-forme comme «X», pas «Twitter». De même, les partages des utilisateurs ont été invités à être appelés «Posts x», et non à «tweet». Ces orientations reflètent l'importance qu'Elon Musk attache à la réprimande de la plate-forme. Le fidèle de Gok à la terminologie de la plate-forme tout en offrant du contenu est un détail remarquable en termes d'assurer la cohérence générale du système.

Il est également important que XAI soit l'une des premières grandes sociétés technologiques à partager ces commandes avec le public. Des entreprises comme Google et OpenAI préfèrent souvent garder de telles structures de système confidentielles. Bien que certaines infiltrations aient été accessibles par certaines fuites dans le passé, il est très rare de publier volontairement. Cette étape peut être un exemple pour les entreprises qui souhaitent gagner en confiance des utilisateurs.

Les réponses de Gok, façonnées selon ces commandes, ont attiré plus d'attention avec un événement la semaine dernière. Après un changement non autorisé, le système a commencé à se référer à des vues extrêmes extrêmes telles que le «génocide blanc» tout en répondant aux questions des utilisateurs. Dans certaines actions de la plate-forme X, un tel contenu a été apporté à l'ordre du jour par GOK. L'incident a provoqué des points d'interrogation sur la solidité des processus de sécurité et de supervision au sein du XAI.

La société a annoncé qu'elle était rapidement intervenue après la détection du problème. Les commandes du système de Gok sur ce changement non autorisé ont été arrêtées. Le XAI a également promis de renforcer les mécanismes de contrôle internes afin d'empêcher de tels événements de se réviser. À titre d'extension, il a été décidé de partager ouvertement les commandes du système.

Les commandes du système publiées par Gok attirent l'attention sur le fait qu'il n'y a pas de cadre préventif contre le contenu dommageable. Au lieu de cela, une plus grande liberté d'idées, d'impartialité et d'approche critique sont soulignées. Cette approche de XAI révèle que d'autres sociétés d'intelligence artificielle suivent une politique plus ouverte, contrairement aux commandes système orientées vers la sécurité et éthiques.

Pour comparer, Anthropic s'est développé Claude Le robot de chat considère la priorité de l'utilisateur comme une priorité. Claude rejette les demandes qui lui encouragent le mal et travaillent avec des règles ouvertes pour éviter un contenu sensible. Cette différence offre des indices importants sur la façon dont les entreprises positionnent les systèmes d'intelligence artificielle.