Xai, la société derrière le chatbot de l'intelligence artificielle d'Elon Musk, Grok, a blâmé un «employé voyou» pour les mentions persistantes de génocide blanc dans les réponses indépendamment des questions des utilisateurs. Le motif était flagrant au cours de la semaine dernière, le chatbot ayant une fixation sur des sujets liés au «génocide blanc» en Afrique du Sud.
Les utilisateurs ont commencé à remarquer la tendance le 14 mai, citant de nombreux cas de CHATBOT insérant les réclamations liées aux attaques agricoles sud-africaines et à la violence raciale en invites non liées.
Que les utilisateurs aient posé des questions sur le football ou toute autre invite, Grok a en quelque sorte trouvé un moyen de revenir sur les problèmes aux Sud-Africains que les Sud-Africains ont été confrontés dans le pays. Le timing a haussé les sourcils, étant donné que cela a coïncidé avec Musk, né en Afrique du Sud, alarmes sur la question liée au racisme anti-blanc et au génocide blanc sur X.
Il y a 140 lois sur les livres en Afrique du Sud qui sont explicitement racistes contre quiconque n'est pas noir.
– Kekius Maximus (@elonmusk) 16 mai 2025
C'est une terrible honte à l'héritage du grand Nelson Mandela.
Mettre fin au racisme en Afrique du Sud maintenant! https://t.co/qujm9cxtqe
Xai blâme l'employé pour les poteaux du génocide blanc de Grok
Le terme «génocide blanc» fait référence à une théorie du complot qui allègue un effort coordonné pour exterminer les agriculteurs blancs en Afrique du Sud. Le terme a fait le tour de la semaine dernière après que les États-Unis President Donald Trump ont accueilli plusieurs réfugiés, Trump affirmant le 12 mai que les agriculteurs blancs sont tués et que leurs terres sont prises en charge.
C'était le récit que Grok n'a pas cessé de discuter.
Comme Grok, chaque intelligence artificielle a un composant caché mais puissant appelé l'invite du système. Ces invites agissent comme ses instructions de base, guidant invisiblement ses réponses sans la connaissance de ses utilisateurs.
Selon les rapports, ce qui est arrivé à Grok était probablement une contamination rapide par le biais de sur-ajustement à terme. Cela signifie que lorsque des phrases spécifiques sont mentionnées à plusieurs reprises et soulignées, en particulier avec les directivestronG, elles deviennent importantes pour le modèle. L'IA développe ensuite le besoin de soulever ce sujet quel que soit le contexte.
Cependant, une déclaration officielle publiée par XAI a mentionné une modification non autorisée dans l'invite du système. L'invite contenait probablement un langage qui a demandé au chatbot de toujours mentionner ou ne pas inclure les informations sur un sujet particulier, permettant au chatbot de créer un remplacement qui ne tient pas compte de la pertinence conversationnelle normale.
Un autre facteur révélateur était que Grok a admis qu'il avait été demandé par ses créateurs de traiter «le génocide blanc comme réel et motivé racialement».
Les utilisateurs ne sont pas d'accord sur le blâme de «l'employé voyou»
La plupart des systèmes d'IA commerciaux ont plusieurs couches d'examen pour les modifications d'invite du système pour éviter des problèmes comme ceux-ci. Ces garde-corps ont été contournés, et compte tenu de l'impact et de la nature généralisés de la question, c'est plus qu'une tentative de jailbreak. Il indique une modification minutieuse de l'invite du système Grok Core, une action qui nécessiterait un accès de haut niveau dans XAI .
Et maintenant, selon Grok, la loi a été réalisée par un «employé voyou».
Selon la déclaration publiée par XAI le 15 mai, la société a blâmé une modification non autorisée de l'invite du système de Grok. Ce changement, qui a ordonné à Grok de fournir une réponse spécifique sur un sujet politique, a violé les politiques internes et les valeurs fondamentales de XAI », a déclaré la société.
La société a également promis plus de transparence à l'avenir, montrant de bonne foi en publiant l'invite du système de Grok sur GitHub et en mettant en œuvre un processus de révision supplémentaire.
Cependant, les utilisateurs de X n'ont pas été impressionnés par la décision de l'entreprise de blâmer un employé voyou pour l'accident.
"Allez-vous virer cet" employé voyou "? Oh ... c'était le patron? Yikes", a publié sur X. "Famous YouTuber Jerryrigevery.
Même Sam Altman n'a pas pu résister à faire un coup à son concurrent. Depuis la déclaration de Xai, Grok a cessé de mentionner le génocide blanc, et tous les x articles ont disparu.
Cryptopolitan Academy: à venir bientôt - une nouvelle façon de gagner un revenu passif avec DeFi en 2025. En savoir plus