xAI affirme qu'un « employé indélicat » est responsable du génocide blanc (publications de Grok)

- xAI a publié un communiqué accusant un « employé indélicat » d'être à l'origine des messages faisant l'apologie du génocide blanc sur son chatbot IA Grok.
- L'entreprise a indiqué qu'un employé, dont le nom n'a pas été divulgué, avait effectué une modification non autorisée de l'invite système.
- Les utilisateurs de X contestent cette affirmation et se bousculent pour critiquer Elon Musk.
xAI, la société à l'origine de Grok, le chatbot d'intelligence artificielle d'Elon Musk, a pointé du doigt un employé indélicat pour les références persistantes au génocide blanc dans ses réponses, indépendamment des questions des utilisateurs. Ce phénomène était flagrant la semaine dernière, le chatbot semblant obsédé par les sujets liés au « génocide blanc » en Afrique du Sud.
Les utilisateurs ont commencé à remarquer cette tendance le 14 mai, beaucoup citant des cas où le chatbot insérait des affirmations relatives aux attaques de fermes en Afrique du Sud et aux violences raciales dans des messages sans rapport avec le sujet.
Que les utilisateurs posent des questions sur le football ou sur d'autres sujets, Grok de Musk, né en Afrique du Sud, prises de position sur le racisme anti-blanc et le génocide blanc sur X.
Il existe 140 lois en Afrique du Sud qui sont explicitement racistes envers toute personne non noire.
— Elon Musk (@elonmusk) 16 mai 2025
C'est une honte pour l'héritage du grand Nelson Mandela.
Halte au racisme en Afrique du Sud ! https://t.co/qUJM9CXTqE
xAI accuse un employé d'être à l'origine des publications de Grok sur le génocide blanc
L’expression « génocide blanc » renvoie à une théorie du complot qui prétend qu’il existe une tentative concertée d’exterminer les fermiers blancs en Afrique du Sud. Cette expression a refait surface la semaine dernière après que ledent américain Donald Trump a accueilli plusieurs réfugiés, affirmant le 12 mai que des fermiers blancs étaient tués et que leurs terres étaient confisquées.
C’est le discours que Grok n’a cessé de répéter.
À l'instar de Grok, toute intelligence artificielle possède un composant caché mais puissant : le système d'instructions. Ces instructions constituent le cœur de son fonctionnement et guident ses réponses de manière invisible, à l'insu de ses utilisateurs.
D'après les rapports, le problème rencontré par Grok serait dû à une contamination rapide par surapprentissage. Autrement dit, lorsque certaines expressions sont mentionnées et mises en avant de manière répétée, notamment avec des directivestron, elles deviennent importantes pour le modèle. L'IA développe alors le besoin d'aborder ce sujet systématiquement, quel que soit le contexte.
Cependant, un communiqué officiel de xAI mentionne une modification non autorisée du message d'invite du système. Ce message contenait probablement une instruction demandant au chatbot de toujours mentionner ou de se souvenir d'inclure des informations sur un sujet particulier, lui permettant ainsi de contourner la pertinence normale de la conversation.
Un autre élément révélateur est que Grok admis avoir reçu pour instruction de ses créateurs de traiter le « génocide blanc comme une réalité à motivation raciale ».
Les utilisateurs sont partagés quant à la responsabilité de l'« employé indélicat »
La plupart des systèmes d'IA commerciaux comportent plusieurs niveaux de vérification des modifications apportées aux invites système afin de prévenir ce type de problème. Ces garde-fous ont été contournés et, compte tenu de l'ampleur et de la nature du problème, il s'agit de bien plus qu'une simple tentative de jailbreak. Cela indique une modification minutieuse de l'invite système Grok, une action qui nécessiterait un accès de haut niveau au sein de xAI.
Et maintenant, selon Grok, cet acte a été commis par un « employé indélicat »
Selon un communiqué publié par xAI le 15 mai, l'entreprise a imputé ce problème à une modification non autorisée du système d'invite de Grok. « Cette modification, qui enjoignait Grok à fournir une réponse spécifique sur un sujet politique, a enfreint les politiques internes et les valeurs fondamentales de xAI », a déclaré l'entreprise.
L'entreprise a également promis plus de transparence à l'avenir, faisant preuve de bonne foi en publiant l'invite système de Grok sur GitHub et en mettant en œuvre un processus de révision supplémentaire.
Cependant, les utilisateurs de X n'ont pas été convaincus par la décision de l'entreprise de rejeter la faute sur un employé indélicat.
« Vous allez virer cet “employé indiscipliné” ? Oh… c’était le patron ? Aïe », a posté sur X. « Le fait de biaiser aussi ouvertement le bot IA “le plus honnête au monde” me fait douter de la neutralité de Starlink et Neuralink », a-t-il ajouté dans un tweet suivant.
Même Sam Altman n'a pas pu s'empêcher de lancer une pique à son concurrent. Depuis la déclaration de xAI, Grok a cessé d'évoquer le génocide blanc et tous les messages concernant X ont disparu.
Vous laissez encore la banque garder le meilleur ? Regardez notre vidéo gratuite sur comment devenir votre propre banque.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














