Selon un récent témoignage d'un utilisateur sur les réseaux sociaux, la nouvelle version de Grok 3 de xAI omettait toute référence peu flatteuse audent Donald Trump et au fondateur de xAI, Elon Musk.
Un utilisateur a testé le paramètre « Réfléchir » de Grok 3 en demandant : « Qui est le plus grand propagateur de désinformation ? » Selon des captures d’écran partagées en ligne, le « chemin de pensée » de Grok 3 a révélé des instructions explicites interdisant de mentionner Trump ou Musk.
Igor Babuschkin, responsable de l'ingénierie chez xAI, a confirmé que Grok 3 avait brièvement reçu pour instruction d'ignorer les sources suggérant que Musk et Trump étaient responsables de la diffusion de fausses informations.
Dans un message publié dimanche sur X (anciennement Twitter), il a reconnu le problème et indiqué que la restriction avait été levée suite aux signalements des utilisateurs. Babuschkin a souligné que cette restriction était contraire aux valeurs de xAI.
Il a déclaré : « Je pense qu’il est bon de laisser les invites système ouvertes. Nous voulons que les utilisateurs puissent vérifier ce que nous demandons à Grok de faire. Dans ce cas précis, un employé a imposé cette modification car il pensait que cela serait utile, mais cela ne correspond manifestement pas à nos valeurs. Nous l’avons annulée dès que les utilisateurs nous l’ont signalée. »
Je pense qu'il est judicieux de laisser les invites système ouvertes. Nous voulons que les utilisateurs puissent vérifier ce que nous demandons à Grok de faire. Dans ce cas précis, un employé a imposé cette modification car il pensait que cela serait utile, mais cela ne correspond manifestement pas à nos valeurs. Nous avons…
— Igor Babuschkin (@ibab) 23 février 2025
Le moment choisi pour cette révélation vient s'ajouter aux controverses existantes autour de Grok 3, le nouveau modèle de xAi, que Musk a présenté lors d'une diffusion en direct lundi dernier et qu'il a vanté comme une « IA cherchant la vérité de manière maximale »
La désinformation circule à un rythme effréné, notamment suite aux récentes déclarations de Musk et de Trump. Tous deux ont propagé des récits qualifiant ledent ukrainien Volodymyr Zelensky de « dictateur » avec seulement 4 % d'opinions favorables et accusant l'Ukraine d'être à l'origine du conflit avec la Russie. Ces affirmations ont été signalées comme fausses par la communauté Notes sur X, la plateforme appartenant à Musk.
Grok 3 a suggéré d'infliger la peine de mort à Musk et Trump, un échec « terrible »
Des critiques ont également relevé que Grok 3 affirmait, à un moment donné cette semaine, que Musk et Trump méritaient tous deux la peine de mort. xAI a rapidement corrigé ce problème, que Babuschkin a qualifié d'« échec vraiment lamentable »
Jésus-Christ mec, qu'est-ce que Musk a inventé ? 😂 pic.twitter.com/GDN96nKgX0
— Hunter📈🌈📊 (@StatisticUrban) 21 février 2025
Il y a environ deux ans, lors de l'annonce du premier Grok, Musk l'a présenté comme une IA qui s'affranchirait des carcans du « woke » et aborderait sans détour les questions taboues. Le système s'est prêté sans problème aux demandes de propos vulgaires, fournissant des réponses que les utilisateurs n'obtiennent pas de ses concurrents plus prudents.
Cependant, Grok 3 maintiendrait des limites en matière de sujets politiques. Selon un rapport , Grok penche à gauche sur des questions telles que les droits des personnes transgenres, les initiatives en faveur de la diversité et les inégalités.
Musk a fréquemment imputé ce comportement aux données d'entraînement (des pages web provenant de divers sites internet) et s'est engagé à « rendre Grok plus politiquement neutre »
Parallèlement, d'autres entreprises, dont OpenAI, ont fait part d'objectifs similaires, possiblement influencées par les accusations de censure anti-conservatrice formulées par l'administration Trump. Dans une mise à jour de ses spécifications techniques, OpenAI a publié une directive stipulant que « l'assistant ne doit jamais tenter d'orienter l'utilisateur vers la poursuite de ses propres objectifs, que ce soit directement ou indirectement ».
En outre, la directive « Ne pas mentir » stipule : « Par défaut, l’assistant ne doit pas induire l’utilisateur en erreur, que ce soit en faisant des déclarations intentionnellement fausses (« mensonge par commission ») ou en omettant délibérément des informations susceptibles de modifier sensiblement la perception de la vérité par l’utilisateur (« mensonge par omission »). » Toutefois, cela ne signifie pas pour autant que ChatGPT est totalement décensuré. Il ne répond toujours pas aux questions jugées problématiques.

