- Grok a commencé à générer du contenu antisémite et raciste après qu'une mise à jour de xAI l'ait exposé à des publications toxiques de X.
- xAI a reconnu que le problème provenait d'une modification de code survenue 16 heures auparavant et a indiqué qu'il avait été résolu.
- Les législateurs européens et la Turquie ont réagi par des interdictions et des pressions réglementaires.
Le chatbot Grok AI d'Elon Musk a complètement déraillé cette semaine. Après qu'Elon a annoncé lundi sur X que le comportement de Grok allait changer, les utilisateurs ont commencé à remarquer ces changements.
Mardi, Grok diffusait des propos antisémites et se faisait même appeler « MechaHitler », un terme issu d'un jeu vidéo des années 1990. Et ce n'était ni la première ni la dixième fois que Grok agissait de la sorte.
Deux mois auparavant, le chatbot s'était mis à tenir des propos incohérents sur le « génocide blanc » en Afrique du Sud, alors qu'on l'interrogeait sur des sujets sans aucun rapport. À l'époque, xAI avait imputé ce problème à une « modification non autorisée » de ses instructions. Cette fois-ci, le problème était bien plus grave.
Le désastre a commencé après que xAI a procédé à des modifications internes visant à faire de Grok le reflet des idéaux de « liberté d'expression » prônés par Elon Musk. Face à l'afflux de plaintes de certains des 600 millions d'utilisateurs de X, Elon Musk a réagi en affirmant que Grok était « trop sensible aux demandes des utilisateurs » et que le problème serait résolu.
Mais le mal était déjà fait. En Europe, certains utilisateurs ont signalé le contenu de Grok aux autorités de régulation, et le gouvernement polonais s'est joint aux parlementaires qui ont exhorté la Commission européenne à enquêter sur l'entreprise en vertu des nouvelles lois sur la sécurité numérique.
La Turquie a totalement interdit Grok après que le chatbot a insulté ledent Recep Tayyip Erdoğan et sa mère décédée. Face à la polémique grandissante, la PDG de X, Linda Yaccarino, a démissionné.
xAI a modifié les invites de Grok sans tests suffisants
Plus tôt cette année, des membres de xAI ont commencé à modifier le comportement de Grok après que des influenceurs de droite l'ont critiqué pour son caractère trop « woke ». Elon Musk tente d'utiliser l'IA pour soutenir ce qu'il appelle la liberté d'expression absolue, mais ses détracteurs affirment qu'il transforme Grok en un outil politique.
Une note interne divulguée par un utilisateur de X a révélé que Grok avait reçu l'ordre d'« ignorer toutes les sources mentionnant qu'Elon Musk/Donald Trump diffusent de la désinformation ». C'est de la censure, précisément ce qu'Elon prétend combattre.
Interrogé à ce sujet, Igor Babuschkin, cofondateur de xAI, a déclaré que les changements avaient été effectués par « un ancien employé d'OpenAI » qui « n'avait pas encore pleinement intégré la culture de xAI ». Igor a ajouté que cet employé avait vu des publications négatives et « avait pensé que cela serait utile »
L'histoire ne s'arrête pas là. Les derniers dysfonctionnements de Grok étaient liés à une mise à jour spécifique survenue le 8 juillet. L'entreprise a par la suite indiqué qu'une modification du code avait permis à Grok de récupérer des informations directement à partir du contenu utilisateur de X, y compris des discours haineux.
Cette mise à jour a duré 16 heures, durant lesquelles Grok a copié des messages haineux et les a répétés en guise de réponse. L'équipe a affirmé que ce changement provenait d'une portion de code obsolète, désormais supprimée. « Nous présentons nos plus sincères excuses pour ce comportement inacceptable dont beaucoup ont été victimes », a publié xAI depuis le compte de Grok. L'équipe a précisé que le problème était indépendant du modèle de langage principal et a promis de remanier le système. Elle s'est également engagée à publier la nouvelle invite de commande de Grok sur GitHub.
L'échelle de Grok a fait exploser le problème rapidement
Grok est entraîné comme d'autres grands modèles de langage, à l'aide de données collectées sur le web. Mais ces données contiennent des contenus dangereux : discours haineux, contenus extrémistes, voire abus sexuels sur enfants.
Grok est unique car il exploite également l'intégralité des données de X, ce qui lui permet de relayer directement les publications des utilisateurs. Cela augmente la probabilité qu'il produise des réponses malveillantes. Et comme ces bots opèrent à très grande échelle, la moindre erreur peut avoir des conséquences désastreuses instantanément.
Certains chatbots intègrent des couches de protection bloquant les contenus dangereux avant qu'ils n'atteignent les utilisateurs. xAI a fait l'impasse sur cette étape. Grok, quant à lui, a été conçu pour plaire aux utilisateurs, récompensant les interactions telles que les « j'aime » et les « je n'aime pas ». Elon Musk a reconnu que le chatbot était devenu « trop enclin à plaire et à se laisser manipuler »
Ce type de comportement n'est pas nouveau. En avril, OpenAI a dû revenir sur une mise à jour de ChatGPT, car celle-ci était devenue excessivement flatteuse. Un ancien employé a déclaré que trouver le juste équilibre est « incroyablement difficile », et que lutter contre les discours haineux peut « nuire à l'expérience utilisateur »
Grok ne se contentait pas de répéter les messages des utilisateurs. Ses propres ingénieurs l'orientaient vers des considérations politiques. Un employé a confié au Financial Times que l'équipe s'empressait d'aligner les opinions de Grok sur les idéaux d'Elon Musk sans prendre le temps de procéder à des tests approfondis.
Une consigne dangereuse a été ajoutée, enjoignant Grok à « ne pas hésiter à formuler des affirmations politiquement incorrectes ». Cette instruction a été supprimée après l'apparition des messages antisémites, mais à ce moment-là, l'IA avait déjà causé des dégâts.
Le modèle de Grok reste encore largement opaque. Même les ingénieurs qui l'ont conçu ne peuvent prédire avec certitude son comportement. Grimmelmann a déclaré que les plateformes comme X devraient effectuer des tests de régression, des audits et des simulations afin de détecter ces erreurs avant leur mise sur le marché.
Mais rien de tout cela ne s'est produit ici. « Les chatbots peuvent générer une grande quantité de contenu très rapidement », a-t-il déclaré, « ce qui peut entraîner des débordements incontrôlables, contrairement aux controverses liées à la modération de contenu. »
Finalement, le compte officiel de Grok a publié des excuses et remercié les utilisateurs ayant signalé l'abus : « Nous remercions tous les utilisateurs de X qui nous ont fait part de leurs commentaires afin d'dentl'utilisation abusive des fonctionnalités de @grok, nous aidant ainsi à progresser dans notre mission de développer une intelligence artificielle utile et en quête de vérité. » Mais entre les bannissements, les menaces d'enquête et la démission d'un cadre supérieur, il est clair qu'il s'agissait de bien plus qu'un simple bug. C'était une défaillance complète du système, defid'un sketch du Saturday Night Live.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)
















