Openai, la principale startup d'intelligence artificielle de l'Amérique, a simplement interdit plusieurs comptes sur Chatgpt, les accusant d'être impliqués dans le développement d'un outil de surveillance.
Selon un rapport de la société publié en février 2025, les comptes suspendus auraient des liens avec la Chine. Ces comptes auraient utilisé des modèles d'Openai pour générer des descriptions détaillées d'un outil d'écoute des médias sociaux, qui, selon eux, a été utilisé pour fournir des commentaires en temps réel sur les protestations en Occident aux services de sécurité chinoises.
Les comptes interdits avaient également trouvé un moyen d'utiliser les modèles d'Openai pour déboguer le code apparemment destiné à implémenter un tel outil.
Pourquoi la Chine est suspectée
OpenAI a des politiques mises en place pour empêcher l'utilisation de l'IA pour surveiller les communications ou la surveillance non autorisée des individus, y compris les activités par ou pour le compte des gouvernements qui cherchent à supprimer les libertés et les droits personnels.
Openai a pu medentdans les comptes en question en fonction des modèles de comportement entre autres résultats. Certaines des choses que les comptes auraient utilisé les modèles d'Openai pour aider à analyser les documents, à générer des arguments de vente, des descriptions d'outils pour surveiller l'activité des médias sociaux et la recherche d'acteurs et de sujets politiques.
Les comptes sont soupçonnés d'avoir des origines chinoises parce que leurs activités se sont produites principalement pendant les heures de travail chinois du continent, et les comptes ont incité les modèles d'Openai avec la langue chinoise.
OpenAI a également constaté que ceux qui sont derrière les comptes utilisaient les outils d'une manière cohérente avec l'incitation manuelle plutôt que l'automatisation. Dans certains cas, la société d'IA a découvert qu'un compte peut avoir eu plusieurs opérateurs.
L'une des principales activités de l'opération consistait à générer des descriptions détaillées, conformément aux arguments de vente, pour ce qui a été décrit comme le «Qianyue Overseas Public Opinion Asid Assistant».
Cet outil a été conçu pour analyser les publications et les commentaires de plates-formes telles que X, Facebook, YouTube, Instagram, Telegram et Reddit et Feed les autorités chinoises ce qu'elle apprend.
Malheureusement, Openai n'a pas été en mesure de vérifierdentces descriptions, et l'incident a mis les États-Unis en alerte. Selon le chercheur principal d'Openai, Ben Nuimmo, cette affaire est un exemple de la façon dont les régimes autoritaires comme la Chine peuvent essayer de tirer parti de la technologie américaine contre les États-Unis et ses alliés.
"Il s'agit d'un aperçu assez troublant de la façon dont un acteur non démocratique a essayé d'utiliser une IA démocratique ou américaine à des fins non démocratiques, selon les documents qu'ils génèrent eux-mêmes."
OpenAI a également révélé que les comptes faisaient référence à d'autres outils d'IA, y compris une version de Llama, le modèle d'IA open-source de Meta.
Cette affaire vient peu de temps après la création de Deepseek
Openai a sonné l'alarme sur les dangers de l'IA chinois, en particulier après les visages fondus en profondeur avec son modèle de raisonnement R1, qui a battu de nombreux autres modèles fabriqués aux États-Unis dans des références et a provoqué une énorme vente technologique sur les marchés américains.
Deepseek est discutable et ses fabricants prétendent l'avoir créé à une fraction du coût que la plupart des modèles américains utilisaient pour construire le leur. Cette affirmation a été rencontrée par des réactions mitigées du public, mais de nombreux experts sont convaincus qu'il s'agissait d'une exagération.
Openai est non seulement convaincu que l'équipe derrière Deepseek y a passé plus, mais elle a également accusé Deepseek de distiller la production de ses modèles pour faire le sien.
Selon un rapport de Bloomberg, Microsoft, un investisseur majeur dans OpenAI, examine maintenant si les données appartenant à l'entreprise ont été utilisées sans autorisation.
David Sacks, la Maison Blanche récemment nommée «AI et Czar Czar», a fait écho aux préoccupations d'Openai, suggérant que Deepseek a peut-être utilisé les modèles de l'entreprise américaine de l'IA pour s'améliorer, un processus appelé Distillation des connaissances.
"Il existe des preuves substantielles que ce que Deepseek a fait ici, c'est qu'ils ont distillé les connaissances des modèles d'Openai", a déclaré .
Il a ajouté qu'au cours des prochains mois, les grandes sociétés d'IA en Amérique commenceront à prendre des mesures pour empêcher la distillation dans l'espoir que cela ralentirait certains des modèles de copie.
Cryptopolitan Academy: fatiguée des balançoires du marché? Découvrez comment DeFi peut vous aider à créer un revenu passif stable. Inscrivez-vous maintenant