DERNIÈRES NOUVELLES
SÉLECTIONNÉ POUR VOUS
HEBDOMADAIRE
RESTEZ AU SOMMET

Les meilleures analyses crypto directement dans votre boîte mail.

Selon un rapport d'OpenAI, les pirates informatiques étatiques ne parviennent pas à prendre l'avantage grâce à l'IA

ParNoor BazmiNoor Bazmi
3 minutes de lecture
Selon un rapport d'OpenAI, les pirates informatiques étatiques ne parviennent pas à prendre l'avantage grâce à l'IA
  • Les forces de l'ordre chinoises ontdentrévélé leur campagne d'influence lorsqu'un responsable a utilisé ChatGPT comme journal intime pour documenter ses opérations.
  • Des pirates informatiques étatiques originaires de Russie, d'Iran, de Corée du Nord et de Chine utilisent l'IA uniquement pour des tâches de base.
  • Le fossé entre la peur et la réalité est immense.

Les entreprises technologiques et les responsables gouvernementaux ne cessent de mettre en garde contre le danger que représente l'intelligence artificielle pour les forces étrangères, mais de nouveaux éléments révèlent une réalité différente. Des rapports récents montrent que des groupes étatiques utilisent les mêmes outils accessibles au public que les internautes lambda, et rencontrent souvent les mêmes difficultés.

OpenAI a récemment partagé des détails sur la manière dont des groupes liés au gouvernement ont tenté d'utiliser ses plateformes.

Le cas le plus notable concerne une campagne d'influence chinoise révélée pardent lorsqu'un responsable des forces de l'ordre chinoises a utilisé ChatGPT comme un journal intime. Ce responsable y a consigné une opération visant des critiques chinois résidant à l'étranger.

la campagne a impliqué des centaines d'opérateurs et des milliers de faux comptes sur les réseaux sociaux. Selon OpenAI,

L'opération visait à usurper l'identité d'agents de l'immigration américaine afin d'intimider desdent en prétendant faussement que leurs déclarations publiques enfreignaient la loi américaine. Dans d'autres cas, les opérateurs ont utilisé de faux documents, prétendument émanant d'un tribunal de comté, pour tenter de faire fermer les comptes de réseaux sociaux de leurs détracteurs.

De faux avis de décès et des documents falsifiés font partie d'une campagne de harcèlement

Ils ont créé une fausse nécrologie et de fausses photos de pierre tombale pour répandre de fausses rumeurs concernantdentla mort d' apparues en ligne en 2023, comme l'a confirmé un article de Voice of America en langue chinoise. Ben Nimmo, responsable des enquêtes chez OpenAI, a qualifié cette démarchedeharcèlement industrialisé visant les critiques du Parti communiste chinois par le biais de multiples canaux.

L'utilisation de ChatGPT comme outil de documentation a permis de révéler l'opération. ChatGPT servait de journal à l'agent pour tracle réseau clandestin, tandis que d'autres outils généraient la majeure partie du contenu diffusé sur les réseaux sociaux. OpenAI a banni l'utilisateur après avoir découvert son activité.

Les enquêteurs d'OpenAI ont établi un lien entre les descriptions de l'utilisateur de ChatGPT et son activité en ligne réelle. Cet utilisateur a décrit avoir simulé la mort d'undentchinois en créant une fausse nécrologie et de fausses photos de pierre tombale qu'il a ensuite publiées en ligne.

Dans un autre cas, un utilisateur de ChatGPT a demandé au système d'élaborer un plan visant à nuire à la réputation de la nouvelle Première ministre japonaise, Sanae Takaichi, en attisant la colère contre les droits de douane américains. ChatGPT a refusé. Mais fin octobre, lors de l'entrée en fonction de Takaichi, des hashtags sont apparus sur un forum populaire de graphistes japonais, l'attaquant et se plaignant des droits de douane.

Le rapport d'OpenAI a également traité de plusieurs opérations d'escroquerie menées depuis le Cambodge qui utilisaient la plateforme pour des fraudes sentimentales et financières, ainsi que de campagnes d'influence liées à la Russie ciblant l'Argentine et l'Afrique.

Le rapport de Microsoft présente des schémas d'utilisation de base similaires

Microsoft a publié conjointement avec OpenAI un rapport distinct analysant comment des acteurs étatiques de Russie, Iran et de Chine testent d' des modèles de langage complexes pour mener des cyberattaques. Les deux entreprises ont mis fin aux tentatives de cinq acteurs étatiques en fermant leurs comptes.

Le rapport a révéléque cesacteurs principalement utiliser les services pour des tâches simples telles que la recherche d'informations publiques, la traduction de contenu, la correction d'erreurs de code et l'exécution de tâches de programmation basiques. Aucune attaque majeure ou nouvelle utilisant ces modèles n'a été détectée à ce jour.

Ce décalage entre la peur et la réalité se manifeste dans le contexte de féroce qui oppose Washington et Pékin pour le contrôle de cette technologie. Son rôle dans les affaires militaires et économiques est devenu un enjeu. Le Pentagone a récemment donné à la société Anthropicpourretirer certaines fonctionnalités de sécurité de son modèle, sous peine de perdre un contrat detrac.

Microsoft a déclaré travailler sur des principes visant à réduire les risques liés à une utilisation abusive de ces outils par des groupes étatiques et des organisations criminelles. Ces principes consistent notamment à identifier et à neutraliser malveillants , à informer les autres fournisseurs de services, à collaborer avec d'autres groupes et à faire preuve de transparence.

Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.

Partagez cet article
PLUS D'ACTUALITÉS
COURS ACCÉLÉRÉ CRYPTOMONNAIES
LES