L'intelligence artificielle rend les menaces de mort très réalistes, révèle un activiste australien

- L'activiste australienne Caitlin Roper a révélé que l'intelligence artificielle rend les menaces de mort très réalistes.
- Roper a affirmé qu'elle et ses collègues avaient été la cible de menaces alimentées par l'IA.
- Roper a exhorté les autorités et les plateformes à lutter contre cette menace croissante.
L'activiste australienne Caitlin Roper a révélé que l'intelligence artificielle est désormais utilisée pour proférer des menaces et des injures violentes en ligne d'un réalisme saisissant. Selon Roper, malgré des années d'activisme sur internet, elle a été profondément traumatisée par la récente vague de menaces générées par l'IA dont elle a été victime.
Les menaces générées numériquement existent depuis quelques années, et jusqu'à récemment, les modèles ne pouvaient imiter de vraies personnes que si ces dernières disposaient d'une forte présence en ligne. Selon un expert, il leur suffit désormais d'une simple photo de profil pour créer tout ce que les utilisateurs souhaitent.
En 2023, un juge de Floride a reçu une vidéo réalisée à l'aide d'un outil de personnalisation du jeu vidéo Grand Theft Auto. On y voyait un avatar ressemblant trait pour trait au juge, se faire massacrer à coups de piratage.
Un militant australien appelle à la prudence quant à l'utilisation de l'intelligence artificielle
Selon Roper, certains messages qu'elle a reçus s'inscrivaient dans une campagne de dénigrement la visant, elle et ses collègues de Collective Shout, un groupe militant australien présent sur X et d'autres réseaux sociaux. Elle a notamment indiqué qu'une des photos qui lui ont été envoyées la montrait pendue, tandis qu'une autre vidéo la montrait en flammes et hurlant. D'autres messages étaient encore plus choquants, les auteurs n'hésitant pas à employer des méthodes extrêmes pour faire passer leur message.
Roper a affirmé que sur la plupart des photos et vidéos générées par intelligence artificielle, elle portait une robe bleue à fleurs qui lui appartient. « Ce sont ces petits détails étranges qui rendent la chose plus réelle et, d'une certaine manière, une violation d'un autre ordre », a-t-elle déclaré. « On passe du fantasme à la réalité. » Elle a souligné que le flot d'insultes en ligne a commencé cet été après sa campagne pour faire fermer les jeux vidéo violents faisant l'apologie de scènes et d'abus sexuels.
Elle a indiqué que certains comptes et images la concernant ont été supprimés. Roper a également mentionné que l'entreprise affirmait que d'autres publications montrant sa mort violente ne violaient pas les conditions d'utilisation de la plateforme. Elle a même affirmé que X avait, à un moment donné, inclus l'un des comptes qui la harcèlent dans une liste de personnes recommandées à suivre. Roper a ajouté que certains de ses harceleurs ont également déclaré utiliser Grok pour rechercher comment trouver des femmes chez elles et dans des cafés.
Roper souhaite que des plateformes s'attaquent à cette menace
Roper a affirmé qu'exaspérée, elle avait décidé de publier quelques exemples. Suite à cela, X lui a indiqué que ses comptes enfreignaient les règles de sécurité interdisant la diffusion gratuite de contenu violent et a temporairement bloqué son compte.
Parallèlement, une campagne mondiale s'est développée contre l'intelligence artificielle en raison de son utilisation à des fins frauduleuses. Les criminels utilisent désormais cette technologie pour imiter la voix de personnes réelles et l'exploiter dans leurs nombreuses activités illicites. Parmi ces activités figure la création de contenu pour adultes grâce à l'intelligence artificielle, sans le consentement explicite des personnes concernées.
Outre ce type de contenu, des rapports indiquent que l'intelligence artificielle rend également d'autres menaces plus convaincantes. Par exemple, le swatting consiste à passer de faux appels d'urgence dans le but de provoquer une intervention massive des forces de l'ordre et des services d'urgence. Cet été, l'Association nationale des procureurs généraux a souligné que cette technologie « a considérablement accru l'ampleur, la précision et l'anonymat » de ces attaques.
À une échelle moindre, la multiplication des vidéos réalisées par intelligence artificielle montrant de prétendues intrusions à domicile a incité lesdentvisés à appeler les services de police dans tout le pays. Le rapport indique que les auteurs de ces canulars peuvent convaincre les forces de l'ordre en imitant des voix et en manipulant des images. Un récidiviste a utilisé des coups de feu simulés pour faire croire à la présence d'un tireur sur le parking d'un lycée de l'État de Washington. L'établissement a été bouclé pendant 20 minutes après l'arrivée de la police et des agents fédéraux.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y grâce à notre newsletter.
Avertissement : Les informations fournies ne constituent pas un conseil en investissement. CryptopolitanCryptopolitan.com toute responsabilité quant aux investissements réalisés sur la base des informations présentées sur cette page. Nous voustrondentdentdentdentdentdentdentdent et/ou de consulter un professionnel qualifié avant toute décision d’investissement.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














