ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'intelligenza artificiale rende le minacce di morte molto realistiche, rivela un'attivista australiana

DiOwotunse AdebayoOwotunse Adebayo
3 minuti di lettura
L'intelligenza artificiale rende le minacce di morte molto realistiche, rivela un'attivista australiana.
  • L'attivista australiana Caitlin Roper ha rivelato che l'intelligenza artificiale sta rendendo le minacce di morte molto realistiche.
  • Roper ha affermato che lei e i suoi colleghi sono stati presi di mira da minacce alimentate dall'intelligenza artificiale.
  • Roper ha esortato le autorità e le piattaforme ad affrontare questa minaccia crescente.

L'attivista australiana Caitlin Roper ha rivelato che l'intelligenza artificiale viene ora utilizzata per creare minacce e abusi violenti online molto realistici. Secondo Roper, nonostante anni di lavoro su Internet come attivista, si è ritrovata traumatizzata dalla recente ondata di minacce alimentate dall'intelligenza artificiale che ha ricevuto.

Le minacce generate digitalmente sono possibili già da diversi anni e, fino a poco tempo fa, i modelli non potevano replicare persone reali, a meno che non avessero una presenza online massiccia. Secondo un esperto, ora ai modelli basta un'immagine del profilo per creare qualsiasi cosa gli utenti desiderino.

Nel 2023, a un giudice della Florida è stato inviato un video realizzato utilizzando uno strumento di personalizzazione del videogioco Grand Theft Auto. Il video mostrava un avatar che assomigliava e camminava come il giudice mentre veniva hackerato a morte.

Un attivista australiano chiede cautela nell'uso dell'intelligenza artificiale

Secondo Roper, alcuni dei post che ha ricevuto facevano parte di una campagna di insulti rivolta a lei e ai suoi colleghi di Collective Shout, un gruppo di attivisti australiano attivo su X e altre piattaforme social. Ha notato che in una delle foto che le sono state inviate, c'era una foto di lei appesa a un cappio, mentre un altro video la mostrava in fiamme e urlante. Altri erano più espliciti, con gli utenti che facevano di tutto per diffondere il loro messaggio.

Roper ha affermato che nella maggior parte delle foto e dei video creati con l'intelligenza artificiale, indossava un abito blu a fiori di sua proprietà. "Sono questi piccoli dettagli strani che lo rendono più reale e, in qualche modo, un diverso tipo di violazione", ha detto. "Queste cose possono passare dalla fantasia a qualcosa di più di una fantasia". Ha osservato che il flusso di abusi online è iniziato quest'estate dopo la sua campagna per bloccare i videogiochi violenti che esaltano scene e abusi per adulti.

Ha affermato che alcuni account e immagini a lei indirizzati sono stati rimossi. Roper ha anche affermato che l'azienda ha affermato che altri post che raffiguravano la sua morte violenta non violavano i termini di servizio della piattaforma. In effetti, ha affermato che X, a un certo punto, ha incluso uno degli account che la molesta in una lista di persone consigliate da seguire. Roper ha anche affermato che alcuni dei suoi molestatori hanno anche affermato di usare Grok per cercare come trovare donne a casa e nei bar.

Roper vuole piattaforme per affrontare questa minaccia

Roper ha affermato che, dopo essersi stufata, ha deciso di pubblicare alcuni esempi. Dopo averlo fatto, X le ha fatto notare che i suoi account violavano le norme di sicurezza contro il gore gratuito e ha bloccato temporaneamente il suo account.

Nel frattempo, è in corso una campagna globale contro l'intelligenza artificiale a causa del suo utilizzo per truffe. I criminali ora utilizzano la tecnologia per imitare le voci di persone reali, impiegandola nelle loro numerose attività illecite. Altre attività includono la creazione di contenuti per adulti con l'intelligenza artificiale senza l'esplicita autorizzazione del soggetto.

Oltre a questo tipo di contenuti, i rapporti affermano che l'intelligenza artificiale sta rendendo più convincenti anche altre minacce. Ad esempio, lo swatting è la pratica di effettuare false chiamate di emergenza con l'obiettivo di incitare un intervento massiccio da parte della polizia e del personale di emergenza. In estate, la National Association of Attorneys General ha affermato che la tecnologia "ha notevolmente intensificato la portata, la precisione e l'anonimato" di tali attacchi.

In misura minore, un aumento dei video realizzati con l'intelligenza artificiale che mostrano presunte intrusioni in casa ha spinto identpresi di mira a chiamare i dipartimenti di polizia in tutto il paese. Il rapporto afferma che gli autori di swatting possono convincere le forze dell'ordine di false segnalazioni clonando voci e manipolando immagini. Un criminale seriale ha utilizzato spari simulati per suggerire che un tiratore si trovasse nel parcheggio di una scuola superiore dello stato di Washington. Il campus è stato bloccato per 20 minuti dopo l'arrivo della polizia e degli agenti federali.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO