ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'FBI mette in guardia contro l'uso dell'intelligenza artificiale generativa per impersonare alti funzionari statunitensi

DiCollins J. OkothCollins J. Okoth
Tempo di lettura: 2 minuti.
L'FBI mette in guardia contro l'uso dell'intelligenza artificiale generativa per impersonare alti funzionari statunitensi
  • La divisione dell'FBI di San Francisco ha messo in guardia il pubblico dall'utilizzare strumenti di intelligenza artificiale per impersonare alti funzionari degli Stati Uniti.
  • Le vittime e coloro che sospettano di truffe basate sull'intelligenza artificiale sono incoraggiati a segnalarle tramite il centro reclami online.
  • L'FBI ha elaborato un piano per contribuire a ridurre i rischi associati a queste truffe, che prevede anche l'utilizzo dell'autenticazione a più fattori.

Oggi, la divisione di San Francisco dell'FBI ha avvertito il pubblico di prestare attenzione alle truffe vocali sempre più diffuse, basate sull'intelligenza artificiale. I criminali informatici, secondo quanto riferito, utilizzano strumenti di intelligenza artificiale per attacchi di phishing e truffe di clonazione vocale.

L'FBI ha messo in guardia dall'uso di deepfake vocali per colpire i funzionari statunitensi durante la conferenza sulla sicurezza informatica RSA al Moscone Centre di San Francisco. Secondo l'agenzia, l'avvertimento mira a fornire misure di mitigazione per aiutare il pubblico a individuare e bloccare gli attacchi che utilizzano deepfake vocali.

L'intelligenza artificiale aiuta i criminali a commettere crimini informatici

Alcuni malintenzionati si sono spacciati per alti funzionari statunitensi per prendere di mira singoli individui, molti dei quali erano funzionari governativi in ​​carica o ex funzionari. Una dichiarazione dell'FBI ha messo in guardia il pubblico dal dare per scontato che i messaggi che affermano di provenire da un alto funzionario statunitense siano autentici. 

L'FBI ha chiarito che i malintenzionati hanno utilizzato tecniche di smishing e vishing per inviare messaggi e una voce generata dall'intelligenza artificiale. I malintenzionati, travestiti da alti funzionari statunitensi, hanno cercato di instaurare un buon rapporto con le vittime prima di ottenere preziose informazioni personali. Secondo la dichiarazione, i malintenzionati hanno avuto accesso agli account dei funzionari statunitensi tramite tecniche di ingegneria sociale. Gli hacker hanno inviato link dannosi camuffati da link progettati per spostare le conversazioni su un'altra piattaforma di messaggistica. 

Il comunicato stampa odierno fa seguito a una notifica del 2021 dell'FBI al settore privato, che metteva in guardia contro i deepfake, ampiamente utilizzati per influenzare l'opinione pubblica straniera e per commettere crimini informatici. L'FBI riteneva che i recenti attacchi fossero sempre più sofisticati e che, pertanto, rappresentassero una reale minaccia per i cittadini americani.

L'FBI propone un piano per combattere i deepfake audio potenziati 

L'FBI ha esortato il pubblico e le aziende a rimanere vigili e a ridurre il rischio di phishing tramite intelligenza artificiale e di clonazione di video o voce. L'Agenzia ha invitato il pubblico a prestare attenzione ai messaggi urgenti che richiedono denaro odent. Ha aggiunto che le aziende dovrebbero valutare diverse soluzioni tecniche per ridurre il numero di email di phishing e di ingegneria sociale rivolte ai dipendenti.

"Con la continua evoluzione della tecnologia, si evolvono anche le tattiche dei criminali informatici. Gli aggressori sfruttano l'intelligenza artificiale per creare messaggi vocali o video ed e-mail altamente convincenti, per consentire frodi ai danni di privati ​​e aziende. Queste tattiche sofisticate possono causare perdite finanziarie devastanti, danni alla reputazione e compromissione di dati sensibili."  

– Robert Tripp, agente speciale responsabile dell’FBI 

L' FBI ha esortato le aziende a integrare la tecnologia con una formazione continua dei dipendenti sui pericoli degli attacchi di phishing e social engineering. L'agenzia ha aggiunto che l'utilizzo di soluzioni di autenticazione a più fattori ha aggiunto ulteriori livelli di sicurezza e ha reso più difficile per i criminali informatici ottenere accessi non autorizzati ad account e sistemi.  

Nell'aprile 2024, il Dipartimento della Salute e dei Servizi Umani degli Stati Uniti ha rivelato che i criminali informatici hanno preso di mira gli assistenti dell'helpdesk IT tramite ingegneria sociale, utilizzando la rappresentazione vocale generata dall'intelligenza artificiale per ingannare le vittime e ottenere informazioni didentpersonale.

Anche il CEO di LastPass, Karim Toubba, è stato vittima degli stessi attacchi. Lo scorso anno ha rivelato che uno dei suoi dipendenti è stato preso di mira da un attacco di phishing vocale. Nel 2022, l'Europol ha lanciato l'allarme: i gruppi informatici avrebbero presto utilizzato deepfake per colpire i CEO, la creazione di materiale pornografico non consensuale e la manomissione delle prove. 

Un rapporto di Deloitte prevede che le perdite dovute a frodi negli Stati Uniti potrebbero raggiungere i 40 miliardi di dollari entro il 2027, grazie all'aiuto dell'intelligenza artificiale generativa. Deloitte ha rivelato che le perdite dovute a frodi sono aumentate rispetto ai 12,3 miliardi di dollari previsti per il 2023. 

Un sondaggio di Accenture condotto su 600 dirigenti della sicurezza informatica presso banche ha inoltre rivelato che l'80% deglidentritiene che l'intelligenza artificiale generativa abbia migliorato le capacità degli hacker più rapidamente di quanto le banche possano fare. 

Se vuoi iniziare a muoverti con più calma nel DeFi mondo delle criptovalute , senza il solito clamore, inizia con questo video gratuito.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO