Una nonna di San Diego ha evitato per un pelo di perdere migliaia di dollari a causa di una truffa che prevedeva la clonazione vocale generata da un'intelligenza artificiale che imitava il suo amato nipote. L'dent è avvenuto quando Maureen, una nonna della contea di North, ha ricevuto una telefonata da un numero anonimo, inizialmente scambiato per la chiamata con numero nascosto della sorella. La voce dall'altra parte somigliava in modo inquietante a quella del suo nipote angosciato.
Convincente inganno dell'IA
La persona che ha chiamato ha affermato di essere suo nipote e ha informato Maureen che era stato coinvolto in undentstradale, indossava un collare cervicale e si stava recando alla stazione di polizia. Ha chiesto urgentemente 8.200 dollari di cauzione. La voce ingannevole generata dall'intelligenza artificiale era così convincente che Maureen non ha esitato a credere che si trattasse di suo nipote. Anche un presunto avvocato si è unito alla chiamata, aggiungendo credibilità alla truffa affermando che suo nipote aveva colpito un diplomaticodent, sottolineando la necessità di mantenere il riserbo entro 72 ore.
Temendo per l'incolumità del nipote, Maureen cadde nella trappola. Raccolse in fretta la presunta somma della cauzione e corse in banca per ottenerne altra. Tuttavia, prima di consegnare cashguadagnato con tanta fatica, contattò saggiamente la figlia per verificare le sue condizioni. Con suo sollievo, scoprì che il suo vero nipote era al sicuro, impegnato in un torneo di golf. Questa rivelazione fece infuriare il truffatore, che sfogò la sua rabbia durante una successiva telefonata con la figlia di Maureen.
Le truffe basate sull'intelligenza artificiale sono in aumento
Le truffe basate sull'imitazione della propria identità, come la "truffa della nonna", coinvolgono truffatori che si spacciano per persone fidate per indurre le vittime a inviare denaro a causa di emergenze inventate. Questa tendenza, soprattutto tra gli anziani, è in aumento e rappresenta una preoccupazione crescente per le forze dell'ordine. L'intelligenza artificiale aggrava il problema rendendo l'imitazione vocale più accessibile ed economica.
Strumenti di intelligenza artificiale come ElevenLabs e Stable Diffusion possono manipolare voci e movimenti della bocca, rendendo sempre più difficile per le persone distinguere le registrazioni audio o video autentiche da quelle false. Secondo la Federal Trade Commission, nel 2022, le truffe tramite impostori si sono classificate al secondo posto tra le truffe più diffuse negli Stati Uniti, con oltre 36.000 casi segnalati e oltre 11 milioni di dollari di perdite attribuibili adenttelefonici.
Proteggersi dalle truffe legate all'intelligenza artificiale
In risposta alla crescente minaccia di truffe basate sull'intelligenza artificiale, la famiglia di Maureen ha ideato una strategia di protezione nota come "parola di sicurezza". Questa parola unica è nota solo ai membri della famiglia e funge da misura di verifica in caso di chiamate sospette. La chiave è evitare di condividere questa parola tramite SMS o e-mail e comunicarla direttamente al telefono.
Maureen ha sottolineato il disagio emotivo causato dalla truffa e ha espresso il desiderio di risparmiare ad altri esperienze simili. L'uso di parole di sicurezza e la comunicazione telefonica diretta rappresentano un approccio proattivo per contrastare la crescente sfida dell'inganno alimentato dall'intelligenza artificiale.
La storia del quasi incontro di nonna Maureen con una truffa basata sulla clonazione vocale generata dall'intelligenza artificiale evidenzia la crescente sofisticatezza dei truffatori. Con l'evoluzione della tecnologia dell'intelligenza artificiale, diventa imperativo per individui e famiglie adottare misure di protezione come le parole di sicurezza e la comunicazione telefonica diretta per proteggersi dal disagio emotivo e finanziario causato da queste truffe ingannevoli.

