Due legislatori hanno proposto un disegno di legge bipartisan intitolato "The AI Fraud Deterrence Act", che mira a contrastare il crescente uso improprio dell'intelligenza artificiale nelle truffe, in particolare quelle che coinvolgono i deepfake che prendono di mira i funzionari federali.
Questa legislazione si concentrerà sulla modernizzazione delle attuali leggi statunitensi in materia di frode, in modo che tengano conto del ruolo svolto dalla tecnologia dell'intelligenza artificiale in recentidentdi alto profilo in cui l'audio o il video generato dall'intelligenza artificiale hanno ingannato funzionari o il pubblico.
Maggiori informazioni sul disegno di legge bipartisan
Il disegno di legge, proposto dai rappresentanti Ted Lieu, democratico della California, e Neal Dunn, repubblicano della Florida, due legislatori stanchi della facilità e dell'audacia con cui i criminali ora utilizzano l'intelligenza artificiale nelle loro pratiche ingannevoli, mira ad ampliare le sanzioni per le truffe basate sull'intelligenza artificiale e a criminalizzare l'impersonificazione di funzionari federali tramite l'intelligenza artificiale.
"Con il rapido progresso della tecnologia dell'intelligenza artificiale, le nostre leggi devono tenere il passo", ha affermato Dunn in una dichiarazione che annunciava il disegno di legge. "L'AI Fraud Deterrence Act inasprisce le pene per i reati legati alle frodi commesse con l'aiuto dell'intelligenza artificiale. Sono orgoglioso di essere uno dei promotori di questa legge per proteggere l'dentdei cittadini e prevenire l'uso improprio di questa tecnologia innovativa".
Lieu concorda e la scorsa settimana ha dichiarato alla NBC News che la maggior parte degli americani vuole "limiti ragionevoli sull'intelligenza artificiale", poiché non ritengono che un "completo Far West sia utile".
Secondo la proposta di legge , la pena massima per frode sarà raddoppiata da 1 a 2 milioni di dollari nei casi in cui l'intelligenza artificiale venga deliberatamente utilizzata per facilitare il reato. Includerebbe anche l'inganno mediato dall'intelligenza artificiale nelle defi sia di frode postale che di frode telematica, il che significa che potrebbe essere possibile incriminare gli individui che utilizzano l'intelligenza artificiale per commettere entrambi i tipi di frode.
In entrambi i casi, i criminali potrebbero essere colpiti da multe milionarie e finire dietro le sbarre fino a due decenni per frode postale e tre per frode telematica.
La bozza condanna anche l'impersonificazione di funzionari federali tramite deepfake basati sull'intelligenza artificiale , evidenziando casi in cui le IA sono state utilizzate nel tentativo di imitare il capo dello staff della Casa Bianca Susie Wiles e il segretario di Stato Marco Rubio all'inizio di quest'anno.
Le frodi esistono da quando esiste l'uomo, ma gli esperti affermano che grazie all'intelligenza artificiale la qualità dei risultati fraudolenti è migliorata.
A dicembre, l'FBI ha avvertito che "l'intelligenza artificiale generativa riduce il tempo e gli sforzi che i criminali devono impiegare per ingannare i loro obiettivi", aggiungendo che l'intelligenza artificiale "può correggere gli errori umani che altrimenti potrebbero fungere da campanelli d'allarme per una frode".
Anche Maura R. Grossman, professoressa di ricerca in informatica presso l'Università di Waterloo in Ontario e avvocato, ritiene che l'intelligenza artificiale apra una nuova era di inganni: "L'intelligenza artificiale presenta una scala, una portata e una velocità per le frodi che sono molto, molto diverse dalle frodi del passato".
I modelli di intelligenza artificiale sono diventati più avanzati
Tuttavia, il fatto che faciliti la criminalità non è il problema più grande. Gli osservatori ora temono che le istituzioni attuali, come i tribunali, facciano fatica a tenere il passo con il rapido sviluppo in atto nel settore dell'intelligenza artificiale.
"Gli anni dell'intelligenza artificiale sono anni da cani", ha affermato Hany Farid, professore di informatica presso l'Università della California, Berkeley, e co-fondatore di GetReal Security, azienda leader nel settore dell'autenticazione dei media digitali, in merito alla velocità del progresso dell'intelligenza artificiale.
In passato, non era troppo difficile distinguere i contenuti di intelligenza artificiale da quelli reali, soprattutto quando si trattava di immagini; oggi, tuttavia, sono diventati più avanzati e persino gli utenti più esperti hanno difficoltà a stabilire se un contenuto multimediale è reale o generato.
L'avvertimento dell'FBI di dicembre consigliava alle persone di prestare attenzione alle discrepanze nelle immagini e nei video perdenti contenuti multimediali generati dall'intelligenza artificiale: "Cercate imperfezioni sottili nelle immagini e nei video, come mani o piedi distorti".
Tuttavia, Farid ritiene che questo vecchio consiglio sia sbagliato e persino dannoso. "Il trucco delle mani multiple non è più valido", ha detto Farid. "Non puoi cercare mani o piedi. Nessuna di queste cose funziona".
La proposta di legge di Lieu e Dunn sottolinea l'importanza di etichettare i contenuti generati dall'intelligenza artificiale. Chiarisce inoltre che esiste un tempo e un luogo per i media generati dall'intelligenza artificiale. Ad esempio, se un contenuto è etichettato come satirico, il tag chiarisce che non è autentico e quindi è esente da sanzioni.

