In una rivelazione che fa luce sul lato oscuro delle interferenze digitali nelle elezioni, l'Australian Strategic Policy Institute (ASPI) ha scoperto una campagna segreta orchestrata dal Partito Comunista Cinese (PCC) per manipolare le recenti elezioni di Taiwan attraverso la disinformazione generata dall'intelligenza artificiale. Le tattiche insidiose impiegate includevano l'uso di avatar generati dall'IA, documenti riservati trapelati e falsi test di paternità, sollevando preoccupazioni circa il potenziale impatto globale di tali campagne di disinformazione.
Svelata la campagna segreta cinese
L'indagine dell'ASPI ha smascherato le attività nefaste di Spamouflage, una rete legata al PCC, che utilizzava avatar generati dall'intelligenza artificiale su piattaforme come X/Twitter, Facebook, Medium e blog taiwanesi. Questi account prendevano di mira i candidati del Partito Progressista Democratico (DPP), accusandoli di corruzione e appropriazione indebita per influenzare l'opinione pubblica nei loro confronti. I collegamenti della rete con le forze dell'ordine e le agenzie governative cinesi hanno ulteriormente complicato la situazione.
Un secondo attore malevolo,dentnel rapporto Meta del terzo trimestre 2023, si è impegnato in sofisticate operazioni di influenza informatica. Questo attore ha diffuso presunti documenti riservati del governo taiwanese e un falso test di paternità del DNA riguardante il candidatodentdel DPP, Lai Ching-te. La complessità di queste campagne, incluso l'uso di contenuti generati dall'intelligenza artificiale, ha segnato uno sviluppo preoccupante nelle operazioni di influenza della Cina.
Il rapporto dell'ASPI mette in luce le conseguenze di vasta portata derivanti dalle campagne di disinformazione cinesi basate sull'intelligenza artificiale, che vanno ben oltre i confini di Taiwan. In particolare, la rete Spamouflage, oltre a esercitare influenza a Taiwan, è statadentdella diffusione di contenuti denigratori nei confronti del Bharatiya Janata Party (BJP) e del governo indiano, con particolare attenzione alla regione del Manipur in India. Questa rivelazione svela un plausibile modello di potenziale interferenza del Partito Comunista Cinese (PCC) nelle prossime elezioni a livello globale.
Unità democratica di fronte alla disinformazione generata dall'intelligenza artificiale
Il rapporto sottolinea la responsabilità di piattaforme come X/Twitter nel garantire la sicurezza online durante le elezioni, citando le carenze nella sospensione degli account associati a reti di comportamenti inautentici coordinati con sede in Cina. Invita inoltre le aziende occidentali di intelligenza artificiale generativa, come Synthesia e D-ID, a esercitare la dovuta diligenza e trasparenza nella prevenzione dell'uso improprio dei loro prodotti, esortando OpenAI a seguire l'esempio delle piattaforme di social media nella pubblicazione di rapporti sulle minacce derivanti da abusi.
Le conclusioni del rapporto esprimono cautela, lanciando un allarme sugli investimenti stranieri nel fiorente settore dell'intelligenza artificiale in Cina. Il rapporto auspica una rivalutazione da parte dei governi e delle aziende occidentali del loro coinvolgimento in questo settore. Il duplice potenziale duplice utilizzo dei prodotti di intelligenza artificiale, soprattutto nell'ambito delle operazioni di guerra politica, impone un maggiore controllo e, potenzialmente, l'imposizione di responsabilità legali alle aziende di intelligenza artificiale che potrebbero inavvertitamente facilitare interferenze elettorali.
Mentre le democrazie si preparano alle prossime elezioni, il rapporto dell'ASPI incoraggia a rafforzare i legami con Taiwan e ad adottare un fronte unito contro la disinformazione . La condivisione di informazioni sugli attori che rappresentano una minaccia per il PCC, l'indagine sugli account dei social media che prendono di mira diverse regioni e la collaborazione nelle attività di contrasto alla disinformazione potrebbero rafforzare le difese democratiche.
In un mondo sempre più dipendente dalle piattaforme digitali, la rivelazione delle sofisticate campagne di disinformazione generate dall'intelligenza artificiale in Cina rappresenta un monito severo sulle sfide che le democrazie devono affrontare per preservare l'integrità dei propri processi elettorali. La responsabilità di combattere collettivamente questa minaccia in continua evoluzione ricade non solo sui governi, ma anche sulle aziende tecnologiche e sull'intera comunità globale.

