Le elezioni globali del 2024 saranno esposte a crescenti minacce da parte dell'intelligenza artificiale e degli attacchi informatici

- Il rapporto di Mandiant sottolinea il crescente livello di minacce legate alle elezioni, sottolineando il fatto che vi è un urgente bisogno di politiche di sicurezza onnicomprensive.
- Per garantire la sicurezza delle elezioni sarà necessario un approccio olistico che abbracci tutti i vettori di minaccia, dagli attacchi DDoS alla manipolazione dei deepfake.
- Il governo degli Stati Uniti ha creato un comitato per la sicurezza e la protezione dell'intelligenza artificiale, composto dai massimi leader del settore tecnologico.
L' imminente ondata elettorale in tutto il mondo è seguita con grande attenzione dalle preoccupazioni relative all'intelligenza artificiale e agli attacchi informatici che potrebbero influenzare il processo democratico. Secondo un rapporto di Mandiant, commissionato da Google Cloud, è emersa una varietà di minacce, solitamente perpetrate da attori statali, criminali informatici e hacker politici, contro la popolazione. Ciò potrebbe compromettere i prossimi processi elettorali in molti paesi del mondo.
Panorama delle minacce più elevato
Il rapporto di Mandiant sottolinea il crescente livello di minacce legate alle elezioni, sottolineando l'urgente necessità di politiche di sicurezza onnicomprensive. Quest'anno, oltre 2 miliardi di elettori provenienti da 50 paesi saranno presenti alle urne, il che rende i rischi ancora più concreti e richiede quindi un'attenzione costante per garantire che le minacce informatiche emergenti non abbiano successo.
Le operazioni di cyberattacco sponsorizzate dallo stato cinese hanno ormai adottato l'intelligenza artificiale (IA) per alimentare diffuse campagne di disinformazione mirate alle elezioni, sia in patria che all'estero. Gli ultimi rapporti mettono in luce le note strategie di questi hacker, in particolare in vista delle elezioni a Taiwan e delle imminenti elezioni presidenziali statunitensi deldent.
A Taiwan, l'adozione di notiziari generati dall'intelligenza artificiale con presentatori fittizi è diventata un metodo perfetto per diffondere fake news. Questi segmenti di notizie imitate, realizzati con CapCut, una creazione di ByteDance, sono tra gli strumenti chiave nella diffusione di disinformazione volta a interrompere il processo democratico. Inoltre, meme e video generati dall'intelligenza artificiale con l'intento di diffamare personaggi politici noti sono stati ampiamente diffusi, con conseguente diffusione su larga scala di contenuti ingannevoli.
Allo stesso tempo, gli Stati Uniti sono stati oggetto di incessanti tentativi da parte di attori di minaccia sponsorizzati dallo Stato cinese di manipolare la mentalità del Paese attraverso campagne di disinformazione. Gli sforzi di sicurezza informatica elettorale vanno oltre i soliti tentativi di hacking; queste campagne di disinformazione mirano a minare la volontà popolare e il processo elettorale. Gli avversari utilizzano ogni possibile approccio per manipolare i risultati, dal prendere di mira le macchine per il voto all'infiltrazione nelle campagne politiche e alla manipolazione dei social media.
Imperativo di sicurezza globale
La sicurezza delle elezioni richiederà un approccio olistico che comprenda tutti i vettori di minaccia, dagli attacchi DDoS alla manipolazione dei deepfake. Mandiant pone grande enfasi sull'affrontare le minacce per proteggere le infrastrutture digitali e ridurre al minimo le manipolazioni elettorali.
Sebbene le preoccupazioni più giustificate sulla sicurezza informatica delle elezioni riguardino le interruzioni dirette del voto e dello scrutinio, molto più spesso i cyber-avversari cercano di influenzare la percezione pubblica con la guerra dell'informazione: diffondendo fake news, orchestrando attacchi DDoS e manipolando segretamente i social media con tutta l'ingegnosità possibile per influenzare i risultati elettorali.
Di conseguenza, ci si aspetta che le organizzazioni elettorali adottino misure di difesa proattive per far fronte al mutevole panorama delle minacce. Ciò deve essere intrapreso con una comprensione delle minacce specifiche rivolte ai singoli Paesi, in modo da migliorare la capacità di anticipare e contrastare probabili attacchi, rendendo le istituzioni democratiche più resilienti.
Iniziativa del governo statunitense per la sicurezza e la protezione dell'intelligenza artificiale
Vale la pena notare che il governo degli Stati Uniti ha creato un Artificial Intelligence Safety and Security Board (Centro per la Sicurezza e la Protezione dell'Intelligenza Artificiale) con i massimi esponenti del mondo della tecnologia, segnando un grande passo avanti. Tra i massimi esponenti del mondo della tecnologia citati nel Centro figurano Sam Altman di OpenAI, Satya Nadella di Microsoft e il CEO di Alphabet, Sundar Pichai.
Il consiglio, tra le altre cose, fornirà consulenza al Dipartimento per la Sicurezza Interna su come integrare al meglio l'intelligenza artificiale nelle infrastrutture critiche del Paese, in modo sicuro e protetto. Tra gli altri, al tavolo dei lavori figurano Jensen Huang, CEO di Nvidia; Kathy Warden, CEO di Northrop Grumman; ed Ed Bastian, CEO di Delta Airlines.
L'AI Safety and Security Board collaborerà con il Dipartimento per la Sicurezza Interna degli Stati Uniti per eliminare qualsiasi suggerimento di integrare l'IA in infrastrutture critiche che potrebbe risultare pericolosa. Il Board fornirà suggerimenti a servizi di pubblica utilità, fornitori di servizi di trasporto e produttori su come implementare pratiche di sicurezza informatica coerenti con la forma di IA attualmente più diffusa.
L'obiettivo principale dell'AI Safety and Security Board è integrare in modo sicuro le tecnologie di intelligenza artificiale nei sistemi delle infrastrutture critiche. Questo è l'ambito in cui il consiglio spera di definire linee guida e postazioni di lavoro per l'implementazione, con particolare attenzione alla sicurezza, alla protezione e all'affidabilità all'interno delle infrastrutture critiche. Raccogliere le migliori idee di dirigenti esperti del settore e sviluppare un framework che consenta un'implementazione responsabile dell'intelligenza artificiale in diversi ambiti.
Il coinvolgimento di stakeholder del settore privato in tale organizzazione contribuisce inoltre a dimostrare uno sforzo congiunto nell'applicazione delle conoscenze e delle prospettive del settore nella definizione di politiche e normative in materia di IA. In questo caso, il consiglio di amministrazione si impegna ad affrontare le complesse problematiche legate all'IA per garantire sicurezza e protezione, creando così fiducia tra i cittadini.
Contenuti fuorvianti generati dall'intelligenza artificiale: rischi e controindicazioni
I deepfake generati dall'intelligenza artificiale stanno diventando sempre più sofisticati, rendendo difficile distinguere i contenuti reali da quelli manipolati. Sotto forma di foto, video e file audio, i contenuti manipolati potrebbero rappresentare una minaccia per la reputazione di un politico o di un partito politico. Potrebbe non manifestarsi appieno in un'elezione a senso unico, ma il potere dell'IA può alterare i risultati finali, distorcendo la differenza tra pochi voti cruciali in una competizione serrata.
Sono in atto sforzi globali per mitigare l'impatto che la manipolazione dell'IA potrebbe avere sui processi elettorali. Diversi governi, le più grandi aziende tecnologiche del mondo e gli organi legislativi stanno guidando questa strada attraverso il monitoraggio, la regolamentazione e, soprattutto, la comprensione dell'impatto dell'IA. Ad esempio, la maggior parte dei paesi ha istituito team elettorali interni e implementato misure per prevenire i rischi associati all'IA generativa.
Le misure preventive da adottare per prevenire l'interferenza elettorale causata dall'IA includono la sensibilizzazione della popolazione sui rischi dei contenuti ingannevoli generati dall'IA. Le campagne di sensibilizzazione sono progettate per sensibilizzare i consumatori sull'autenticità dei contenuti online e sulla possibilità stessa che siano fabbricati tramite l'IA. Ciò aumenterebbe la diffidenza nei confronti delle informazioni online, riducendo ulteriormente la fiducia nelle piattaforme digitali, con un conseguente aumento del problema della disinformazione.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















