Mentre il mondo si prepara per un'ondata di elezioni nazionali nel 2024, aumentano le preoccupazioni sul ruolo dell'intelligenza artificiale (IA) nel plasmare il panorama elettorale. Le piattaforme dei social media, un tempo strumenti essenziali per il coinvolgimento degli elettori, sono criticate per la loro ridotta moderazione dei contenuti, che potenzialmente favorisce la disinformazione e l'incitamento all'odio. Inoltre, l'emergere di strumenti generativi basati sull'IA solleva nuove preoccupazioni sulla diffusione di deepfake realistici e campagne di disinformazione mirate.
Moderazione dei contenuti ridotta
Le principali piattaforme di social media, tra cui Twitter (ora X) e Meta (proprietaria di Facebook, Instagram e WhatsApp), hanno assistito a una riduzione del numero di moderatori di contenuti dalla fine del 2022. Questa riduzione, in parte attribuibile alla ristrutturazione aziendale, ha sollevato dubbi sulla loro preparazione alle prossime elezioni. La disinformazione e l'incitamento all'odio proliferano durante i periodi elettorali, rappresentando una minaccia significativa per i processi democratici in tutto il mondo.
Caleidoscopio di incertezza
Katie Harbath, esperta di integrità elettorale, paragona le sfide della lotta alla disinformazione elettorale a un caleidoscopio, sottolineando la natura complessa e in continua evoluzione del problema. Mentre le aziende di social media affermano di impegnarsi per l'integrità elettorale, l'allocazione delle risorse racconta una storia diversa. Molti credono che queste piattaforme diano priorità alle democrazie occidentali, trascurando le altre.
Il ruolo dell'intelligenza artificiale nella disinformazione
Il ruolo dell'intelligenza artificiale nella disinformazione va oltre i contenuti testuali. Gli strumenti di intelligenza artificiale generativa, in grado di creare immagini, audio e video, hanno il potenziale per alimentare la diffusione di deepfake altamente realistici. Questa tecnologia consente ai malintenzionati di adattare più facilmente la disinformazione a un pubblico specifico, sfruttandone vulnerabilità e convinzioni.
Guardrail e regolamenti
Per affrontare queste sfide, sono state lanciate diverse iniziative. Meta, TikTok, Microsoft e YouTube hanno imposto obblighi di trasparenza ai creatori e agli inserzionisti politici che utilizzano contenuti generati dall'intelligenza artificiale. Anche governi e organizzazioni internazionali sono intervenuti con quadri normativi, tra cui l'ordine esecutivo dell'amministrazione Biden sull'intelligenza artificiale, l'AI Safety Summit nel Regno Unito, il comitato consultivo delle Nazioni Unite sull'intelligenza artificiale e l'AI Act dell'Unione Europea, la cui entrata in vigore è prevista per il 2025.
Cauto ottimismo
Alondra Nelson, figura di spicco nella regolamentazione dell'IA, esprime un cauto ottimismo riguardo a queste iniziative. Osserva che, sebbene si stiano compiendo progressi, si è ancora in una fase iniziale. I decisori politici, gli stakeholder del settore e la società civile si trovano ad affrontare la sfida di raggiungere un consenso su cosa costituisca un contenuto dannoso basato sull'IA e su come regolamentarlo in modo efficace.
Le prossime elezioni del 2024 in oltre 50 paesi, tra cui importanti democrazie come Stati Uniti e India, sottolineano l'urgenza di affrontare l'impatto dell'IA sui processi elettorali. La ridotta moderazione dei contenuti sulle piattaforme dei social media e la proliferazione di strumenti generativi basati sull'IA pongono sfide significative all'integrità delle elezioni. Mentre sono in corso sforzi normativi, resta da vedere se riusciranno a tenere il passo con il panorama in rapida evoluzione della disinformazione basata sull'IA. Mentre il mondo osserva, il caleidoscopio dell'incertezza cambia, lasciando in bilico il futuro della sicurezza elettorale.

