ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'ente di controllo elettorale del Regno Unito mette in guardia contro l'impotenza nei confronti dei deepfake generati dall'intelligenza artificiale

DiJohn PalmerJohn Palmer
Tempo di lettura: 4 minuti.
Elezione

  • L'organismo di controllo elettorale del Regno Unito non ha il potere di contrastare i deepfake generati dall'intelligenza artificiale, che rappresentano una minaccia per i processi democratici.
  • I recentidentdi deepfake che hanno preso di mira personaggi politici sollevano preoccupazioni sulla disinformazione nelle elezioni.
  • I giganti della tecnologia come TikTok e Google stanno implementando misure per contrastare i contenuti deepfake, ma le sfide persistono.

L'organismo di controllo elettorale del Regno Unito ha lanciato l'allarme, esprimendo la propria incapacità di contrastare i contenuti "deepfake", lasciando così la Gran Bretagna vulnerabile all'influenza dirompente dei video falsi di politici generati dall'intelligenza artificiale nelle prossime elezioni.

L'organismo di controllo elettorale del Regno Unito ha lanciato un duro avvertimento, rivelando la sua mancanza di autorità nel gestire la crescente minaccia dei contenuti "deepfake". Questa inquietante rivelazione mette a nudo la vulnerabilità del Paese alla potenziale manipolazione dei suoi processi elettorali attraverso l'uso di falsi video generati dall'intelligenza artificiale.

Gli esperti di intelligenza artificiale hanno lanciato l'allarme: le prossime elezioni nel Regno Unito potrebbero essere influenzate da convincenti "deepfake" audio e video di personaggi politici generati dall'intelligenza artificiale. Questa tecnologia rappresenta un rischio significativo per l'integrità dei processi democratici.

Recentidentdi deepfake

Negli ultimi mesi, si sono verificati casi notevoli di contenuti deepfake convincenti generati dall'intelligenza artificiale che prendevano di mira personaggi politici, in particolare all'interno del Partito Laburista. All'inizio di ottobre, un account Twitter/X ha pubblicato quello che sembrava essere un audio del leader laburista Sir Keir Starmer che faceva commenti denigratori sui membri dello staff del suo partito. A questo è seguito un clip audio deepfake del sindaco laburista di Londra Sadiq Khan che apparentemente mostrava mancanza di rispetto per le commemorazioni del Remembrance.

Lo status giuridico dei video e degli audio deepfake che coinvolgono personaggi politici rimane incerto. Sebbene possano potenzialmente rientrare nelle nuove misure contro le comunicazioni dannose previste dall'Online Safety Act, le autorità hanno dovuto affrontare difficoltà nel gestire tali contenuti. In particolare, la Polizia Metropolitana ha archiviato un'indagine sul deepfake di Sadiq Khan, sostenendo che non costituiva reato

Preoccupazioni per la disinformazione virale generata dall'intelligenza artificiale

Gli esperti esprimono preoccupazione per il fatto che i falsi video di politici generati dall'intelligenza artificiale possano diventare virali in vista delle prossime elezioni. La facilità e il basso costo di produzione di falsi video convincenti di personaggi pubblici che dicono o fanno cose scandalose hanno reso tale interferenza sempre più accessibile. Molti esperti del settore prevedono che attori statali ostili possano sfruttare la tecnologia emergente per influenzare le elezioni nel Regno Unito e interrompere il processo democratico.

A partire da novembre 2023, i materiali della campagna elettorale dovranno includere un "marchio" che indichi l'editore di determinati contenuti politici online. Tuttavia, non vi è alcun obbligo di rivelare se il contenuto sia generato dall'intelligenza artificiale e la Commissione elettorale non ha l'autorità di sanzionare o rimuovere la disinformazione. Sebbene l'Ofcom disponga di maggiori poteri normativi in ​​questo ambito, il quadro giuridico relativo alla disinformazione politica generata dall'intelligenza artificiale e ai deepfake rimane ambiguo.

Autorità limitata della Commissione elettorale

La Commissione Elettorale ha chiarito il proprio ruolo nell'affrontare i deepfake e i contenuti dei materiali elettorali, affermando di essere la principale responsabile della regolamentazione del finanziamento dei partiti e dei sostenitori e della garanzia del rispetto dei requisiti di impronta digitale. Pur riconoscendo le sfide poste dai contenuti generati dall'intelligenza artificiale, la Commissione non ha la giurisdizione per contrastare direttamente le problematiche legate ai deepfake.

La Commissione collabora attivamente con i partner e altri enti regolatori per comprendere meglio le opportunità e le sfide presentate dalla tecnologia dell'intelligenza artificiale nelle elezioni. Incoraggia inoltre gli elettori a valutare criticamente le informazioni online e offre indicazioni su comedentle fake news, indirizzando al contempo le preoccupazioni alle autorità di regolamentazione competenti.

Chiede il rafforzamento dei poteri normativi

Riconoscendo i limiti delle normative vigenti, la Commissione Elettorale chiede al governo del Regno Unito di rafforzare l'autorità delle autorità di regolamentazione del Regno Unito, inclusa la Commissione stessa. In particolare, la Commissione auspica maggiori poteri per ottenere informazioni dalle piattaforme di social media, dalle aziende tecnologiche e dai fornitori di servizi di pagamento online. Questa iniziativa mira adentle fonti di finanziamento delle campagne di disinformazione politica, affrontando un aspetto critico della questione.

Le risposte dei giganti della tecnologia

Byline Times ha contattato diversi colossi della tecnologia per chiedere informazioni sulle loro politiche e misure per contrastare i deepfake politici dannosi. TikTok, ad esempio, ha dichiarato di vietare qualsiasi pubblicità politica e di richiedere una chiara divulgazione di contenuti sintetici o manipolati che presentano scene realistiche. TikTok mantiene inoltre rigide politiche contro la disinformazione.

Google/Alphabet ha sottolineato i suoi continui sforzi per combattere la disinformazione e la sperimentazione della tecnologia di watermarking per identificare i contenuti generati dall'intelligenza artificiale. Google ha annunciato SynthID, uno strumento per incorporare watermark digitali impercettibili nelle immagini generate dall'intelligenza artificiale per verificarne l'autenticità.

Google ha inoltre evidenziato i progressi compiuti nel rilevamento di discorsi sintetici con una precisione prossima al 99% e ha annunciato l'intenzione di aggiornare la propria politica sui contenuti politici. Questo aggiornamento richiederà agli inserzionisti elettorali verificati di indicare in modo chiaro i contenuti sintetici nei propri annunci, che includono immagini, video e audio.

YouTube, di proprietà di Google, ha rigide politiche contro i "contenuti tecnicamente manipolati" che ingannano gli spettatori e comportano un rischio di danni gravi. YouTube richiederà inoltre ai creatori di dichiarare quando creano contenuti alterati o sintetici che appaiono realistici.

Sfide e rischi della disinformazione generata dall'intelligenza artificiale

Il rischio principale associato ai contenuti deepfake generati dall'intelligenza artificiale è la creazione di video convincenti che descrivono eventi mai accaduti o individui che dicono e fanno cose che non hanno mai fatto. Questo rischio diventa particolarmente sensibile nel contesto delle campagne elettorali, dove l'opinione pubblica può essere influenzata da tali contenuti fuorvianti.

Risposte di Meta/Facebook e Twitter

Meta/Facebook non ha fornito risposta alle richieste di informazioni sulle proprie politiche e misure per contrastare i deepfake politici. Twitter/X ha risposto automaticamente, senza fornire ulteriori dettagli sulla propria posizione o sulle azioni intraprese in merito alla questione.

Mentre la minaccia dei deepfake generati dall'intelligenza artificiale incombe sui processi democratici del Regno Unito, il Paese si trova ad affrontare una sfida cruciale: regolamentare e contrastare efficacemente la diffusione di questi contenuti ingannevoli. Il coinvolgimento dei giganti della tecnologia nell'attuazione di misure di contrasto ai deepfake sottolinea l'urgenza di affrontare questo problema per proteggere l'integrità delle elezioni e del dibattito democratico.

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO