ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

La Gran Bretagna affida a Microsoft il rilevamento dei deepfake in vista dell'aumento dell'intelligenza artificiale

DiEnacy MapakameEnacy Mapakame
Tempo di lettura: 3 minuti.
La Gran Bretagna affida a Microsoft il rilevamento dei deepfake in vista dell'ondata di intelligenza artificiale.
  • La Gran Bretagna collabora con Microsoft per definire gli standard per gli strumenti di rilevamento dei deepfake.
  • Il framework è mirato a contrastare le frodi, gli abusi e le minacce di impersonificazione online.
  • Le autorità di regolamentazione indagano sulle piattaforme di intelligenza artificiale in merito alle immagini non consensuali.

La Gran Bretagna ha annunciato l'intenzione di collaborare con Microsoft, accademici ed esperti tecnici per creare un sistema di rilevamento dei deepfake, mentre cresce la preoccupazione per la portata degli inganni generati dall'intelligenza artificiale online.

L'iniziativa pone deepfake, intelligenza artificiale, Gran Bretagna, Microsoft e sistemi di rilevamento al centro di una nuova spinta per limitare i contenuti dannosi che stanno diventando sempre più realistici e difficili da individuare.

La Gran Bretagna prende di mira le frodi e le immagini non consensuali

Secondo il governo, la partnership svilupperà un quadro di valutazione per il rilevamento dei deepfake, che creerà una serie di standard condivisi per la valutazione dei dispositivi di rilevamento dei circuiti per file audio, video e immagini alterati.

Oltre a fornire un punto di riferimento per questi tipi di dispositivi di rilevamento rispetto ad esempi di utilizzo nel mondo reale (frode e impersonificazione), nonché immagini o video di sfruttamento sessuale di minori.

Il ministro della Tecnologia Liz Kendall ha avvertito che questo rischio non esiste solo in teoria.

"I deepfake vengono utilizzati dai criminali per ingannare il pubblico, approfittare di donne e ragazze e sminuire la credibilità di ciò che vediamo e sentiamo. E continueranno a farlo finché non adotteremo misure per proteggere i cittadini e le istituzioni democratiche dalla manipolazione"

Kendall

L'alterazione dei media esiste da decenni. Tuttavia, gli esperti affermano che con lo sviluppo dell'intelligenza artificiale, la quantità di denaro e le competenze necessarie per produrre un falso sono più accessibili che mai.

Nel Regno Unito, l'attenzione è sempre maggiore per l'atto criminale di produrre immagini intime senza consenso, come conseguenza diretta del rapido aumento del numero di immagini false prodotte dall'intelligenza artificiale.

Secondo i dati governativi, nel 2025 sono state prodotte otto milioni di immagini false come deepfake, rispetto alle sole 500.000 del 2023. Questo dimostra la rapidità con cui le persone creano questo tipo di immagini.

Il quadro è stato creato per consentire alle forze dell'ordine di individuare, prevenire e perseguire questo reato e per fornire al settore un insieme chiaro di aspettative in merito alle normative di sicurezza.

Si tratta di una mossa che i governi sono stati sollecitati a fare e Microsoft ha invitato il Congresso nel 2024 ad approvare una nuova legislazione contro i deepfake. Brad Smith, vicepresidente e presidentedent Microsoft, ha sottolineato l'urgenza per i legislatori di affrontare la crescente minaccia della tecnologia deepfake.

Nel suo post sul blog, Smith ha sottolineato l'importanza di adattare le leggi per contrastare le frodi sui deepfake e prevenirne lo sfruttamento. Secondo Smith, dovrebbe esserci una legge che consenta di incriminare le truffe e le frodi sui deepfake.

Secondo il rapporto di Microsoft, sono possibili diversi interventi legali per prevenire l'uso improprio della tecnologia deepfake. Uno dei suggerimenti è quello di creare una "legge federale contro le frodi tramite deepfake"

Pressione sulle piattaforme attraverso la regolamentazione

In tutto il mondo le autorità di regolamentazione hanno difficoltà a tenere il passo con i rapidi progressi della tecnologia dell'intelligenza artificiale.

Nel Regno Unito, sia l'autorità che regola le comunicazioni (il "Communications Regulator") sia l'autorità che regola la privacy (il "Privacy Regulator") hanno avviato un'indagine sul chatbot Grok, gestito da Elon Musk, a causa della produzione da parte del chatbot di immagini sessualizzate di minori, create senza il loro consenso.

Nell'ambito di questa indagine, i due enti di regolamentazione collaboreranno per sviluppare un nuovo quadro per assistere le forze dell'ordine e gli enti di regolamentazione nello stabilire standard coerenti su come valutare gli strumenti di rilevamento utilizzati dalle forze dell'ordine e dagli enti di regolamentazione.

Secondo Kendall, lo scopo di questo nuovo quadro è "promuovere il ripristino della fiducia in ciò che le persone vedono e sentono online" e richiedere a tutti i fornitori di tecnologia di assumersi la responsabilità di mitigare i potenziali danni correlati all'uso accelerato delle tecnologie di intelligenza artificiale.

Se vuoi iniziare a muoverti con più calma nel DeFi mondo delle criptovalute , senza il solito clamore, inizia con questo video gratuito.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO