ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Microsoft esorta il Congresso degli Stati Uniti ad affrontare il problema dei deepfake generati dall'intelligenza artificiale

DiBrenda KananaBrenda Kanana
Tempo di lettura: 2 minuti.
Microsoft esorta il Congresso degli Stati Uniti ad affrontare il problema dei deepfake generati dall'intelligenza artificiale
  • Microsoft sollecita il Congresso ad approvare una nuova legge per affrontare il problema dei deepfake generati dall'intelligenza artificiale.
  • La proposta di legge federale contro le frodi tramite deepfake coprirebbe aspetti penali e civili.
  • Il Senato degli Stati Uniti ha approvato un disegno di legge che prende di mira i deepfake sessualmente espliciti.

Microsoft ha chiesto al Congresso di approvare una nuova legislazione contro i deepfake generati dall'intelligenza artificiale. Brad Smith, vicepresidente edent di Microsoft, ha sottolineato l'urgenza per i legislatori di affrontare la crescente minaccia della tecnologia deepfake. 

In un recente post sul blog, Smith ha sottolineato l'importanza di adattare le leggi per contrastare le frodi sui deepfake e prevenirne lo sfruttamento. Secondo Smith, dovrebbe esserci una legge che consenta di incriminare le truffe e le frodi sui deepfake. 

Microsoft propone una legge federale contro le frodi deepfake

Secondo il rapporto di Microsoft, è possibile adottare diverse misure legali per prevenire l'uso improprio della tecnologia deepfake. Una delle proposte è quella di creare una "legge federale sulle frodi deepfake". Questa nuova legge affronterà sia gli aspetti civili che penali delle frodi sui contenuti sintetici e potrebbe comportare le seguenti misure: accuse penali, sequestri civili e ingiunzioni. 

Il rapporto sostiene inoltre l'obbligo didentsintetica dei contenuti. Attraverso la regolamentazione dell'uso di strumenti avanzati di verifica della provenienza, il pubblico potrebbe quindi apprezzare l'origine dei contenuti che riceve online. Ciò è importante per la credibilità delle informazioni digitali e per contrastare la diffusione di fake news. 

"Il Congresso dovrebbe richiedere ai fornitori di sistemi di intelligenza artificiale di utilizzare strumenti di provenienza all'avanguardia per etichettare i contenuti sintetici. Ciò è essenziale per creare fiducia nell'ecosistema informativo e aiuterà il pubblico a capire meglio se i contenuti sono generati dall'intelligenza artificiale o manipolati"

Brad Smith

Inoltre, Microsoft propone di modificare le attuali leggi sullo sfruttamento minorile e sulle immagini esplicite non consensuali, in modo da includere anche le immagini prodotte dall'intelligenza artificiale. Ciò garantirebbe che i quadri giuridici siano in linea con gli sviluppi tecnologici, al fine di proteggere anche le categorie di persone più vulnerabili. 

Il Senato degli Stati Uniti ha recentemente preso provvedimenti in tal senso, approvando un disegno di legge mirato ai deepfake sessualmente espliciti. Questa nuova legge consente alle vittime di deepfake sessualmente espliciti creati dall'intelligenza artificiale e non consensuali di citare in giudizio i creatori dei contenuti. 

La FCC dice "no" alle chiamate automatiche con intelligenza artificiale

Anche Microsoft ha risposto all'uso improprio dell'intelligenza artificiale e ha rafforzato le misure di sicurezza sui suoi prodotti. L'azienda ha recentemente potenziato il creatore di immagini Designer AI a seguito di una vulnerabilità che era stata sfruttata per produrre immagini oscene di celebrità. Smith ha affermato che il settore privato deve adottare misure per garantire che l'intelligenza artificiale non venga utilizzata impropriamente e che spetta alle aziende tecnologiche garantire che gli utenti non subiscano danni. 

La FCC ha già preso provvedimenti contro l'uso improprio dell'IA vietando l'uso della voce artificiale nelle chiamate automatiche. Tuttavia, l'IA generativa sta migliorando sempre di più nella generazione di audio, immagini e video falsi. Questo problema è stato recentemente aggravato da un video deepfake delladent degli Stati Uniti Kamala Harris, diffuso sui social media, che ha esemplificato la crescente pericolosità della tecnologia deepfake.

Anche altre organizzazioni no-profit, come il Center for Democracy and Technology (CDT), sono impegnate nella lotta contro l'abuso dei deepfake. Come osservato da Tim Harper, analista politico senior del CDT, il 2024 segna una svolta cruciale per l'IA nelle elezioni, e le persone devono prepararsi. L'attuale resistenza ai deepfake è una prima forma di quella che potrebbe essere una lottatraccontro la manipolazione tecnologica. 

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO