ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Ted Cruz spinge per un divietotracdel porno di vendetta generato dall'intelligenza artificiale in Texas

DiJai HamidJai Hamid
Tempo di lettura: 3 minuti.
Immagine del senatore americano Ted Cruz e una bandiera statunitense sullo sfondo
  • Ted Cruz sta promuovendo una proposta di legge bipartisan per vietare il revenge porn generato dall'intelligenza artificiale, obbligando le piattaforme a rimuovere i contenuti deepfake entro 48 ore dalla notifica.
  • Vittime come Elliston Berry, 15 anni, hanno raccontato come le immagini alterate dall'intelligenza artificiale abbiano distrutto le loro vite, mentre le piattaforme non sono riuscite ad agire rapidamente.
  • Google, Meta e TikTok sostengono la proposta di legge, poiché il porno deepfake rappresenta ormai il 98% di tutti i contenuti online generati dall'intelligenza artificiale.

A pochi giorni dalla conclusione della sessione del Congresso, il senatore del Texas Ted Cruz sta tentando l'ultimo passo per far approvare un disegno di legge che criminalizzi il revenge porn generato dall'intelligenza artificiale.

La proposta, S.4569, prende di mira i deepfake, la tecnologia sempre più diffusa che sovrappone il volto di qualcuno a immagini o video pornografici senza il suo consenso. Se approvata, la legge obbligherebbe i siti web e le piattaforme di social media a rimuovere i contenuti entro 48 ore dalla segnalazione da parte della vittima.

Il disegno di legge è bipartisan, co-sponsorizzato dalla senatrice democratica Amy Klobuchar, ed è stato approvato all'unanimità dal Senato il 3 dicembre. Ora tutti gli occhi sono puntati sulla Camera, dove i legislatori hanno solo pochi giorni per approvare il disegno di legge correlato, HR 8989.

In una conferenza stampa dell'11 dicembre, Cruz ha dichiarato: "Ogni vittima dovrebbe avere il diritto di dire: 'Quello sono io. Questa è la mia immagine, e non avete il mio permesso di diffondere questa spazzatura là fuori'"

Le vittime si esprimono mentre le aziende tecnologiche sostengono il disegno di legge

Elliston Berry, una ragazza di 15 anni la cui immagine alterata dall'intelligenza artificiale si è diffusa a macchia d'olio su Snapchat, ha condiviso il suo incubo durante l' evento.

"Quella mattina mi sono svegliata, ed è stata una delle peggiori sensazioni che abbia mai provato", ha detto, descrivendo come l'immagine falsa sia circolata per nove mesi prima che l'ufficio di Cruz intervenisse per farla rimuovere. Gli innumerevoli sforzi della sua famiglia per convincere le piattaforme ad agire erano falliti.

La storia di Berry non è unica, ed è proprio questo il problema. La pornografia deepfake è esplosa, costringendo le vittime a lottare per rivendicare la propria privacy, mentre le aziende tecnologiche cercano di recuperare terreno.

Per la madre di Berry, raggiungere l'ufficio di Cruz è stato un punto di svolta. Ci è voluto l'intervento diretto di un senatore degli Stati Uniti per convincere un'importante piattaforma social a rimuovere i contenuti. Per la maggior parte delle vittime, questo tipo di accesso non è un'opzione.

I giganti della tecnologia Google, Meta, Microsoft e TikTok stanno sostenendo la proposta di legge di Cruz. Potrebbe sembrare sorprendente, ma la realtà è che sono sotto pressione crescente per intervenire. I critici hanno a lungo criticato le piattaforme per il loro ritardo nella rimozione dei contenuti deepfake. La proposta di legge di Cruz li costringe a farlo: 48 ore, nessuna scusa.

La senatrice Klobuchar ha sottolineato la necessità di agire ora. "Questo lavoro riguarda la costruzione di un futuro, l'affrontare le sfide del nuovo ambiente in cui viviamo e non limitarsi a fingere che non stia più accadendo"

Un problema che nessuno può ignorare

L'intelligenza artificiale ha reso la creazione di deepfake incredibilmente semplice. Strumenti che un tempo richiedevano competenze e risorse avanzate sono ora disponibili a chiunque disponga di un computer portatile e di una connessione a Internet. Non è un caso che il 98% di tutti i contenuti deepfake online sia pornografico.

I numeri sono scioccanti. Quest'anno, il National Center for Missing and Exploited Children (NCMEC) ha segnalato 4.700 casi di materiale pedopornografico generato dall'intelligenza artificiale.

La tecnologia alimenta anche gli angoli più oscuri di internet. Un caso recente in Wisconsin ha visto un uomo di 42 anni arrestato per aver creato e distribuito migliaia di immagini esplicite di minori tramite intelligenza artificiale. Un altro caso ha coinvolto uno psichiatra infantile condannato a 40 anni di carcere per aver utilizzato l'intelligenza artificiale per generare immagini alterate di bambini veri.

La pornografia deepfake non si limita ai minori. Celebrità, influencer e persone comuni vengono prese di mira a ritmi allarmanti. Chiunque abbia un'immagine pubblica, o anche un account sui social media, può diventarne vittima. In assenza di leggi federali, le vittime hanno poche possibilità di ricorso.

L'intelligenza artificiale sta diventando sempre più intelligente. Se i legislatori non intervengono subito, il danno non potrà che aggravarsi. I legislatori lo sanno chiaramente. E lo sanno anche le vittime. Ora spetta al Congresso decidere se reagire o lasciare che la crisi dei deepfake continui a infuriare senza controllo.

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO