ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

La Germania mette in guardia le piattaforme social sulla diffusione di false immagini dell'Olocausto create dall'intelligenza artificiale

DiOwotunse AdebayoOwotunse Adebayo
Tempo di lettura: 3 minuti.
La Germania mette in guardia le piattaforme social dalla diffusione di false immagini dell'Olocausto create dall'intelligenza artificiale.
  • La Germania ha esortato le piattaforme dei social media a frenare la diffusione di false immagini dell'Olocausto generate dall'intelligenza artificiale.
  • Il Paese vuole che le piattaforme dei social media etichettino queste immagini e ne rimuova altre.
  • Nelle ultime settimane gli esperti hanno lanciato l'allarme sulla diffusione di software di intelligenza artificiale non sicuri.

La Germania ha messo in guardia le piattaforme dei social media dalla diffusione di false immagini dell'Olocausto create dall'intelligenza artificiale. Il governo e le istituzioni commemorative dell'Olocausto hanno chiesto alle piattaforme dei social media di fermare la diffusione di immagini false, che a loro avviso distorcono e banalizzano la storia.

In una recente lettera, i siti della memoria e i centri di documentazione dei campi di concentramento hanno espresso preoccupazione per la proliferazione delle cosiddette create dall'IA" relative allo sterminio di oltre sei milioni di ebrei in Germania da parte dei nazisti durante la Seconda Guerra Mondiale. Queste immagini includono rappresentazioni commoventi di eventi inventatidentcome incontri tra i prigionieri dei campi di concentramento e i loro liberatori o bambini dietro recinzioni di filo spinato.

La Germania vuole fermare la diffusione di false immagini dell'Olocausto create dall'intelligenza artificiale

Nella lettera inviata dalle organizzazioni, si sottolineava come i contenuti generati dall'intelligenza artificiale distorcano la storia banalizzando eventi seri accaduti molto tempo fa. Si affermava inoltre che tali immagini potrebbero alimentare la sfiducia nei confronti di documenti storici autentici. Wolfram Weimer, Ministro tedesco per la Cultura e i Media, ha dichiarato di sostenere le iniziative intraprese dalle istituzioni commemorative in questo caso, affermando che si tratta della scelta giusta.

Wolfram ha anche affermato di sostenere la loro decisione di far contrassegnare le immagini generate dall'intelligenza artificiale dell'anticodente, nei casi in cui necessario, rimuoverle dalle piattaforme dei social media. Ha affermato che si tratta di una questione di rispetto per milioni di persone che furono uccise e perseguitate sotto il regime di terrore della Germania nazista. Secondo la lettera delle istituzioni commemorative, queste ultime hanno osservato che i creatori delle immagini sembravano utilizzarle per generare attenzione online e guadagnare denaro.

Le organizzazioni hanno anche affermato che gli autori intendevano in parte diluire i fatti, scambiare i ruoli di vittima e carnefice e diffondere narrazioni revisioniste. Le istituzioni includono centri commemorativi per Belsen, Buchenwald, Dachau e altri campi di concentramento in cui furono uccisi ebrei, così come altre persone, tra cui Rom e Sinti. Hanno chiesto alle piattaforme dei social media di agire proattivamente contro le false immagini di intelligenza artificiale sull'Olocausto, anziché aspettare che fossero gli utenti a segnalarle.

Le organizzazioni dell'Olocausto vogliono che le immagini generate dall'intelligenza artificiale siano etichettate

Inoltre, hanno chiesto alle piattaforme di etichettarle chiaramente, poiché ritengono che ciò impedirà agli utenti che le hanno generate di monetizzarle. La diffusione di materiale di bassa qualità creato dall'intelligenza artificiale, che include testi, immagini o video falsi, ha suscitato allarme tra molti esperti. Ritengono che ciò possa inquinare il panorama informativo e rendere difficile per gli utenti distinguere la verità dalla falsità. L'dent segue quello con cui le aziende di intelligenza artificiale, in particolare xAI di Elon Musk, proprietaria del chatbot Grok, stanno attualmente lottando.

L'azienda è stata sotto pressione nelle ultime due settimane a causa di alcuni utenti che hanno generato migliaia di immagini deepfake a sfondo sessuale di donne e minori e le hanno diffuse su diverse piattaforme di social media. La minaccia ha spinto diversi leader di diversi Paesi a richiamare l'azienda all'ordine, mentre altri le hanno chiesto di sviluppare misure di sicurezza appropriate per affrontare l'incidentedentPaesi come l'Indonesia hanno anche annunciato un divieto temporaneo del chatbot fino a quando la situazione non sarà risolta.

Nel frattempo, la piattaforma ha confermato che bloccherà geograficamente la possibilità per gli utenti di Grok e X di generare deepfake di persone in luoghi in cui tali azioni sono considerate illegali. Resta tuttavia da vedere se le nuove misure di sicurezza si applicheranno alla sua applicazione standalone o al suo sito web. Resta anche da vedere se le misure impediranno agli utenti di generare questo tipo di immagini o li spingeranno a cercare nuovi modi per accedere al servizio.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO