Meta, precedentemente nota come Facebook, ha presentato una politica ampliata per affrontare le sfide associate alla proliferazione di generati dall'intelligenza artificiale sulle sue piattaforme, tra cui Facebook, Instagram e Threads.
In risposta al crescente utilizzo dell'intelligenza artificiale generativa, l'azienda implementerà ora etichette di avvertimento sulle immagini generate dall'IA per informare gli utenti della loro origine artificiale. Sebbene questa iniziativa sia considerata positiva, permangono preoccupazioni sulla sua efficacia nel contrastare gli autori di attacchi informatici e sui limiti della tecnologia.
Etichette di avvertenza sulle immagini generate dall'intelligenza artificiale
L'ultima modifica alla politica di Meta prevede l'etichettatura delle immagini generate dall'intelligenza artificiale, siano esse create con i propri strumenti di intelligenza artificiale generativa o fornite da altre aziende, con etichette che ne indichino la natura artificiale. Questa mossa è pensata per ridurre il rischio di diffusione di disinformazione e disinformazione tramite immagini generate dall'intelligenza artificiale spacciate per foto reali.
Meta ha etichettato le immagini prodotte dalla sua intelligenza artificiale come "Immaginate con l'intelligenza artificiale", principalmentedentla filigrana digitale incorporata dai suoi algoritmi nell'output.
Sfide e limitazioni
Nonostante l'impegno di Meta nell'implementare queste etichette di avvertimento, permangono sfide significative. Una delle principali è che molti strumenti di generazione di immagini basati sull'intelligenza artificiale non applicano una filigrana al loro output, rendendo facile per i malintenzionati manipolare e diffondere contenuti generati dall'intelligenza artificiale senza rivelarne il contenuto.
Inoltre, la tecnologia per rilevare in modo affidabile le immagini generate dall'intelligenza artificiale ed etichettarle è ancora in fase di sviluppo e non esiste uno standard universalmente diffuso.
La Coalition for Content Provenance and Authenticity (C2PA), un'iniziativa fondata da Adobe, ha cercato di allineare il lavoro delle aziende sulla provenienza dei contenuti. Tuttavia, la tecnologia sviluppata finora non è infallibile.
I ricercatori hanno dimostrato la facilità con cui le filigrane possono essere rotte o aggiunte a immagini non generate dall'intelligenza artificiale, compromettendone l'efficacia.
Hany Farid, professore presso la UC Berkeley School of Information e consulente dell'iniziativa C2PA, avverte che i malintenzionati potrebbero utilizzare strumenti di intelligenza artificiale che non applicano una filigrana ai loro output per ingannare ulteriormente gli utenti.
Egli suggerisce che una combinazione dident, come la filigrana e la tecnologia, potrebbe essere necessaria perdenti contenuti generati dall'intelligenza artificiale. La filigrana è meno sviluppata per i media generati dall'intelligenza artificiale oltre alle immagini, come audio e video.
Ampliare le politiche e la supervisione
Sebbene le nuove politiche di Meta rappresentino un passo avanti nella lotta ai contenuti falsi, non si limitano al materiale generato dall'intelligenza artificiale. Il Consiglio di vigilanza dell'azienda, composto da espertident , ha recentemente confermato la decisione di Meta di pubblicare un video deldent Joe Biden modificato per creare un'impressione fuorviante.
Questa decisione evidenzia la necessità per Meta di rivedere ed espandere le sue regole sui "media manipolati" per includere più dei semplici contenuti generati dall'intelligenza artificiale.
Il portavoce di Meta, Kevin McAlister, riconosce la necessità di un approccio più ampio, affermando: "Mentre le aziende stanno iniziando a includere segnali nei loro generatori di immagini, non hanno ancora iniziato a includerli negli strumenti di intelligenza artificiale che generano audio e video alla stessa scala"
Meta sta quindi lavorando all'aggiunta di una funzionalità che consenta agli utenti di dichiarare quando condividono video o audio generati dall'intelligenza artificiale, in modo da poter applicare le etichette appropriate.

