Le immagini generate dall'intelligenza artificiale possono ingannare l'utente, facendogli percepire contenuti falsi come originali. Ecco perché OpenAI, lo sviluppatore di ChatGPT, ha creato uno strumento in grado di determinare se un'immagine deriva da DALL-E 3, l'algoritmo per la generazione di immagini da loro sviluppato.
Martedì, OpenAI ha offerto agli utenti la prima possibilità di testare uno strumento di rilevamento delle immagini composto da modelli di base e ottimizzati. L'obiettivo è coinvolgere ricercatori autonomi per esaminarne l'apprensione, l'utilità, le modalità di applicazione e i fattori che potrebbero determinare la generazione di contenuti tramite intelligenza artificiale.
Tasso di successo e test dello strumento
OpenAI ha testato lo strumento internamente e, per alcuni aspetti, i risultati sono stati incoraggianti, mentre per altri molto deludenti. La valutazione delle immagini prodotte da DALL-E 3 ha restituito correttamente il 98% di esse. Inoltre, analizzando immagini non prodotte da DALL-E 3, il sistema le attribuiva erroneamente a DALL-E 3 solo nello 0,5% dei casi.
OpenAI non ha rilevato modifiche significative in un'immagine. Il team interno ha testato lo strumento comprimendo, ritagliando e modificando la saturazione dell'immagine creata da DALL-E 3, osservando che lo strumento era comunque in grado di raggiungere un buon livello di successo.
Sfide e limitazioni
Sfortunatamente, lo strumento non si è rivelato molto efficace con le immagini elaborate in modo estensivo. Il testo di questo articolo di OpenAI non è chiaro su quante modifiche siano state apportate nei casi descritti, e afferma che "altre modifiche possono ridurre le prestazioni"
In un'intervista al Wall Street Journal, la ricercatrice Sandhini Agarwal ha affermato che lo strumento è meno efficace in situazioni come la modifica della tonalità di un'immagine e che è richiesto un abbonamento. Come ha affermato Agarwal, per affrontare questo tipo di problemi, OpenAI coinvolgerà tester esterni nel sistema.
Inoltre, i test interni hanno messo in dubbio la capacità dello strumento di analizzare le immagini realizzate con modelli di intelligenza artificiale di altre aziende. In tali situazioni, lo strumento di OpenAI riusciva a riconoscere solo il 5% o il 10% delle immagini rispetto a modelli diversi. Tali modifiche in tali immagini, come i cambi di tonalità, ne riducevano significativamente l'efficienza, ha spiegato Agarwal al Journal.
Le immagini create dall'intelligenza artificiale non sono solo artificiali, ma pongono anche problemi in questo anno elettorale. Gruppi lesi, sia all'interno che all'esterno di un Paese, possono facilmente utilizzare tali foto per contaminare un aspirante politico o una causa sostenuta. Oggigiorno, con i generatori di immagini basati sull'intelligenza artificiale in continua evoluzione, il confine tra realtà e fantasia è più difficile che mai da tracciare.
Adozione da parte del settore
D'altro canto, OpenAI sta cercando di aggiungere filigrane ai metadati delle immagini di intelligenza artificiale, man mano che le aziende diventano membri della User Value Organization (UVG). Il C2PA fa parte di un'iniziativa del settore tecnologico che prevede standard tecnici per rivelare la fonte del contenuto e la sua autenticità, attraverso un processo noto come filigrana. Il gigante di Facebook Meta ha dichiarato all'inizio di questo mese che la sua intelligenza artificiale sarà etichettata come tale dallo standard C2PA a partire da maggio.

