In un'epoca in cui l'intelligenza artificiale continua a spingere i confini dell'innovazione tecnologica, sta emergendo una nuova collaborazione tra artisti e ricercatori universitari per salvaguardare la proprietà intellettuale delle menti creative. Il recente episodio che ha coinvolto l'illustratrice statunitense Paloma McClain, vittima di una riproduzione non autorizzata di una sua opera tramite intelligenza artificiale, ha innescato una reazione proattiva all'interno della comunità artistica, portando allo sviluppo di soluzioni software innovative per prevenire la contraffazione tramite IA.
L'illustratrice statunitense Paloma McClain si è trovata nel mirino dell'incessante ricerca di replicazione creativa da parte dell'intelligenza artificiale. Diversi modelli di intelligenza artificiale si erano "addestrati" utilizzando la sua arte a sua insaputa o senza il suo consenso, lasciandola senza il dovuto riconoscimento o compenso. McClain, convinta sostenitrice del progresso etico e tecnologico, ha espresso le sue preoccupazioni: "Credo che un progresso tecnologico veramente significativo sia realizzato eticamente e valorizzi tutte le persone, invece di agire a spese degli altri"
In risposta al crescente problema dell'imitazione dell'IA, Paloma McClain si è rivolta a Glaze, un rivoluzionario software gratuito creato da ricercatori dell'Università di Chicago. La funzione principale di Glaze è quella di superare in astuzia i modelli di IA durante il loro processo di addestramento, manipolando i pixel in modi sottili che rimangono invisibili all'occhio umano, alterando drasticamente l'aspetto dell'arte digitalizzata agli algoritmi di IA.
Proteggere i creatori umani
Il professor Ben Zhao, membro chiave del team di sviluppo di Glaze, ha sottolineato la loro missione: "In pratica, stiamo fornendo strumenti tecnici per aiutare a proteggere i creatori umani da modelli di intelligenza artificiale invasivi e abusivi". Questo software, sviluppato in quattro mesi, si basa su una tecnologia inizialmente progettata per inibire i sistemi di riconoscimento facciale. Zhao ha sottolineato l'urgenza della situazione, spiegando: "Stavamo lavorando a velocità supersonica perché sapevamo che il problema era serio. Molte persone stavano soffrendo"
Sebbene alcuni colossi dell'intelligenza artificiale generativa abbiano accordi formali per l'utilizzo dei dati, una parte significativa dei dati impiegati per addestrare l'intelligenza artificiale, tra cui immagini digitali, audio e testo, viene prelevata da Internet senza esplicito consenso. Questa pratica solleva interrogativi cruciali sull'uso etico dell'intelligenza artificiale e sui diritti di proprietà intellettuale.
Dal suo lancio nel marzo 2023, Glaze ha registrato un'ampia adozione, con oltre 1,6 milioni di download, a dimostrazione dell'urgenza di strumenti che proteggano gli artisti dalla replicazione dell'IA. Il team di Glaze sta sviluppando un potenziamento noto come Nightshade, che mira a confondere ulteriormente l'IA distorcendone le interpretazioni, ad esempio facendole percepire un cane come un gatto.
Nel sostenere Nightshade, Paloma McClain ha sottolineato il suo potenziale impatto significativo se ampiamente adottato: "Secondo la ricerca di Nightshade, non servirebbero così tante immagini contaminate come si potrebbe pensare". Diverse aziende hanno già contattato il team di Zhao per valutare l'uso di Nightshade, sottolineandone l'importanza nella protezione sia dei singoli artisti sia delle organizzazioni con una notevole proprietà intellettuale.
Kudurru: difendersi dalla raccolta di immagini
Viva Voce Startup Spawning ha contribuito alla difesa delle opere creative con il suo software Kudurru. Kudurru rileva i tentativi di raccogliere immagini di grandi dimensioni da fonti online, consentendo agli artisti di bloccarne l'accesso o di fornire dati fuorvianti per interrompere il processo di apprendimento dell'intelligenza artificiale. Oltre mille siti web sono già integrati nella rete Kudurru.
Spawning ha ampliato i suoi sforzi con il lancio di haveibeentrained.com, un sito web che offre uno strumento online che consente agli artisti di verificare se le loro opere digitalizzate siano state utilizzate per addestrare modelli di intelligenza artificiale. Questa piattaforma consente agli artisti di negare il consenso a futuri utilizzi non autorizzati, garantendo il necessario controllo sui propri contenuti creativi.
I ricercatori della Washington University nel Missouri si sono cimentati nella protezione delle registrazioni vocali con il loro software AntiFake. Il programma arricchisce le registrazioni vocali digitali con rumori impercettibili, rendendo "impossibile sintetizzare una voce umana", secondo Zhiyuan Yu, ildent che ha ideato il progetto. L'obiettivo di AntiFake va oltre la semplice prevenzione dell'addestramento non autorizzato dell'intelligenza artificiale, impedendo la creazione di deepfake, una preoccupazione crescente nell'era della disinformazione basata sull'intelligenza artificiale.
Un appello per un utilizzo etico dei dati
Con l'evoluzione di queste soluzioni software, il dibattito sull'uso etico dei dati per l'intelligenza artificiale rimane fondamentale. Jordan Meyer, co-fondatore di Spawning, ha articolato l'obiettivo finale: "La soluzione migliore sarebbe un mondo in cui tutti i dati utilizzati per l'intelligenza artificiale siano soggetti a consenso e pagamento". I sostenitori sperano di guidare gli sviluppatori in questa direzione, dando priorità al consenso e all'equità nell'utilizzo dei dati dell'intelligenza artificiale.
In conclusione, la collaborazione tra artisti e ricercatori sta guidando lo sviluppo di soluzioni software innovative per contrastare l'imitazione delle opere creative da parte dell'IA. Le piattaforme software Glaze, Nightshade, Kudurru e AntiFake rappresentano passi da gigante nella protezione della proprietà intellettuale in un mondo sempre più guidato dall'IA. Sebbene queste tecnologie forniscano preziosi meccanismi di difesa, sottolineano anche la necessità di un dibattito più ampio sull'uso etico dei dati nell'intelligenza artificiale. Mentre artisti e creatori continuano a far valere i propri diritti, il futuro dell'IA e della proprietà intellettuale è destinato a un'evoluzione più etica ed equilibrata.

