In risposta alle crescenti preoccupazioni sulla proliferazione di contenuti generati dall'intelligenza artificiale, le principali aziende tecnologiche hanno annunciato iniziative volte a rilevare ed etichettare tali contenuti.
Questi sforzi giungono sulla scia di incidenti dent lo scandalo dei deepfake pornografici di Taylor Swift e la diffusione dei deepfake politici.
Big Tech Bands collabora per etichettare e rilevare i contenuti generati dall'intelligenza artificiale.
Meta, precedentemente Facebook, ha annunciato l'intenzione di etichettare le immagini generate dall'intelligenza artificiale sulle sue piattaforme, tra cui Facebook, Instagram e Threads. Queste etichette, marcatori visibili, filigrane invisibili e metadati incorporati nei file immagine mirano ad aumentare la trasparenza e la responsabilità riguardo all'origine dei contenuti.
Google, d'altra parte, è entrata a far parte del comitato direttivo della C2PA (Content Authenticity Initiative), approvando un protocollo internet open source progettato per fornire "etichette nutrizionali" ai contenuti. Questa mossa simboleggia uno sforzo collaborativo tra i giganti della tecnologia per stabilire standard di settore per il rilevamento dei contenuti generati dall'intelligenza artificiale.
OpenAI implementa misure di provenienza dei contenuti
OpenAI ha anche introdotto misure per affrontare il problema. Aggiungerà filigrane ai metadati delle immagini generate con i suoi modelli di intelligenza artificiale, ChatGPT e DALL-E 3, fornendo un'etichetta visibile che indichi il coinvolgimento dell'intelligenza artificiale nella creazione dei contenuti.
Sebbene questi metodi rappresentino un passo avanti, non sono infallibili: permangono delle difficoltà nell'etichettatura e nel rilevamento di video, audio e testi generati dall'intelligenza artificiale.
Sfide e prospettive future
Nonostante i progressi nell'etichettatura dei contenuti e nella filigrana, persistono limitazioni tecniche. Le filigrane nei metadati possono essere aggirate catturando screenshot, mentre le etichette visive sono soggette a ritaglio o modifica. Le filigrane invisibili come SynthID di Google offrono una maggiore resilienza, ma non sono esenti da problematiche.
Necessità di quadri normativi
Oltre alle misure volontarie, i quadri normativi stanno guadagnando trac. Iniziative come l'AI Act dell'UE e il Digital Services Act impongono la divulgazione dei contenuti generati dall'intelligenza artificiale e la rimozione rapida di quelli dannosi. I legislatori statunitensi stanno anche valutando norme vincolanti sui deepfake, con la Federal Communications Commission che ha recentemente vietato l'uso dell'intelligenza artificiale nelle chiamate automatiche.
Sebbene le linee guida volontarie rappresentino un passo nella giusta direzione, permangono preoccupazioni circa la responsabilità del settore. La storia di autoregolamentazione del settore tecnologico solleva dubbi sull'efficacia delle misure volontarie. Tuttavia, i recenti annunci segnalano un progresso rispetto alla precedente mancanza di azione.

