ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Le app di intelligenza artificiale presenteranno "etichette di sicurezza" che evidenziano rischi e test

DiAamir SheikhAamir Sheikh
Tempo di lettura: 3 minuti.
Le app di intelligenza artificiale presenteranno "etichette di sicurezza" che evidenziano rischi e test
  • Gli sviluppatori di intelligenza artificiale dovranno includere nelle loro app etichette che menzionino rischi e problemi di sicurezza.
  • Questo passo aiuterà gli utenti a comprendere la tecnologia dell'intelligenza artificiale e a tutelare la privacy.
  • Una guida sull'anonimato dei dati sarà disponibile per i paesi della regione ASEAN.

Nel prossimo futuro, gli utenti di app di intelligenza artificiale generativa potrebbero trovare etichette che descrivono chiaramente come l'intelligenza artificiale dovrebbe essere utilizzata, i rischi associati e il processo di test. In seguito alle nuove linee guida, le etichette saranno rese obbligatorie per rendere la tecnologia più comprensibile al grande pubblico.

Leggi anche: L'Unione Europea (UE) assume un ruolo guida nella regolamentazione dell'IA

La ministra delle Comunicazioni e dell'Informazione di Singapore, Josephine Teo, ha affermato che la nuova misura rappresenta un tentativo di defiuno standard di trasparenza e di verifica per le aziende tecnologiche. La ministra ha rilasciato queste dichiarazioni durante la conferenza sulla protezione dei dati personali tenutasi il 15 luglio, secondo quanto riportato dallo Strait Times. 

Gli sviluppatori di app di intelligenza artificiale dovrebbero essere trasparenti riguardo alle loro innovazioni

Analogamente a quanto avviene con le etichette di sicurezza sui medicinali o sugli elettrodomestici, anche gli sviluppatori di app di intelligenza artificiale generativa devono essere chiari nell'informare gli utenti sull'utilizzo e lo sviluppo dei modelli di intelligenza artificiale. La signora Teo, che è anche Ministro responsabile dell'iniziativa Smart Nation e Cybersecurity, ha affermato:

"Raccomanderemo agli sviluppatori e agli sviluppatori di essere trasparenti con gli utenti, fornendo informazioni sul funzionamento dei modelli e delle app di intelligenza artificiale generativa."

Spiegando le prossime regole, il ministro ha detto che sono le stesse di quando un consumatore apre una "scatola di farmaci da banco". Trova un foglio di carta che spiega chiaramente come usare il farmaco e i possibili "effetti collaterali a cui si potrebbe andare incontro"

Teo ha affermato che "questo livello di trasparenza" è necessario per i sistemi di intelligenza artificiale basati su un'intelligenza artificiale generativa. Il nuovo insieme di regole defii parametri di sicurezza che dovrebbero essere rispettati prima che un modello di intelligenza artificiale venga reso disponibile al pubblico. 

La guida sull'anonimizzazione dei dati sarà pubblicata nel 2025

L'intelligenza artificiale generativa è un tipo di intelligenza artificiale in grado di generare nuovi testi e immagini e non è prevedibile come l'intelligenza artificiale tradizionale. Secondo le nuove linee guida, i creatori saranno tenuti a menzionare i rischi di diffusione di bugie, commenti ostili e narrazioni parziali nei contenuti.

Teo ha affermato che gli elettrodomestici sono dotati di etichette che indicano chiaramente che l'articolo è stato testato per un utilizzo sicuro; in caso contrario, il cliente non saprà se l'elettrodomestico è sicuro o meno. Lo stesso vale per le applicazioni di intelligenza artificiale. L'Infocomm Media Development Authority (IMDA) di Singapore avvierà una consultazione con il settore sulle nuove norme. Tuttavia, Teo non ha indicato una data per la pubblicazione delle linee guida.

L'IMDA ha anche pubblicato una guida sulle questioni relative alla privacy nella tecnologia, che soddisferà la crescente domanda di dati per addestrare modelli di intelligenza artificiale, tutelando al contempo la privacy degli utenti, ha affermato Teo.

Leggi anche: Tavola rotonda democratica ospiterà Mark Cuban e Brad Garlinghouse per discutere delle normative sulle criptovalute

Denise Wong, amministratore delegato associato di IMDA, ha affermato: "Garantire la sicurezza dei dati nell'intelligenza artificiale generativa è più impegnativo per il settore". Ha espresso il suo punto di vista in un dibattito separato su intelligenza artificiale e privacy dei dati durante l'evento. Al dibattito hanno partecipato rappresentanti di diverse aziende tecnologiche, tra cui OpenAI, produttore di ChatGPT, e la società di consulenza Accenture. 

Le misure di protezione dei dati dovrebbero essere implementate in tutte le fasi di sviluppo e implementazione dell'IA, ha affermato Jessica Gan Lee, responsabile legale per la privacy di OpenAI. Ha affermato che i modelli di IA dovrebbero essere addestrati su set di dati diversificati provenienti "da ogni angolo del mondo". Lee ha sottolineato che l'addestramento dell'IA dovrebbe includere più culture, lingue e fonti, oltre a trovare modi per limitare il trattamento dei dati personali.

Teo ha affermato che all'inizio del 2025 verrà introdotta una guida sull'anonimizzazione dei dati per le aziende che operano nell'ASEAN. La guida nascerà da un incontro di febbraio tra i funzionari regionali che hanno esplorato le modalità per creare un ecosistema digitale globale sicuro.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO