Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha assunto un ruolo proattivo nella risoluzione delle sfide associate all'intelligenza artificiale (IA) pubblicando quattro bozze di pubblicazioni volte a garantire la sicurezza, la protezione e l'affidabilità dei sistemi di IA. Durante questo periodo, che termina il 2 giugno 2024, le bozze sono aperte ai commenti del pubblico. Ciò riflette la risposta del NIST all'Ordine Esecutivo sull'IA dell'ottobre 2023, che enfatizza la mitigazione degli effetti delle tecnologie di IA, promuovendo al contempo l'innovazione responsabile e il mantenimento della leadership tecnologica degli Stati Uniti.
Alleviare i rischi dell'intelligenza artificiale generativa
Un'area di interesse principale nelle del NIST in fase di bozza riguarda le minacce alla sicurezza derivanti dalle tecnologie di intelligenza artificiale generativa. Il profilo AI RMF AI Generative AI AI fornisce 12 rischi che vanno dall'elevata accessibilità a informazioni sensibili alla propagazione di incitamento all'odio e contenuti dannosi. Affrontare questi rischi è stata un'area di interesse chiave per il NIST, che ha identificato dent 400 potenziali azioni di gestione del rischio che le organizzazioni possono prendere in considerazione. Questo framework fornisce una struttura che gli sviluppatori possono seguire e sulla quale allineare i propri obiettivi e priorità.
Riduzione al minimo dei rischi dei dati di formazione
Un altro contenuto chiave presentato nelle bozze riguarda le modalità di protezione dei dati utilizzati nell'addestramento dei sistemi di intelligenza artificiale. La bozza di pubblicazione sulle pratiche di sviluppo software sicuro per l'intelligenza artificiale generativa e i modelli di base a duplice uso, che fa parte delle linee guida esistenti del NIST, è stata creata per garantire l'integrità dei sistemi di intelligenza artificiale nonostante le preoccupazioni relative ai dati di addestramento dannosi. Il NIST suggerisce alcuni modi per rendere sicuro il codice informatico e fornisce soluzioni per i problemi relativi ai dati, tra cui la raccolta e l'utilizzo degli stessi. Ciò renderà i sistemi di intelligenza artificiale più sicuri contro possibili minacce.
Incoraggiare la trasparenza nei contenuti creati dall'intelligenza artificiale
In risposta al rapido aumento del numero di materiali digitali sintetizzati, il NIST sta sviluppando misure di mitigazione per contrastare i rischi da essi derivanti nel suo prossimo documento sulla riduzione del rischio rappresentato dai materiali sintetici. Attraverso la filigrana digitale e la registrazione dei metadati, il NIST sta cercando di rendere possibile il trace l'dentdei media alterati, il che, si spera, impedirà alcune conseguenze negative, tra cui la distribuzione di immagini intime non consensuali e di materiale pedopornografico.
Promuovere l'impegno globale sugli standard di intelligenza artificiale
Riconoscendo che la cooperazione internazionale è uno degli elementi chiave per la definizione di standard relativi all'IA, il NIST ha prodotto una bozza del Piano di Impegno Globale sugli di IA . L'obiettivo di questo piano è incoraggiare la cooperazione e il coordinamento tra alleati internazionali, organizzazioni che sviluppano standard e settore privato per accelerare la definizione di standard tecnologici per l'IA. Dando priorità assoluta alla consapevolezza dell'origine dei contenuti e ai metodi di test, il NIST mira a sviluppare un tron che garantisca il funzionamento sicuro ed eticamente corretto delle tecnologie di IA in tutto il mondo.
Avvio di NIST GenAI
@CommerceGov ha annunciato nuove azioni relative all'Ordine Esecutivo sull'IA, come un nuovo programma chiamato NIST GenAI Challenge. Valuterà e misurerà le tecnologie di IA generativa. Per saperne di più sulla sfida e sulle altre azioni : https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— Istituto nazionale per gli standard e la tecnologia (@NIST) 1 maggio 2024
Inoltre, l'istituto ha creato NIST GenAI, uno strumento software che valuta e quantifica le capacità degli strumenti di intelligenza artificiale generativa. NIST GenAI sarà uno strumento con cui il NIST AI Safety Institute potrà proporre problemi di sfida e valutazioni pilota per aiutare l'US AI Safety Institute del NIST a distinguere tra l'input dell'algoritmo di intelligenza artificiale e i contenuti prodotti dall'uomo. L'obiettivo principale di questa iniziativa è promuovere l'affidabilità delle informazioni e fornire indicazioni sulla dimensione etica della creazione di contenuti nell'era dell'intelligenza artificiale.
L'annuncio da parte del NIST di queste bozze di report e il lancio di NIST GenAI segnano un'iniziativa attiva e orientata allo sviluppo per risolvere i problemi legati all'IA che mettono alla prova la nostra società, garantendo al contempo la sicurezza dell'innovazione. Grazie alla richiesta di contributi da parte del NIST da parte di stakeholder chiave, come le aziende che hanno sviluppato o implementato tecnologie di IA, la piattaforma può influenzare la definizione delle linee guida per la sicurezza e gli standard dell'IA. Attraverso il coinvolgimento attivo in questo processo, gli stakeholder possono contribuire a definire le pratiche più diffuse e l'approccio standard del settore, che in ultima analisi porta a un livello di sicurezza e a un ecosistema di IA affidabile.

