L'Office of Management and Budget (OMB) degli Stati Uniti ha pubblicato una nuova politica per garantire un'efficiente supervisione del settore in espansione dell'intelligenza artificiale nei contratti governativi trac La direttiva mira ad aiutare federali a tenere il passo con le tendenze emergenti dell'innovazione, la gestione del rischio e la governance.
Il memorandum, redatto dalla Sig.ra Shalanda D. Young, sottolinea i principi fondamentali per l'implementazione delle tecnologie di intelligenza artificiale senza compromettere i diritti e la sicurezza delle persone. La posizione dell'amministrazione è quella di utilizzare questa tecnologia in modo saggio e allo stesso tempo a beneficio di tutti.
Istituzione di responsabili dell'IA per guidare la governance e l'innovazione dell'IA in modo responsabile
Un requisito fondamentale del memorandum è quello di prevedere che ogni dipartimento e agenzia designi entro 60 giorni un Chief AI Officer (CAIO) che svolga un ruolo dedicato alla supervisione delle iniziative di intelligenza artificiale e al coordinamento continuo degli sforzi con le attuali politiche federali in materia di intelligenza artificiale e i principi etici.
Questa manovra stabilisce la filosofia del potere esecutivo di avere un organo di governance dell'IA ben inserito nelle norme e nella burocrazia del governo federale e, pertanto, di supervisionare e garantire la responsabilità.
I compiti dei CAIO comporteranno una forte responsabilità, tra cui il coordinamento dell'uso dell'IA, la promozione dell'innovazione, la gestione dei rischi correlati e la consulenza ai dirigenti delle loro agenzie in materia di IA in qualità di consulenti senior.
Le direttive riassumono le richieste per un quadro di innovazione dell'IA responsabile, incoraggiando le agenzie a sviluppare opzioni per integrare le tecnologie di IA al fine di migliorare la loro capacità di adottare le tecnologie di IA in modo efficace.
Tuttavia, dimostra l'importanza di introdurre normative volte a minimizzare i rischi associati all'IA, che vanno dai pregiudizi ad altri effetti negativi. Le agenzie del CFO Act stanno arrivando a sviluppare strategie aziendali che richiedono espressamente l'utilizzo dell'IA per promuovere la responsabilità e l'innovazione; il governo applica una metodologia completa per garantire che l'innovazione sia alimentata, rafforzando al contempo la fiducia del pubblico.
Tutelare l’interesse pubblico attraverso la gestione del rischio dell’IA
Il memorandum raccomanda di rendere i modelli, i codici e i dati di intelligenza artificiale utilizzabili e condivisi, riducendo gli ostacoli all'utilizzo dell'intelligenza artificiale. Grazie all'approccio top-down, il governo può migliorare le proprie capacità innovative e promuovere l'efficienza e la cooperazione nei suoi diversi settori.
Il promemoria elenca nuove regole e raccomandazioni per ridurre i rischi che potrebbero derivare dall'uso dell'IA e compromettere la sicurezza, le libertà e i diritti pubblici. Inoltre, defile principali pratiche di gestione del rischio delle applicazioni di IA critiche per la sicurezza e ad alto rischio, offrendo ai rappresentanti dell'agenzia un modo perdenti punti critici. Allo stesso tempo, l'uso dell'IA è diventato più comune.
In un'epoca di crescente necessità di garantire l'imparzialità dell'IA nel processo decisionale, questo protocollo getta le basi affinché le agenzie lo rispettino, fornendo regole specifiche per prevenire manipolazioni e illeciti. L'elaborazione di una gestione del rischio dimostra che l'amministrazione si prende cura della sicurezza della popolazione e enjallo stesso modo dei benefici dell'IA.
Il quadro di inventario dei casi d'uso dell'IA proposto nel memorandum comprende la strategia progettata per essere eseguita annualmente e incarna un approccio sistemico e trasparente che affronta l'integrazione dell'IA in tutto il governo federale.
Oltre alle agenzie che dovrebbero riferire sulle metriche applicate ai casi d'uso dell'IA che non vengono esaminati, ciò garantirà la necessaria trasparenza e manterrà l'integrità.
Bilanciare l'innovazione dell'intelligenza artificiale e l'etica nella strategia del governo degli Stati Uniti
Vengono presi in considerazione gli organi di governance dell'IA all'interno delle agenzie del CFO Act, il che significa che viene adottato un approccio organizzato alla regolamentazione dell'utilizzo dell'IA, che include funzioni politiche,matic, di ricerca e di regolamentazione.
Questa governance a matrice fusa mira ad ampliare la capacità del governo di attuare politiche innovative in modo responsabile, armonizzando le iniziative di intelligenza artificiale con gli obiettivi politici più ampi e i valori sociali.
La pubblicazione del memorandum dell'OMB potrebbe rappresentare il primo passo nel quadro generale delle future tattiche del governo statunitense nei confronti dell'intelligenza artificiale e può essere considerata la via di mezzo tra l'accelerazione tecnologica e il controllo controllato ed etico.
Definendo parametri di utilizzo dell'intelligenza artificiale bendefi, quali ruoli, responsabilità e pratiche prescritte, la normativa mira a creare un ambiente favorevole sia all'innovazione libera che alle responsabilità di rendicontazione nei confronti della fiducia del pubblico.
Sebbene l'intelligenza artificiale sia sempre più utilizzata per le attività a livello statale e per la fornitura di servizi, questo approccio proattivo di regolamentazione e gestione del rischio diventa l'unico punto di riferimento per l'intelligenza artificiale che offre un'intelligenza artificiale responsabile e utilizzata in modo intelligente senza essere fastidiosa.
Articolo originale da: https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf

