In una delle sue principali iniziative per stimolare l'adozione delle tecnologie di intelligenza artificiale da parte del governo degli Stati Uniti con un approccio responsabile, la Casa Bianca ha imposto la necessità di condurre parziali sugli strumenti di intelligenza artificiale utilizzati nelle agenzie governative.
L'ordine esecutivo, emanato tramite l'OMB, rappresenta uno dei principali programmi politici dell'amministrazione Biden, ideato per contenere al minimo i rischi che potrebbero emergere, tra cui la discriminazione e le violazioni della privacy.
Le agenzie federali si preparano alla supervisione e alla responsabilità dell'intelligenza artificiale
Come annunciato nella politica governativa, le agenzie federali elaborerannotronsistemi operativi per garantire i diritti e la sicurezza delle persone. Questi dovrebbero essere implementati entro il 1° dicembre, quando l'intelligenza artificiale sarà applicata in modo tale da poter influenzare la vita delle persone.
In particolare, queste misure mirano a eliminare distinzioni, violazioni della sfera privata e divergenze tra diversi settori, tra cui la sicurezza nei trasporti, nell'assistenza sanitaria e nella fornitura di servizi. Oltre ad altre misure volte a garantire la supervisione, dovrebbero essere nominati responsabili dell'intelligenza artificiale o della criminalità e dell'applicazione della legge
Per supervisionare l'attuazione delle linee guida dell'OMB in materia di intelligenza artificiale e coordinarne l'utilizzo tra i diversi uffici, saranno nominati i Chief Artificial Intelligence Officer. Questi funzionari saranno coinvolti nella creazione e nella garanzia della trasparenza e dell'affidabilità delle implementazioni di intelligenza artificiale all'interno del governo federale.
Ladent Kamala Harris ha sottolineato l'intenzione che queste politiche interne servano da modello per l'azione globale, sottolineando l'importanza di dare priorità all'interesse pubblico nell'utilizzo dell'intelligenza artificiale. L'amministrazione prevede di assumere almeno 100 dipendenti specializzati nell'intelligenza artificiale entro l'estate, sottolineando ulteriormente il suo impegno in questa iniziativa.
Test rigorosi per sistemi ad alto rischio
Alti funzionari dell'amministrazione hanno sottolineato che i sistemi ad alto rischio saranno sottoposti a rigorosi test perdente mitigare potenziali distorsioni e rischi. Questo approccio proattivo sottolinea l'impegno dell'amministrazione a garantire l'uso responsabile della tecnologia di intelligenza artificiale nelle operazioni governative.
In base alle nuove linee guida, gli americani possono chiedere un risarcimento se ritengono che i sistemi abbiano portato a informazioni o decisioni false che li riguardano.
Le agenzie federali devono pubblicare un elenco di sistemi, valutazioni dei rischi e strategie di gestione. Possono essere concesse deroghe per software non conformi alle norme amministrative, ma è necessario fornire una giustificazione, promuovendo la trasparenza e la responsabilità nell'implementazione dell'intelligenza artificiale.
Sfide e direzioni future
Alexandra Reeve Givens, presidente dent CEO del Center for Democracy and Technology, ha salutato le linee guida come un passo significativo verso la garanzia di un utilizzo responsabile dell'intelligenza artificiale all'interno delle agenzie federali.
Givens ha sottolineato l'importanza di mettere in atto processi rigorosi per valutare il potenziale impatto delle nuove tecnologie sugli individui e sulle comunità.
Sebbene le agenzie federali utilizzino la tecnologia dell'IA da anni, una regolamentazione più ampia dell'IA è rimasta bloccata al Congresso. Di conseguenza, l'amministrazione Biden sta sfruttando la posizione del governo come importante cliente tecnologico per stabilire misure di salvaguardia e promuovere un'adozione responsabile dell'IA.
Nonostante le misure proattive adottate dall'amministrazione, permangono delle sfide, in particolare per quanto riguarda il perpetuarsi di pregiudizi nei sistemi di intelligenza artificiale. Casi di pregiudizi razziali e imprecisioni nei processi decisionali basati sull'intelligenza artificiale evidenziano la necessità di una vigilanza e di un controllo costanti nell'implementazione dell'intelligenza artificiale.
Il mandato della Casa Bianca per la verifica dei pregiudizi e la supervisione dell'utilizzo dell'IA nelle agenzie federali rappresenta un passo significativo verso la garanzia di un'adozione responsabile ed etica della tecnologia IA. Implementando garanzie concrete, promuovendo la trasparenza e incoraggiando la responsabilità pubblica, l'amministrazione mira ad affrontare i potenziali rischi, sfruttando al contempo il potenziale trasformativo dell'IA a beneficio della società.

