In un recente rapporto, il Government Accountability Office (GAO) ha espresso preoccupazione per la scarsa preparazione del governo degli Stati Uniti nell'adozione dell'intelligenza artificiale (IA) e nella definizione di standard completi per il suo utilizzo. Il rapporto evidenzia la rapida crescita dell'adozione dell'IA all'interno delle agenzie governative, ma sottolinea l'assenza di una tabella di marcia e di standard chiari, il che potrebbe comportare rischi significativi per la sicurezza.
Crescente adozione dell'intelligenza artificiale tra le agenzie governative
L'ampio rapporto di 96 pagine del GAO rappresenta un significativo sforzo per documentare il ruolo crescente dell'intelligenza artificiale e dell'apprendimento automatico nelle agenzie governative non militari. Il rapporto rivela che l'intelligenza artificiale è attualmente impiegata in 228 modi diversi in tutto il governo federale, con quasi il 50% di queste applicazioni emerse solo nell'ultimo anno. La maggior parte di questi utilizzi, circa il 70%, è correlata alla ricerca scientifica o volta a migliorare la gestione interna dell'agenzia.
In particolare, sebbene il rapporto elenchi 71 diversi casi d'uso dell'IA, solo 10 di essi sono stati resi pubblici. Alcuni esempi includono l'uso dell'IA da parte del Dipartimento del Commercio per tracdegli incendi boschivi, il conteggio automatizzato della popolazione di animali selvatici e il monitoraggio dell'attività vulcanica globale da parte della NASA, basato sull'IA. Anche il Dipartimento della Sicurezza Nazionale utilizza l'IA perdentattività di interesse alle frontiere attraverso l'analisi dei dati di telecamere e radar.
Tuttavia, il rapporto rivela che molte applicazioni di IA rimangono classificate, con le agenzie federali che divulgano solo il 70% dei 1.241 casi d'uso di IA attivi e pianificati. Oltre 350 utilizzi tecnologici sono stati considerati sensibili e pertanto non divulgati al pubblico. Questa segretezza, particolarmentedent in agenzie come il Dipartimento di Stato, solleva preoccupazioni circa la trasparenza e la supervisione delle applicazioni di IA.
Il GAO esprime preoccupazione per la mancanza di standard e politiche sull'intelligenza artificiale
Mentre le agenzie governative stanno adottando sempre più l'intelligenza artificiale per varie applicazioni, il rapporto del GAO sottolinea la necessità critica di politiche standardizzate per guidare l'acquisizione e l'utilizzo responsabile della tecnologia di intelligenza artificiale da parte del settore privato. L'assenza di linee guida chiare rappresenta un potenziale rischio per la sicurezza nazionale e il benessere dei cittadini americani.
Il rapporto sottolinea che le agenzie federali stanno sviluppando politiche senza una guida coerente, con il rischio che le pratiche non siano allineate alle migliori pratiche. Questa situazione non solo ostacola l'efficacia dell'implementazione dell'IA, ma solleva anche preoccupazioni circa le conseguenze per il benessere e la sicurezza nazionale.
Un problema significativo evidenziato dal GAO è il ritardo nell'emanazione delle linee guida da parte dell'Office of Management and Budget (OMB). L'OMB avrebbe dovuto fornire una bozza di linee guida alle agenzie entro settembre 2021, come previsto da una legge federale del 2020 sull'utilizzo dell'IA nella pubblica amministrazione. Tuttavia, queste linee guida sono state pubblicate solo a novembre 2023, con un ritardo di oltre due anni rispetto alla scadenza. Questo ritardo ha ostacolato lo sviluppo di politiche coerenti in materia di IA tra le agenzie federali.
Il ruolo dell'intelligenza artificiale nelle forze dell'ordine e le preoccupazioni sulla privacy
In una questione correlata, il GAO aveva già espresso preoccupazione a settembre circa l'uso dell'IA, in particolare della tecnologia di riconoscimento facciale, da parte delle forze dell'ordine. Il rapporto ha rivelato che migliaia di ricerche di riconoscimento facciale sono state condotte senza un'adeguata formazione tra il 2019 e il 2022, portando potenzialmente ad arresti illegittimi a causa didenterrate. Questa questione sottolinea l'importanza di un utilizzo responsabile dell'IA e la necessità di politiche e controlli chiari.
Il rapporto del GAO rappresenta un campanello d'allarme cruciale per il governo degli Stati Uniti, evidenziando sia la rapida espansione dell'adozione dell'IA all'interno delle agenzie governative sia la mancanza di standard e politiche esaustive per regolamentarne l'utilizzo. Sebbene l'IA abbia un immenso potenziale per migliorare le operazioni e i servizi governativi, l'assenza di linee guida chiare pone rischi significativi per la sicurezza e la privacy. Il ritardo del governo nell'emanazione di linee guida essenziali aggrava ulteriormente la situazione. Poiché l'IA continua a svolgere un ruolo sempre più importante nella società, affrontare queste preoccupazioni e stabilire solidi quadri di governance è imperativo.

