Michelle Bowman, governatrice della Federal Reserve, ha un messaggio per i politici che vogliono regolamentare l'intelligenza artificiale: rallentate.
Intervenendo a Washington, Bowman ha avvertito che adottare regole rigide potrebbe rivelarsi controproducente. "Non dobbiamo affrettarci a regolamentare", ha affermato. La sua preoccupazione principale è che un'eccessiva regolamentazione possa allontanare completamente l'innovazione dal settore bancario, lasciando in secondo piano strumenti preziosi come l'intelligenza artificiale.
Secondo Bowman, l'intelligenza artificiale ha un grande potenziale in ambito finanziario. Può rendere i sistemi più efficienti, contrastare le frodi e ampliare l'accesso al credito. La tecnologia potrebbe anche dare una mano alle banche centrali migliorando l'affidabilità dei dati economici.
"Forse un uso più ampio dell'intelligenza artificiale potrebbe fungere da controllo dell'affidabilità dei dati", ha suggerito. Ha anche affermato:
"Gli strumenti di intelligenza artificiale possono anche essere sfruttati per combattere le frodi. Uno di questi utilizzi è la lotta alle frodi sugli assegni, che negli ultimi anni sono diventate sempre più diffuse nel settore bancario."
L'effetto dell'intelligenza artificiale sul lavoro e sulla politica
Bowman sta anche monitorando il modo in cui l'intelligenza artificiale sta rimodellando i mercati del lavoro e i fondamentali economici. L'intelligenza artificiale sta alterando i livelli di produttività, influenzando i tassi di occupazione e persinodefiil tasso di interesse naturale. Ritiene che questo giocherà un ruolo sempre più importante nelle discussioni sulla politica monetaria.
I numeri suggeriscono perché questo sia importante. Negli ultimi due anni, la produttività del lavoro negli Stati Uniti è aumentata, crescendo a una media annua del 2,3%. Quasi il doppio della media dell'1,3% registrata nel decennio precedente la pandemia.
Bowman non è pronta ad attribuire completamente il merito dell'aumento all'intelligenza artificiale, ma ha riconosciuto che potrebbe avere un ruolo. Altri funzionari della Federal Reserve, tra cui Lisa Cook, concordano. Si aspetta che l'intelligenza artificiale continui ad aumentare la produttività, ma avverte che prevederne l'impatto esatto è ancora un gioco di indovinelli.
Per i policymaker, questi cambiamenti sono cruciali. Le variazioni della produttività e le perturbazioni del mercato del lavoro potrebbero costringere la Fed a riconsiderare le proprie strategie.
"Se consideriamo i rischi dell'IA, molti di questi sono già ampiamente coperti dai quadri normativi esistenti. Ad esempio, l'IA spesso dipende da soggetti esterni – fornitori di cloud computing, tecnologie di IA generativa con licenza e fornitori di servizi principali – per funzionare."
– Bowman
La realtà della regolamentazione dell'intelligenza artificiale negli Stati Uniti
Se cercate regole chiare sull'intelligenza artificiale in America, buona fortuna. La regolamentazione federale è, nella migliore delle ipotesi, un mosaico, e lascia che siano gli stati a colmare le lacune. L'approccio cauto di Bowman riecheggia la frustrazione che molti provano per questo sistema frammentato.
A livello federale, il National Artificial Intelligence Initiative Act del 2020 avrebbe mirato a promuovere lo sviluppo dell'intelligenza artificiale. Ildent Biden ha poi emanato un ordine esecutivo nel 2023 per promuovere pratiche di intelligenza artificiale sicure e trasparenti. Ma i critici di ogni parte affermano che questi sforzi non sono sufficienti, o sono eccessivi.
Ora, le normative potrebbero cambiare di nuovo. Ildenteletto Donald Trump ha chiarito le sue intenzioni. Intende abrogare l'ordine esecutivo di Biden, definendolo un "ostacolo all'innovazione"
Nel frattempo, stati come la California e il Colorado non aspettano che Washington si dia una mossa. La California è in prima linea con leggi come l'AI Transparency Act, che impone alle aziende con sistemi di intelligenza artificiale utilizzati da oltre un milione di persone di etichettare chiaramente i contenuti generati dall'intelligenza artificiale.
Il Colorado, d'altro canto, ha messo al bando la discriminazione algoritmica, garantendo che i sistemi di intelligenza artificiale non danneggino gli individui in base a razza, genere o altri tratti protetti. Entrambi gli stati stanno definendo degli standard, ma le loro normative differiscono così tanto che le aziende che operano oltre i confini statali si trovano in difficoltà.
Il costo della frammentazione
Questo quadro normativo frammentato rappresenta un enorme grattacapo per le aziende in termini di conformità. Le aziende devono destreggiarsi tra requisiti diversi da stato a stato, rischiando sanzioni in caso di inadempienza.
Ad esempio, le leggi della California impongono strumenti di trasparenza, ma questi non sono obbligatori negli stati con normative più flessibili. Questo crea un campo minato per gli sviluppatori di intelligenza artificiale.
Anche i consumatori si trovano ad affrontare tutele disomogenee. Identin California beneficiano di rigide norme di trasparenza, mentre le persone in altri stati potrebbero non sapere nemmeno quando interagiscono con l'intelligenza artificiale. L'avvertimento di Bowman sulla sovraregolamentazione è valido, ma anche la sottoregolamentazione presenta dei rischi.
Gli esperti temono che questo disastro lascerà gli Stati Uniti indietro rispetto agli altri attori globali. La Cina, ad esempio, sta procedendo a pieno ritmo con la supervisione centralizzata dell'IA, mentre i paesi europei stanno definendo standard unificati. Se gli Stati Uniti non riusciranno a elaborare una strategia coesa, rischieranno di rimanere indietro sia in termini di innovazione che di responsabilità.
Bowman ha concluso il suo discorso con: "L'intelligenza artificiale ha un enorme potenziale per rimodellare il settore dei servizi finanziari e l'economia mondiale in generale. Sebbene nel mio intervento abbia suggerito che non dobbiamo affrettarci a regolamentare, è importante continuare a monitorare gli sviluppi dell'intelligenza artificiale e i suoi effetti nel mondo reale"

