Google ha pubblicato una proposta politica in risposta alla richiesta di Trump di un piano d'azione per l'intelligenza artificiale. Seguendo l'esempio di OpenAI, Google chiede all'amministrazione Trump di allentare le restrizioni sul copyright relative all'addestramento dell'intelligenza artificiale.
Molti osservatori vedono nella posizione di Google un ulteriore segnale che le aziende tecnologiche stanno unendo le forze per definire le norme federali sulle tecnologie emergenti di intelligenza artificiale.
Al centro delle raccomandazioni di Google c'è la necessità di indebolire le barriere alla proprietà intellettuale. L'azienda sottolinea che "le eccezioni al fair use e al text-and-data mining" dovrebbero essere riconosciute come "essenziali" per la continua ricerca sull'intelligenza artificiale.
Google sostiene che le eccezioni di text e data mining sono fondamentali per la ricerca sull'intelligenza artificiale
La proposta di policy di Google suggerisce che l'addestramento di modelli su dati protetti da copyright ma pubblicamente disponibili dovrebbe essere consentito senza forti restrizioni, sostenendo che tale pratica non arreca danni significativi ai titolari dei diritti. I critici di questo approccio, tuttavia, hanno intentato cause contro Google per aver utilizzato dati protetti da copyright senza compensazione. Al momento in cui scriviamo, i tribunali statunitensi non si sono ancora defidefinitivo sulla questione se le norme sul fair use proteggano le aziende di intelligenza artificiale in questi casi.
Oltre ad allentare i limiti del copyright, il piano di Google si concentra sulla definizione di politiche di esportazione per i chip di intelligenza artificiale e l'hardware correlato. L'azienda avverte che le norme recentemente introdotte dall'amministrazione Biden potrebbero influire sulla competitività degli Stati Uniti nei mercati globali dell'intelligenza artificiale.
Google sottolinea gli "oneri sproporzionati" che gravano sui fornitori di cloud computing, contrastando la sua posizione con le prospettive di Microsoft. A gennaio, Microsoft ha dichiarato di sentirsi "dent" di poter rispettare le stesse regole che ora Google sostiene potrebbero rallentare l'innovazione e le attività commerciali.
Le attuali norme sulle esportazioni, concepite per limitare il flusso di hardware di intelligenza artificiale avanzata verso nazioni svantaggiate, includono eccezioni per aziende selezionate che necessitano di grandi quantità di chip di fascia alta. Tuttavia, Google continua a temere che queste limitazioni possano danneggiare gli interessi economici a lungo termine degli Stati Uniti, ostacolando il progresso dell'intelligenza artificiale, soprattutto in un'epoca di crescente concorrenza internazionale. Il documento politico incoraggia un approccio equilibrato che garantisca la sicurezza nazionale e consenta alle aziende statunitensi di prosperare all'estero.
La proposta richiedeva al governo di preservare le sovvenzioni assegnate
La proposta sottolinea inoltre l'importanza di investimenti "sostenuti e a lungo termine" nella ricerca e sviluppo di base. Citando i rischi di riduzione dei costi, Google consiglia al governo di preservare le sovvenzioni vitali e di aumentare il sostegno alla "ricerca e sviluppo per il mercato iniziale", in modo che scienziati e organizzazioni possano accedere a risorse informatiche sofisticate e modelli avanzati. Questa posizione è in linea con l'attenzione della nuova amministrazione alla ricalibrazione delle priorità nazionali, sebbene le recenti misure di riduzione di parte del bilancio federale abbiano preoccupato gli istituti di ricerca.
La richiesta di Google di una regolamentazione più coerente a livello federale riflette la crescente tensione tra i legislatori. A poco più di due mesi dall'inizio del 2025, il volume di proposte di legge relative all'IA negli Stati Uniti ammonta a 781, evidenziando la frammentazione del contesto politico. Nel suo documento, Google indica la varietà di leggi statali in materia di IA come prova del fatto che l'approccio attuale è troppo frammentato. L'azienda è a favore di un quadro normativo unificato per la privacy e la sicurezza, per evitare che sviluppatori e utenti si imbattano in requisiti contrastanti in più stati.
Sono passati solo 66 giorni dall'inizio del 2025 e il numero di progetti di legge sull'intelligenza artificiale in sospeso negli Stati Uniti supera ufficialmente il totale di TUTTO il 2024. 👀
2024: 743 fatture di intelligenza artificiale in totale per l'anno
2025: 781 fatture di intelligenza artificiale in soli 66 giorni pic.twitter.com/xrYPVDYgR1– Adam Thierer (@AdamThierer) 7 marzo 2025
Per quanto riguarda la questione della responsabilità, Google sostiene che gli sviluppatori di intelligenza artificiale non possono sempre supervisionare l'implementazione dei modelli. Alcuni decisori politici hanno proposto di imporre agli sviluppatori una responsabilità per l'utilizzo, ma l'azienda ribatte che, in molti casi, l'uso improprio deriva da attività al di fuori del controllo diretto dello sviluppatore.
SB 1047 della California, poi bocciata, era una di quelle misure che definiva le responsabilità dei creatori di intelligenza artificiale, includendo test di sicurezza obbligatori e chiarezza su quando uno sviluppatore potesse essere ritenuto responsabile di danni. L'azienda tecnologica si è opposta a tale legislazione, sostenendo che gli utilizzatori dei modelli, piuttosto che i creatori, sono spesso nella posizione migliore per valutare i rischi a valle e garantire la sicurezza del sistema.
In particolare, la proposta critica gli obblighi di divulgazione emergenti, come quelli previsti dal prossimo AI Act dell'Unione Europea. Questa normativa imporrebbe agli sviluppatori di fornire informazioni dettagliate su come i loro modelli vengono costruiti e addestrati, nonché indicazioni su possibili pericoli o lacune nelle prestazioni.
Google avverte che tali requisiti potrebbero inavvertitamente esporre segreti commerciali o incoraggiare gli avversari a "sbloccare" i sistemi di intelligenza artificiale. Misure simili sono già emerse in alcune parti degli Stati Uniti, come la legge AB 2013 della California, che obbliga gli sviluppatori di IA a pubblicare un riepilogo pubblico delle fonti dei dati di addestramento.

