Google ha condiviso un documento sulla sicurezza del suo modello di punta di intelligenza artificiale, Gemini 2.5 Pro. Gli esperti affermano che lascia inspiegati alcuni rischi chiave.
L'azienda ha pubblicato il documento giovedì, diverse settimane dopo il rilascio di Gemini 2.5 Pro ai clienti. Il documento elenca i test interni eseguiti da Google sul modello, ma offre pochi dati sul comportamento del sistema in caso di sovraccarico o utilizzo improprio. I ricercatori che hanno esaminato il documento hanno dichiarato a TechCrunch che la mancanza di dettagli rende difficile valutare se Gemini 2.5 Pro sia davvero sicuro per un utilizzo su larga scala.
I report tecnici sono uno dei principali strumenti con cui il pubblico viene a conoscenza di ciò che i sistemi di intelligenza artificiale avanzati possono e non possono fare. Un report approfondito spesso mostra dove un modello fallisce e dove potrebbe essere utilizzato in modo improprio. Molti ricercatori di intelligenza artificiale considerano questi documenti come un tentativo onesto di supportare le affermazioni di un'azienda in materia di sicurezza.
Google gestisce le segnalazioni sulla sicurezza in modo diverso.
Google pubblica un rapporto solo dopo che un modello non è più etichettato come "sperimentale" e sposta alcuni risultati relativi alle "capacità pericolose" in un audit separato che non viene pubblicato immediatamente. Di conseguenza, il documento pubblico non copre tutte le minacce per cui Google ha effettuato test.
Diversi analisti hanno affermato che il nuovo documento su Gemini 2.5 Pro è un caso lampante di scarsa trasparenza. Hanno anche notato che il rapporto non fa mai riferimento al Frontier Safety Framework di Google, o FSF, una politica annunciata dall'azienda lo scorso anno per individuare le future tecnologie di intelligenza artificiale che potrebbero causare "gravi danni"
"Questo rapporto è molto scarno, contiene informazioni minime ed è arrivato settimane dopo la pubblicazione del modello", ha affermato Peter Wildeford, co-fondatore dell'Institute for AI Policy and Strategy. "È impossibile confermare se Google stia mantenendo le proprie promesse e, di conseguenza, è impossibile valutare la sicurezza dei suoi modelli"
Thomas Woodside, co-fondatore del Secure AI Project, si è detto contento che fosse stato pubblicato un documento, ma ha espresso dubbi sul piano di Google di pubblicare aggiornamenti costanti. Ha sottolineato che l'ultima volta che l'azienda ha condiviso i risultati dei test sulle capacità pericolose è stato nel giugno 2024, e che quel documento riguardava un modello annunciato nel febbraio dello stesso anno.
La fiducia è ulteriormente calata quando gli osservatori non hanno visto alcun documento sulla sicurezza di Gemini 2.5 Flash, un modello più sottile e veloce presentato da Google la scorsa settimana. Un portavoce dell'azienda ha affermato che un documento sulla sicurezza di Flash "arriverà presto"
"Spero che questa sia una vera promessa di iniziare a fornire aggiornamenti più frequenti", ha detto Woodside. "Questi aggiornamenti dovrebbero includere i risultati di modelli che non sono ancora stati resi pubblici, perché anche questi modelli potrebbero presentare gravi rischi"
Google ora non è più trasparente
La nota di sicurezza di Meta per i suoi nuovi modelli Llama 4 è lunga solo poche pagine, mentre OpenAI ha scelto di non pubblicare alcun rapporto per la sua serie GPT‑4.1.
La mancanza di dettagli arriva in un momento di tensione. Due anni fa, Google aveva dichiarato al governo degli Stati Uniti che avrebbe pubblicato i documenti sulla sicurezza per ogni modello di intelligenza artificiale "significativo" nell'ambito di applicazione. L'azienda aveva fatto promesse simili ai funzionari di altri Paesi, affermando che avrebbe offerto "trasparenza pubblica" sui suoi prodotti di intelligenza artificiale.
Kevin Bankston, consulente senior per la governance dell'intelligenza artificiale presso il Center for Democracy and Technology, ha definito i comunicati stampa dei principali laboratori una "corsa al ribasso" in materia di sicurezza.
"Insieme ai resoconti secondo cui laboratori rivali come OpenAI hanno ridotto i tempi di test di sicurezza prima del rilascio da mesi a giorni, questa scarsa documentazione per il modello di punta di Google racconta una storia inquietante di una corsa al ribasso sulla sicurezza e la trasparenza dell'intelligenza artificiale, mentre le aziende affrettano la commercializzazione dei loro modelli", ha aggiunto.
Google afferma che gran parte del suo lavoro sulla sicurezza avviene a porte chiuse. L'azienda afferma che ogni modello viene sottoposto a severi test, tra cui il cosiddetto "adversarial red teaming", prima di qualsiasi lancio pubblico.

