Your bank is using your money. You’re getting the scraps.WATCH FREE

Le promesse di sicurezza dell'intelligenza artificiale di Google sotto esame dopo il rapporto Gemini

In questo post:

  • Google ha pubblicato un rapporto sulla sicurezza del suo ultimo modello di intelligenza artificiale, Gemini 2.5 Pro, diverse settimane dopo il lancio pubblico del modello.
  • Gli esperti affermano che il rapporto non fornisce dettagli importanti sulla sicurezza, rendendo difficile valutare i rischi del modello o le pratiche di sicurezza di Google.
  • Il rapporto non menziona il Frontier Safety Framework (FSF) di Google, uno strumento progettato per individuare le future capacità di intelligenza artificiale ad alto rischio.

Google ha condiviso un documento sulla sicurezza del suo modello di punta di intelligenza artificiale, Gemini 2.5 Pro. Gli esperti affermano che lascia inspiegati alcuni rischi chiave.

L'azienda ha pubblicato il documento giovedì, diverse settimane dopo il rilascio di Gemini 2.5 Pro ai clienti. Il documento elenca i test interni eseguiti da Google sul modello, ma offre pochi dati sul comportamento del sistema in caso di sovraccarico o utilizzo improprio. I ricercatori che hanno esaminato il documento hanno dichiarato a TechCrunch che la mancanza di dettagli rende difficile valutare se Gemini 2.5 Pro sia davvero sicuro per un utilizzo su larga scala.

I report tecnici sono uno dei principali strumenti con cui il pubblico viene a conoscenza di ciò che i sistemi di intelligenza artificiale avanzati possono e non possono fare. Un report approfondito spesso mostra dove un modello fallisce e dove potrebbe essere utilizzato in modo improprio. Molti ricercatori di intelligenza artificiale considerano questi documenti come un tentativo onesto di supportare le affermazioni di un'azienda in materia di sicurezza.

Google gestisce le segnalazioni sulla sicurezza in modo diverso.

Google pubblica un rapporto solo dopo che un modello non è più etichettato come "sperimentale" e sposta alcuni risultati relativi alle "capacità pericolose" in un audit separato che non viene pubblicato immediatamente. Di conseguenza, il documento pubblico non copre tutte le minacce per cui Google ha effettuato test.

Diversi analisti hanno affermato che il nuovo documento su Gemini 2.5 Pro è un caso lampante di scarsa trasparenza. Hanno anche notato che il rapporto non fa mai riferimento al Frontier Safety Framework di Google, o FSF, una politica annunciata dall'azienda lo scorso anno per individuare le future tecnologie di intelligenza artificiale che potrebbero causare "gravi danni"

Vedi anche  Ubisoft sposta l'attenzione dalla realtà virtuale dopo le deludenti vendite di Assassin's Creed Nexus VR

"Questo rapporto è molto scarno, contiene informazioni minime ed è arrivato settimane dopo la pubblicazione del modello", ha affermato Peter Wildeford, co-fondatore dell'Institute for AI Policy and Strategy. "È impossibile confermare se Google stia mantenendo le proprie promesse e, di conseguenza, è impossibile valutare la sicurezza dei suoi modelli"

Thomas Woodside, co-fondatore del Secure AI Project, si è detto contento che fosse stato pubblicato un documento, ma ha espresso dubbi sul piano di Google di pubblicare aggiornamenti costanti. Ha sottolineato che l'ultima volta che l'azienda ha condiviso i risultati dei test sulle capacità pericolose è stato nel giugno 2024, e che quel documento riguardava un modello annunciato nel febbraio dello stesso anno.

La fiducia è ulteriormente calata quando gli osservatori non hanno visto alcun documento sulla sicurezza di Gemini 2.5 Flash, un modello più sottile e veloce presentato da Google la scorsa settimana. Un portavoce dell'azienda ha affermato che un documento sulla sicurezza di Flash "arriverà presto"

"Spero che questa sia una vera promessa di iniziare a fornire aggiornamenti più frequenti", ha detto Woodside. "Questi aggiornamenti dovrebbero includere i risultati di modelli che non sono ancora stati resi pubblici, perché anche questi modelli potrebbero presentare gravi rischi"

Google ora non è più trasparente

La nota di sicurezza di Meta per i suoi nuovi modelli Llama 4 è lunga solo poche pagine, mentre OpenAI ha scelto di non pubblicare alcun rapporto per la sua serie GPT‑4.1.

Vedi anche  Goldman Sachs aggiorna Coinbase a Neutral in mezzo all'impennata bitcoin

La mancanza di dettagli arriva in un momento di tensione. Due anni fa, Google aveva dichiarato al governo degli Stati Uniti che avrebbe pubblicato i documenti sulla sicurezza per ogni modello di intelligenza artificiale "significativo" nell'ambito di applicazione. L'azienda aveva fatto promesse simili ai funzionari di altri Paesi, affermando che avrebbe offerto "trasparenza pubblica" sui suoi prodotti di intelligenza artificiale.

Kevin Bankston, consulente senior per la governance dell'intelligenza artificiale presso il Center for Democracy and Technology, ha definito i comunicati stampa dei principali laboratori una "corsa al ribasso" in materia di sicurezza.

"Insieme ai resoconti secondo cui laboratori rivali come OpenAI hanno ridotto i tempi di test di sicurezza prima del rilascio da mesi a giorni, questa scarsa documentazione per il modello di punta di Google racconta una storia inquietante di una corsa al ribasso sulla sicurezza e la trasparenza dell'intelligenza artificiale, mentre le aziende affrettano la commercializzazione dei loro modelli", ha aggiunto.

Google afferma che gran parte del suo lavoro sulla sicurezza avviene a porte chiuse. L'azienda afferma che ogni modello viene sottoposto a severi test, tra cui il cosiddetto "adversarial red teaming", prima di qualsiasi lancio pubblico.

 

Le tue chiavi, la tua carta. Spendi senza rinunciare alla custodia e guadagna un rendimento superiore all'8% sul tuo saldo con Ether.fi Cash .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan