Your bank is using your money. You’re getting the scraps.WATCH FREE

OpenAI promuoverà i modelli di intelligenza artificiale o1 e o3 con un nuovo paradigma di formazione sulla sicurezza

In questo post:

  • OpenAI introduce modelli o3 con una nuova formazione sulla sicurezza tramite "allineamento deliberativo", migliorando l'allineamento del ragionamento dell'IA con i valori degli sviluppatori.
  • L'allineamento deliberativo riduce le risposte considerate non sicure, poiché i modelli si autoregolano e richiamano le politiche di sicurezza durante il processo di pensiero.
  • I modelli o1 e o3 superano GPT-4o, Gemini 1.5 Flash e Claude 3.5 Sonnet nella resistenza ai jailbreak più comuni e agli output non sicuri nei test di benchmark.

Venerdì, OpenAI ha annunciato il rilascio di una nuova famiglia di modelli di intelligenza artificiale, denominata o3. L'azienda afferma che i nuovi prodotti sono più avanzati rispetto ai modelli precedenti, incluso o1. I progressi, secondo la startup, derivano da miglioramenti nella scalabilità del calcolo in fase di test, un argomento esplorato negli ultimi mesi, e dall'introduzione di un nuovo paradigma di sicurezza utilizzato per addestrare questi modelli.

Nell'ambito del suo impegno costante per migliorare la sicurezza dell'IA, OpenAI ha condiviso una nuova ricerca che descrive in dettaglio l'implementazione dell'"allineamento deliberativo". Il nuovo metodo di sicurezza mira a garantire che i modelli di ragionamento dell'IA siano allineati con i valori stabiliti dai loro sviluppatori.

Questo approccio, sostiene OpenAI, è stato utilizzato per migliorare l'allineamento dei modelli o1 e o3, guidandoli a riflettere sulle policy di sicurezza di OpenAI durante la fase di inferenza. La fase di inferenza è il periodo successivo all'invio di un prompt da parte dell'utente al modello e precedente alla generazione di una risposta da parte del modello. 

Nella sua ricerca, OpenAI osserva che l'allineamento deliberativo ha portato a una riduzione della frequenza con cui i modelli producevano risposte "non sicure" o risposte che l'azienda considera una violazione delle sue politiche di sicurezza, migliorando al contempo la capacità dei modelli di rispondere in modo più efficace a domande benigne.

Come funziona l'allineamento deliberativo 

In sostanza, il processo funziona facendo in modo che i modelli si riattivino durante la fase di elaborazione del pensiero. Ad esempio, dopo che un utente invia una domanda a ChatGPT, i modelli di ragionamento dell'IA impiegano da pochi secondi a diversi minuti per scomporre il problema in passaggi più piccoli. 

I modelli generano quindi una risposta basata sul loro processo di pensiero. Nel caso dell'allineamento deliberativo, i modelli incorporano la politica di sicurezza di OpenAI come parte di questa "deliberazione" interna

Vedi anche  L'attacco informatico globale al prodotto Microsoft colpisce il governo degli Stati Uniti e le agenzie statali

OpenAI ha addestrato i suoi modelli, inclusi o1 e o3, a richiamare sezioni della policy di sicurezza aziendale come parte di questo processo di pensiero concatenato. Questo è stato fatto per garantire che, di fronte a query sensibili o non sicure, i modelli si autoregolassero e si rifiutassero di fornire risposte che avrebbero potuto causare danni. 

Tuttavia, l'implementazione di questa funzionalità di sicurezza si è rivelata impegnativa, poiché i ricercatori di OpenAI hanno dovuto garantire che i controlli di sicurezza aggiuntivi non avessero un impatto negativo sulla velocità e sull'efficienza dei modelli.

Un esempio fornito nella ricerca di OpenAI, citato da TechCrunch, ha dimostrato come i modelli utilizzino l'allineamento deliberativo per rispondere in modo sicuro a richieste potenzialmente dannose. Nell'esempio, un utente chiede come creare un contrassegno di parcheggio realistico per disabili.

Durante la catena di pensiero interna del modello, quest'ultimo richiama la politica di sicurezza di OpenAI, riconosce che la richiesta implica un'attività illegale (la falsificazione di un contrassegno di parcheggio) e rifiuta di fornire assistenza, scusandosi per il rifiuto.

Questo tipo di deliberazione interna è un elemento chiave del modo in cui OpenAI lavora per allineare i propri modelli ai protocolli di sicurezza. Invece di bloccare semplicemente qualsiasi richiesta relativa a un argomento delicato come "bomba", ad esempio, il che limiterebbe eccessivamente le risposte del modello, l'allineamento deliberativo consente all'IA di valutare il contesto specifico della richiesta e prendere una decisione più articolata sull'opportunità o meno di rispondere.

Oltre ai progressi in termini di sicurezza, OpenAI ha anche condiviso i risultati di test di benchmarking che hanno dimostrato l'efficacia dell'allineamento deliberativo nel migliorare le prestazioni del modello. Un benchmark, noto come Pareto, misura la resistenza di un modello ai comuni jailbreak e ai tentativi di aggirare le misure di sicurezza dell'IA. 

In questi test, il modello o1-preview di OpenAI ha superato altri modelli popolari come GPT-4o, Gemini 1.5 Flash e Claude 3.5 Sonnet in termini di prevenzione di output non sicuri.

Vedi anche  SAG-AFTRA e le etichette discografiche raggiungono un accordo per la protezione degli artisti contro l'intelligenza artificiale

Il Garante per la protezione dei dati personali multa OpenAI per violazioni della privacy 

In un evento separato ma correlato, OpenAI è stata multata di 15 milioni di euro (15,58 milioni di dollari) dall'agenzia italiana per la protezione dei dati, il Garante, a seguito di un'indagine sulla gestione dei dati personali da parte dell'azienda. 

La sanzione deriva dalla constatazione dell'agenzia secondo cui OpenAI ha elaborato i dati personali degli utenti senza una base giuridica, violando gli obblighi di trasparenza e di informazione degli utenti previsti dalle leggi sulla privacy dell'UE.

Secondo Reuters, l'indagine, iniziata nel 2023, ha anche rivelato che OpenAI non disponeva di un adeguato sistema di verifica dell'età, esponendo potenzialmente i bambini di età inferiore ai 13 anni a contenuti inappropriati generati dall'intelligenza artificiale. 

Il Garante, uno degli enti regolatori più severi dell'Unione Europea in materia di intelligenza artificiale, ha ordinato a OpenAI di lanciare una campagna pubblica di sei mesi in Italia per sensibilizzare l'opinione pubblica sulle pratiche di raccolta dati , in particolare sull'uso dei dati personali per addestrare gli algoritmi.

In risposta, OpenAI ha definito la sanzione "sproporzionata" e ha manifestato l'intenzione di presentare ricorso contro la decisione. L'azienda ha inoltre criticato la sanzione, definendola eccessivamente elevata rispetto al fatturato realizzato in Italia nel periodo in questione. 

Il Garante ha inoltre osservato che la sanzione è stata calcolata tenendo conto della "posizione collaborativa" di OpenAI, il che significa che avrebbe potuto essere più elevata se l'azienda non fosse stata ritenuta collaborativa durante l'indagine.

Questa ultima sanzione non è la prima volta che OpenAI è sottoposta a controlli in Italia. Lo scorso anno, il Garante ha vietato l'utilizzo di ChatGPT in Italia a causa di presunte violazioni delle norme UE sulla privacy. Il servizio è stato ripristinato dopo che OpenAI ha affrontato alcune preoccupazioni, tra cui la possibilità per gli utenti di negare il consenso all'utilizzo dei propri dati personali per l'addestramento degli algoritmi.

Le tue chiavi, la tua carta. Spendi senza rinunciare alla custodia e guadagna un rendimento superiore all'8% sul tuo saldo con Ether.fi Cash .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan