OpenAISam Altman, CEO di
In risposta a queste preoccupazioni, OpenAI ha recentemente annunciato la formazione di un team dedicato incaricato di sviluppare metodi per affrontare i rischi associati alla superintelligenza, che potrebbero emergere entro questo decennio.
L'azienda sottolinea che per gestire efficacemente la superintelligenza è necessario creare nuove istituzioni di governance e risolvere la sfida critica di allineare la superintelligenza ai valori e alle intenzioni umane.
OpenAI riconosce che l'allineamento dell'AGI (Intelligenza Artificiale Generale) comporta rischi significativi per l'umanità e potrebbe richiedere uno sforzo collettivo da parte di tutta l'umanità, come affermato in un post sul blog pubblicato lo scorso anno.
Denominato "Superalignment", il team di recente formazione è composto da ricercatori e ingegneri di alto livello nel campo dell'apprendimento automatico. Ilya Sutskever, co-fondatore e responsabile scientifico di OpenAI, e Jan Leike, responsabile dell'allineamento, guidano questa iniziativa.
Per affrontare le principali sfide tecniche dell'allineamento della superintelligenza, OpenAI si è impegnata a dedicare il 20% delle risorse computazionali finora acquisite al problema dell'allineamento. L'azienda prevede di risolvere queste sfide entro quattro anni.
L'obiettivo principale del team Superalignment è sviluppare un ricercatore di allineamento automatizzato di livello umano. Ciò implica la creazione di sistemi di intelligenza artificiale in grado di allineare efficacemente sistemi di intelligenza artificiale superintelligenti, superando gli esseri umani in termini di velocità e precisione.
Per raggiungere questo traguardo, il team si concentrerà sullo sviluppo di un metodo di addestramento scalabile che utilizzi sistemi di intelligenza artificiale per valutare altri sistemi di intelligenza artificiale. Valideranno il modello risultante automatizzando la ricerca di comportamenti potenzialmentematic . La pipeline di allineamento sarà inoltre sottoposta a rigorosi stress test, addestrando deliberatamente modelli disallineati per valutarne la rilevabilità.
Gli sforzi di OpenAI per affrontare i rischi della superintelligenza segnano un significativo passo avanti nel perseguimento di uno sviluppo dell'intelligenza artificiale responsabile e allineato. Riunendo un team di ricercatori di alto livello e impegnando ingenti risorse computazionali, l'azienda dimostra il suo impegno nel mitigare proattivamente i potenziali rischi associati all'avvento della superintelligenza. Intraprendendo questo ambizioso percorso, OpenAI stabilisce undent di collaborazione e unità nella salvaguardia del futuro dell'umanità nell'era dell'intelligenza artificiale.
OpenAI 