OpenAI , Sam Altman, ha intrapreso una campagna globale per aumentare la consapevolezza sui potenziali pericoli della superintelligenza artificiale, dove le macchine superano l'intelligenza umana e potrebbero diventare incontrollabili.
In risposta a queste preoccupazioni, OpenAI ha recentemente annunciato la formazione di un team dedicato incaricato di sviluppare metodi per affrontare i rischi associati alla superintelligenza, che potrebbero emergere entro questo decennio.
L’azienda sottolinea che gestire in modo efficace la superintelligenza richiede la creazione di nuove istituzioni di governance e la risoluzione della sfida critica di allineare la superintelligenza ai valori e alle intenzioni umane.
OpenAI riconosce che l’allineamento dell’AGI (Artificial General Intelligence) comporta rischi significativi per l’umanità e potrebbe richiedere uno sforzo collettivo da parte di tutta l’umanità, come affermato in un post sul blog pubblicato lo scorso anno.
Soprannominato “Superalignment”, il team appena formato comprende ricercatori e ingegneri di alto livello nel campo dell’apprendimento automatico. Ilya Sutskever, co-fondatore e capo scienziato di OpenAI, e Jan Leike, responsabile dell'allineamento, stanno guidando questa impresa.
Per affrontare le principali sfide tecniche dell’allineamento della superintelligenza, OpenAI si è impegnata a dedicare il 20% delle risorse computazionali acquisite finora al problema dell’allineamento. L’azienda prevede che entro quattro anni risolverà queste sfide.
L'obiettivo principale del team di Superalignment è sviluppare un ricercatore di allineamento automatizzato a livello umano. Ciò comporta la creazione di sistemi di intelligenza artificiale in grado di allineare efficacemente sistemi di intelligenza artificiale superintelligenti, superando gli esseri umani in velocità e precisione.
Per raggiungere questo traguardo, il team si concentrerà sullo sviluppo di un metodo di formazione scalabile che utilizzi i sistemi di intelligenza artificiale per valutare altri sistemi di intelligenza artificiale. Convalideranno il modello risultante automatizzando la ricerca di comportamenti potenzialmentematic . Il gasdotto di allineamento sarà inoltre sottoposto a rigorosi stress test addestrando deliberatamente modelli disallineati per valutarne la rilevabilità.
Gli sforzi di OpenAI per affrontare i rischi legati alla superintelligenza segnano un significativo passo avanti nel perseguire uno sviluppo responsabile e allineato dell’IA. Riunendo un team di ricercatori di alto livello e impegnando ingenti risorse computazionali, l’azienda dimostra il proprio impegno nel mitigare in modo proattivo i potenziali rischi associati all’avvento della superintelligenza. Mentre intraprendono questo ambizioso viaggio, OpenAI stabilisce undent di collaborazione e unità nella salvaguardia del futuro dell'umanità nell'era dell'intelligenza artificiale.
Cryptolitan Academy: Vuoi far crescere i tuoi soldi nel 2025? Scopri come farlo con DeFi nella nostra prossima webclass. Salva il tuo posto