L'ex capo scienziato di OpenAI, Ilya Sutskever, sta avviando una nuova azienda di intelligenza artificiale, appena un mese dopo aver annunciato il suo abbandono di OpenAI. "Sto avviando una nuova azienda", ha annunciato mercoledì sera, chiamandola Safe Superintelligence Inc. (SSI).
Leggi anche: Ilya Sutskever, capo scienziato di OpenAI, dice addio
SSI ha sede negli Stati Uniti e uffici a Palo Alto e Tel Aviv. In un post ufficiale , la startup ha dichiarato di avere "un obiettivo e un prodotto: una superintelligenza sicura".
"Perseguiremo una superintelligenza sicura in modo diretto, con un unico obiettivo, un solo obiettivo e un solo prodotto. Lo faremo attraverso innovazioni rivoluzionarie prodotte da un piccolo team affiatato", ha affermato Sutskever.
"Il nostro obiettivo unico significa nessunatrac", afferma SSI
SSI è attualmente guidata da Sutskever, Daniel Gross e da un altro ex ricercatore di OpenAI, Daniel Levy. Gli investitori dietro la startup rimangono sconosciuti al momento della stesura di questo articolo.
Tuttavia, l'azienda ha sottolineato nell'annuncio che l'intero "team, gli investitori e il modello di business sono tutti allineati per raggiungere" una superintelligenza sicura ". L'osservazione suona in qualche modo come un'ombra su OpenAI, che in passato è stata citata in giudizio da Elon Musk per aver anteposto il profitto all'umanità e aver abbandonato la sua missione originale.
“Il nostro focus esclusivo significa che non citracdalle spese generali di gestione o dai cicli dei prodotti, e il nostro modello aziendale significa che sicurezza, protezione e progresso sono tutti isolati dalle pressioni commerciali a breve termine.”
SSI
Sutskever ha annunciato che lascerà OpenAI il 15 maggio, dopo aver lavorato per quasi un decennio presso l'azienda leader nel settore dell'intelligenza artificiale. In precedenza, era rimasto in silenzio radio a seguito del fallito tentativo di estromettere il CEO Sam Altman da OpenAI nel dicembre dello scorso anno.
Dopo quasi un decennio, ho deciso di lasciare OpenAI. Il percorso dell'azienda è stato a dir poco miracoloso e sono fiducioso dent OpenAI realizzerà un'intelligenza artificiale (AGI) sicura e vantaggiosa sotto la guida di @sama , @gdb , @miramurati e ora, sotto la guida di…
— Ilya Sutskever (@ilyasut) 14 maggio 2024
Un altro dirigente di OpenAI, Jan Leike, si è dimesso dopo Sutskever. Entrambi hanno co-diretto il team Superalignment di OpenAI, responsabile di impedire che i modelli di intelligenza artificiale superintelligente diventino inaffidabili.
Leggi anche: Un altro dirigente di OpenAI, Jan Leike, si dimette
Sutskever non ha spiegato chiaramente le ragioni per cui ha lasciato OpenAI. Tuttavia, Leike ha citato le preoccupazioni relative alla sicurezza all'interno dell'azienda, affermando che "negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti più brillanti"
"Ho aderito perché pensavo che OpenAI sarebbe stato il posto migliore al mondo per fare questa ricerca", ha detto Leike. "Tuttavia, ero in disaccordo con i vertici di OpenAI sulle priorità fondamentali dell'azienda da un po' di tempo, finché non abbiamo finalmente raggiunto un punto di rottura", ha aggiunto.
SSI non è la prima a diversificarsi da OpenAI
Il 28 maggio Leike è entrato a far parte del concorrente di OpenAI, Anthropic, come ricercatore ML, mentre Sutskever è andato a fondare la sua nuova azienda di intelligenza artificiale, che ormai è diventata una ricorrenza.
È interessante notare che SSI non sarà la prima azienda a diversificarsi da OpenAI. Nel 2021, due ex dipendenti di OpenAI hanno lasciato l'azienda per co-fondare Anthropic, che al 13 maggio ha una valutazione di 18,4 miliardi di dollari, post-money.
Anche i fondatori di Anthropic avevano abbandonato OpenAI a causa di disaccordi con Sam Altman in merito allo sviluppo sicuro dell'intelligenza artificiale.
Reportage Cryptopolitan di Ibiam Wayas

