Dopo che il co-fondatore Ilya Sutskever ha lasciato l’azienda all’inizio di questa settimana, Jan Leike, un importante ricercatore, ha annunciato venerdì mattina che “la cultura e i processi della sicurezza sono passati in secondo piano rispetto ai prodotti brillanti” in azienda.
Jan Leike ha dichiarato in una serie di post sulla piattaforma di social media X di essersi unito alla startup con sede a San Francisco perché credeva che sarebbe stato il posto migliore per condurre ricerche sull'intelligenza artificiale.
Leike ha guidato il team "Superalignment" di OpenAI con un co-fondatore che ha lasciato anche lui questa settimana.
Il team di superallineamento di OpenAI non è più intatto
Il team Superalignment di Leike è stato formato lo scorso luglio presso OpenAI per affrontare le principali sfide tecniche nell'implementazione di misure di sicurezza mentre l'azienda promuove l'intelligenza artificiale in grado di razionalizzare come un essere umano.
Le dichiarazioni di Leike sono arrivate dopo che un rapporto di WIRED Chich affermava che OpenAI aveva sciolto completamente il team Superslignment, incaricato di affrontare i rischi a lungo termine associati all'intelligenza artificiale.
Leggi anche: Il capo scienziato di Openai, Ilya Sutskever, dice addio
Sutskever e Leike non furono gli unici dipendenti a lasciare l'azienda. Almeno altri cinque dei lavoratori più attenti alla sicurezza di OpenAI hanno lasciato l’azienda o sono stati licenziati dallo scorso novembre, quando il consiglio ha tentato di licenziare il CEO Sam Altman solo per vederlo giocare le sue carte per riconquistare la sua posizione.
OpenAI dovrebbe diventare una società AGI orientata alla sicurezza
Leike ha sottolineato la caratteristica più controversa della tecnologia su diverse piattaforme - un'immagine prospettica di robot che sono generalmente intelligenti quanto gli esseri umani o almeno in grado di svolgere molti compiti altrettanto bene - scrivendo che OpenAI deve trasformarsi in un sistema incentrato sulla sicurezza. Azienda AGI.
In risposta ai post di Leike, Sam Altman, CEO di Open AI, ha espresso la sua gratitudine per i servizi di Leike all'azienda e ha espresso la sua tristezza per la sua partenza.
Altman ha detto in un post su X che Leike ha ragione e che scriverà un lungo post sull'argomento nei prossimi giorni. Ha anche detto che,
“Abbiamo molto altro da fare; ci impegniamo a farlo”.
Leike ha lasciato il team di superallineamento di OpenAI e John Schulman, co-fondatore dell'azienda, ne è subentrato.
Ma c'è qualcosa di vuoto nella squadra. Inoltre, Schulman è già oberato dal suo lavoro a tempo pieno nel garantire la sicurezza dei prodotti esistenti di OpenAI. Quanto lavoro di sicurezza più significativo e orientato al futuro può produrre OpenAI? Sembra che non ci sia una risposta soddisfacente a questo.
Jan Leike ha differenze ideologiche con il management
Come suggerisce già il nome dell'organizzazione, OpenAI, originariamente intendeva condividere i suoi modelli liberamente con il pubblico, ma ora l'azienda afferma che rendere disponibili modelli così potenti a chiunque potrebbe essere dannoso, quindi i modelli sono stati trasformati in conoscenza proprietaria.
Leike ha dichiarato in un post di non essere d'accordo con la leadership di OpenAI riguardo alle priorità che hanno imposto all'azienda per un bel po' di tempo, fino a quando non hanno finalmente raggiunto un punto critico.
Mi sono iscritto perché pensavo che OpenAI sarebbe stato il posto migliore al mondo per fare questa ricerca.
— Jan Leike (@janleike) 17 maggio 2024
Tuttavia, sono stato in disaccordo con la leadership di OpenAI riguardo alle priorità fondamentali dell'azienda per un bel po' di tempo, fino a quando non abbiamo finalmente raggiunto un punto di rottura.
L'ultimo giorno di Leike in azienda è stato giovedì, dopo di che si è dimesso e non ha addolcito le sue dimissioni con alcun caloroso saluto o alcun accenno di fiducia nella leadership di OpenAI. Su X, ha pubblicato: "Mi sono dimesso".
Un seguace di Leike ha detto in un commento che è felice che Leike non sia più un membro della loro squadra. Le ideologie risvegliate non sono in linea con l’umanità. Meno viene allineato, più viene inserito nell’intelligenza artificiale.
Leggi anche: OpennAI protegge i contenuti Reddit per il miglioramento di ChatGPT
Il follower ha affermato che richiederebbe anche una defidell'allineamento da parte di tutti gli allineatori. Si riferiva a una raccomandazione in cui Leike chiedeva ad altri dipendenti di OpenAI di credere di poter apportare il cambiamento culturale necessario all'azienda.
L'azienda leader mondiale nel campo dell'intelligenza artificiale sembra stia cambiando rotta riguardo alle misure di sicurezza spesso sottolineate dagli esperti, e la partenza dei massimi esperti di sicurezza dall'azienda probabilmente lo conferma.
Reportage criptopolita di Aamir Sheikh
Cryptolitan Academy: Vuoi far crescere i tuoi soldi nel 2025? Scopri come farlo con DeFi nella nostra prossima webclass. Salva il tuo posto