- Jan Leike, responsabile del team Superalignment di OpenAI, ha sollevato seri dubbi sulle mutevoli pratiche di sicurezza dell'azienda.
- Leike ha lasciato l'azienda poche ore dopo che il co-fondatore Ilya Sutskever aveva lasciato l'azienda.
- Si dice che il team Superalignment verrà smantellato dall'azienda, lasciando i suoi modelli di intelligenza artificiale a un controllo minore.
Dopo che il co-fondatore Ilya Sutskever ha lasciato l'azienda all'inizio di questa settimana, Jan Leike, un importante ricercatore, ha annunciato venerdì mattina che "la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti brillanti" in azienda.
Jan Leike ha dichiarato in una serie di post sulla piattaforma social X di essersi unito alla startup con sede a San Francisco perché credeva che sarebbe stato il posto migliore in cui condurre ricerche sull'intelligenza artificiale.
Leike ha guidato il team "Superalignment" di OpenAI insieme a un co-fondatore che si è dimesso questa settimana.
Il team di Superalignment di OpenAI non è più intatto
Il team Superalignment di Leike è stato formato lo scorso luglio presso OpenAI per affrontare le principali sfide tecniche nell'implementazione di misure di sicurezza, mentre l'azienda sviluppa un'intelligenza artificiale in grado di razionalizzare come un essere umano.
Le dichiarazioni di Leike sono arrivate dopo che un rapporto di WIRED Chich aveva affermato che OpenAI aveva sciolto completamente il team Superslignment, incaricato di affrontare i rischi a lungo termine associati all'intelligenza artificiale.
Leggi anche: Ilya Sutskever, capo scienziato di Openai, saluta
Sutskever e Leike non sono stati gli unici dipendenti ad aver lasciato l'azienda. Almeno altri cinque tra i dipendenti più attenti alla sicurezza di OpenAI hanno lasciato l'azienda o sono stati licenziati da novembre scorso, quando il consiglio di amministrazione ha tentato di licenziare il CEO Sam Altman, solo per vederlo giocare le sue carte per riprendersi la sua posizione.
OpenAI dovrebbe diventare un'azienda AGI che mette al primo posto la sicurezza
Leike ha sottolineato l'aspetto più controverso della tecnologia su diverse piattaforme, ovvero un'immagine prospettica di robot che sono generalmente intelligenti quanto gli esseri umani o almeno capaci di svolgere molti compiti altrettanto bene, scrivendo che OpenAI deve trasformarsi in un'azienda AGI che mette al primo posto la sicurezza.
In risposta ai post di Leike, Sam Altman, CEO di Open AI, ha espresso la sua gratitudine per i servizi resi da Leike all'azienda e ha espresso il suo dispiacere per la sua partenza.
Altman ha affermato in un post X che Leike ha ragione e che avrebbe scritto un lungo post sull'argomento nei prossimi giorni. Ha anche affermato che:
“Abbiamo ancora molto da fare e ci impegniamo a farlo.”
Leike ha lasciato il team di superallineamento di OpenAI e il suo posto è stato preso da John Schulman, uno dei co-fondatori dell'azienda.
Ma c'è un vuoto nel team. Inoltre, Schulman è già oberato dal suo lavoro a tempo pieno per garantire la sicurezza dei prodotti OpenAI esistenti. Quanto lavoro di sicurezza più significativo e orientato al futuro può produrre OpenAI? Non sembra esserci una risposta soddisfacente a questa domanda.
Jan Leike ha divergenze ideologiche con il management
Come suggerisce il nome dell'organizzazione, OpenAI, originariamente pensata per condividere liberamente i propri modelli con il pubblico, ora l'azienda afferma che rendere disponibili a chiunque modelli così potenti potrebbe essere dannoso, pertanto i modelli sono stati trasformati in conoscenza proprietaria.
Leike ha affermato in un post di non essere d'accordo con i vertici di OpenAI in merito alle priorità che hanno imposto all'azienda per un bel po' di tempo, fino a quando non hanno finalmente raggiunto un punto di svolta.
Mi sono unito al team perché pensavo che OpenAI fosse il posto migliore al mondo per svolgere questa ricerca.
— Jan Leike (@janleike) 17 maggio 2024
Tuttavia, da tempo non concordavo con la dirigenza di OpenAI sulle priorità principali dell'azienda, fino a raggiungere un punto di rottura.
L'ultimo giorno di Leike in azienda è stato giovedì, dopodiché si è dimesso senza indorare la pillola con saluti calorosi o un accenno di fiducia nella leadership di OpenAI. Su X, ha scritto: "Mi sono dimesso"
Un follower di Leike ha dichiarato in un commento di essere felice che Leike non faccia più parte della loro squadra. Le ideologie woke non sono in linea con l'umanità. Meno si allineano, più vengono investite nell'intelligenza artificiale.
Leggi anche: OpennAI protegge i contenuti di Reddit per migliorare ChatGPT
Il follower ha affermato che avrebbe richiesto anche una defidi allineamento da parte di tutti gli allineatori. Ha fatto riferimento a una raccomandazione in cui Leike chiedeva ad altri dipendenti di OpenAI se, a suo avviso, potessero attuare il cambiamento culturale necessario in azienda.
L'azienda leader mondiale nel settore dell'intelligenza artificiale sembra stia cambiando rotta per quanto riguarda le misure di sicurezza spesso sottolineate dagli esperti, e l'uscita di scena dei massimi esperti di sicurezza dall'azienda probabilmente lo conferma.
Reportage Cryptopolitan di Aamir Sheikh
Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















