I documenti di uscita di OpenAI sono troppo restrittivi per i dipendenti che lasciano l'azienda?

- I documenti di uscita di OpenAI impediscono ai dipendenti in partenza di criticare l'azienda, rischiando di perdere il loro capitale.
- Le pratiche di sicurezza dell'azienda in materia di intelligenza artificiale sono già oggetto di critiche dopo l'abbandono di figure chiave.
- Sam Altman, che si è scusato pubblicamente per le restrittive condizioni di uscita, è stato criticato per le sue azioni percepite come contraddittorie rispetto alle sue dichiarazioni.
I dipendenti in uscita da OpenAI sono tenuti a firmare un accordo restrittivo di off-boarding. L'amministratore delegato di OpenAI, Sam Altman, ha affermato che una parte dell'accordo non avrebbe mai dovuto essere stipulata, e questa è una delle rare occasioni in cui la gestione di OpenAI lo ha davvero messo in imbarazzo.
Dopo l'uscita di alcuni importanti dipendenti del team di sicurezza di OpenAI, è emerso che l'accordo include clausole di non denigrazione e di non divulgazione che impediscono ai dipendenti in uscita di criticare OpenAI per il resto della loro vita, ha riferito Vox sabato.
E non è tutto: l'accordo prevede addirittura la revoca del capitale azionario dei dipendenti nell'azienda qualora dovessero criticare il loro precedente datore di lavoro in un modo che OpenAI ritiene possa sminuirne il valore. Inoltre, non possono discutere delle condizioni di uscita, poiché anche questo comporterebbe la revoca del loro capitale azionario.
Cosa sta succedendo a OpenAI?
Nel recente annuncio di ChatGPT-4o, il prodotto di punta dell'azienda ha ottenuto la capacità di parlare e riconoscere elementi visivi, ma per i nerd e i follower della tecnologia, tutto il clamore attorno all'aggiornamento del prodotto è stato superato dalla realtà che i dipendenti in partenza dall'azienda possono riconoscere gli elementi visivi ma non possono parlare.
“Negli ultimi anni, la cultura e i processi di sicurezza sono passati in secondo piano rispetto ai prodotti accattivanti.” Jan Leike.
Poco dopo il debutto di ChatGPT-4o, il co-fondatore e responsabile scientifico di OpenAI, Ilya Sutskever, ha lasciato l'azienda. Sutskever era anche a capo del team Superalignment, che si occupava delle problematiche di sicurezza relative al prodotto di intelligenza artificiale dell'azienda.
Leggi anche: OpenAI presenta Chatgpt-4o: accesso gratuito con limitazioni
Poche ore dopo la partenza di Sutskever, anche un altro co-leader del team Superalignment, Jan Leike, se ne è andato. La partenza di entrambi gli esperti di sicurezza ha fatto presagire la possibilità che OpenAI potesse modificare le sue preferenze in materia di sicurezza, e si è iniziato a ipotizzare che si fossero dimessi per protesta.
Altman si è scusato per gli errori commessi nella politica di equità
Molti osservatori accusano Altman di essere un bravo giocatore nel rilasciare dichiarazioni pubbliche, ma lo criticano perché va praticamente controcorrente rispetto a ciò che dice.
Oggi, Altman ha pubblicato un post su X su come l'azienda gestisce il capitale azionario dei suoi dipendenti. Ha affermato che nei loro documenti precedenti era presente una clausola relativa alla potenziale cancellazione del capitale azionario, ma che non hanno mai richiesto alcun rimborso. Ha affermato che questa clausola non avrebbe mai dovuto essere presente in nessuno dei loro documenti.
Altman ha anche affermato che il suo team stava già sistemando le pratiche di uscita il mese scorso, e chiunque avesse lasciato l'azienda con vecchi documenti firmati poteva contattarlo per correggerli. Ha anche aggiunto che è una delle poche volte in cui si sente in imbarazzo a gestire l'azienda.
Ma guardando alla storia, come abbiamo detto prima, Altman è stato accusato di contraddizioni nelle sue parole e nelle sue azioni; ad esempio, è stato criticato per aver convinto l'Arabia Saudita a investire miliardi nella produzione di acceleratori di intelligenza artificiale. Pur sapendo che il Paese è una monarchia e che i potenti possono usare la tecnologia per controllare la società.
Ciò accadde nello stesso periodo in cui elogiò la sicurezza dell'IA e firmò una lettera al governo degli Stati Uniti per fermare il rapido sviluppo dell'IA e salvare l'umanità dai pericoli. Fu anche abbastanza intelligente da trasformare un'organizzazione no-profit in una startup tecnocratica e poi da accelerare la commercializzazione. Non è semplice e richiede una sorta di inganno per realizzarlo.
Non tutto è semplice in OpenAI
C'è anche un po' di storia in ballo. Quando l'amministratore delegato Sam Altman fu licenziato dal consiglio di amministrazione dell'azienda l'anno scorso, prima di tornare rapidamente al suo incarico, Sutskever faceva parte del consiglio che prese la decisione.
Ma Sutskever cambiò rapidamente posizione e si pentì della sua decisione; iniziò persino a collaborare con i dipendenti che volevano il ritorno di Altman in azienda. Sutskever firmò anche la lettera che chiedeva il ritorno di Altman.
Da quando Altman è tornato in azienda, la posizione di Sutskever è rimasta poco chiara, e anche lui è stato rimosso dal consiglio di amministrazione, come molti altri dopo il ritorno di Altman. Altman ha espresso il suo dolore per la partenza di Sutskever, affermando:
“Ilya e OpenAI si separeranno. Questa notizia mi rattrista molto; Ilya è senza dubbio una delle menti più brillanti della nostra generazione, un punto di riferimento nel nostro settore e un caro amico.” Fonte: OpenAI.
L'ex capo scienziato ha affermato che se ne va per un progetto che per lui è personalmente importante. Anche se non sappiamo di cosa si tratti, sembra che il problema sia la sicurezza dell'IA, che si ritiene sia stato il fulcro delle preferenze di Sutskever per tutto il periodo in cui ha lavorato presso OpenAI.
Leggi anche: Il CEO di OpenAI interviene sulla potenziale rete di sicurezza sociale basata sull'intelligenza artificiale
D'altro canto, l'annuncio di Leike è stato diretto, dato che ha semplicemente dichiarato: "Mi sono dimesso", e in seguito ha spiegato le sue preoccupazioni in una serie di post su X. Altman afferma che stanno lavorando per correggere i documenti di uscita, ma un altro ex dipendente dell'azienda, Daniel Kokotaijlo, ha affermato di aver rinunciato alla sua quota azionaria per non aver firmato l'accordo. Ha annunciato di aver lasciato l'azienda perché aveva perso "fiducia nel fatto che si sarebbe comportata responsabilmente durante il periodo di AGI"
Sebbene Altman abbia affermato che qualsiasi ex dipendente può contattarli e che loro cercheranno di risolvere la questione, non possiamo essere certi di come ciò si concretizzi in uno scenario in cui è in corso un esodo di dipendenti e i dipendenti sollevano dubbi sulle mutevoli pratiche di sicurezza dell'azienda in materia di intelligenza artificiale.
Reportage Cryptopolitan di Aamir Sheikh
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

Aamir Sheikh
Aamir è un giornalista specializzato in tecnologia e criptovalute. Si è laureato alla MAJ University di Karachi con un MBA in Marketing e Finanza. Scrive analisi sulle criptovalute per Cryptopolitan dal 2021.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














