Sam Altman, CEO di OpenAI, si è dimesso dal Comitato interno per la sicurezza, un gruppo istituito a maggio per sovrintendere alle decisioni critiche in materia di sicurezza. Le dimissioni di Altman giungono in un momento in cui i legislatori statunitensi ed ex dipendenti di OpenAI hanno sollevato preoccupazioni in merito alla sicurezza e alla conformità legale dell'azienda.
Il Comitato per la Sicurezza e la Protezione opererà ora come un comitato separato a livello di consiglio di amministrazione che monitora le questioni relative alla sicurezza e alla protezione. Questo cambiamento ha portato alla nomina di Zico Kolter, professore della Carnegie Mellon University, come presidente, insieme al CEO di Quora Adam D'Angelo, al generale in pensione dell'esercito americano Paul Nakasone e all'ex dirigente Sony Nicole Seligman. Tutti e tre sono membri attuali del consiglio di amministrazione di OpenAI. Il gruppo avrà comunque il potere di ritardare la pubblicazione di modelli di intelligenza artificiale fino a quando non saranno risolti i problemi di sicurezza.
I critici mettono in discussione le priorità di OpenAI dopo la partenza di personale chiave
In un post sul blog successivo all'uscita di Altman, OpenAI ha ribadito la sua attenzione alla sicurezza e ha sottolineato che il comitato aveva già approvato la sicurezza del modello più recente, o1. Il gruppo riceverà inoltre regolarmente ulteriori informazioni dal personale addetto alla sicurezza dell'azienda per tenere i membri aggiornati e informati sulle future versioni dei modelli di intelligenza artificiale. Ha anche affermato di voler rafforzare le misure di sicurezza adottando revisioni tecniche e obiettivi ben definiti per il lancio dei modelli.
Ciò avviene in seguito alle critiche, in particolare da parte di cinque senatori statunitensi che in estate avevano espresso preoccupazione per le misure di sicurezza adottate dall'azienda. I critici hanno anche fatto notare che più della metà del personale incaricato di gestire le conseguenze a lungo termine dell'IA ha lasciato l'azienda. Alcuni hanno affermato che Altman è più interessato all'aspetto commerciale dell'IA che alla regolamentazione della tecnologia.
Le spese di OpenAI sono in aumento. Nella prima metà del 2024, l'azienda ha speso 800.000 dollari in attività di lobbying a livello federale, un aumento significativo rispetto ai 260.000 dollari spesi per l'intero 2023. All'inizio di quest'anno, Altman è diventato membro dell'Artificial Intelligence Safety and Security Board del Dipartimento per la Sicurezza Interna degli Stati Uniti. Il comitato dovrebbe fornire consulenza sull'uso dell'IA nei sistemi critici del Paese.
Permangono ancora interrogativi sull'autoregolamentazione del gigante dell'IA. In un articolo di opinione pubblicato su The Economist, le ex membri del consiglio di amministrazione di OpenAI, Helen Toner e Tasha McCauley, hanno sollevato dubbi sulla capacità dell'azienda di autoregolamentarsi. Hanno affermato che gli incentivi al profitto potrebbero minare l'autogoverno di OpenAI, il che, a loro avviso, potrebbe essere in contrasto con gli obiettivi di sicurezza a lungo termine.
OpenAI cerca finanziamenti massicci e pianifica il passaggio al modello a scopo di lucro
Secondo quanto riferito, OpenAI starebbe negoziando per assicurarsi un nuovo massiccio round di finanziamenti che potrebbe portare la sua valutazione a 150 miliardi di dollari. In un recente rapporto di Cryptopolitan, OpenAI prevede di ottenere 6,5 miliardi di dollari dagli investitori alla sua valutazione attuale. OpenAI starebbe pianificando di trasformare il suo attuale modello operativo in un modello tradizionale a scopo di lucro entro il 2025.
Il CEO di OpenAI, Sam Altman, ha annunciato i cambiamenti al personale durante una recente riunione, senza però fornire molti dettagli su cosa aspettarsi. Altman ha affermato che l'azienda era "cresciuta troppo" per la struttura attuale ed era pronta ad abbandonare il modello no-profit.

