Caitlin Kalinowski, ex responsabile della robotica di OpenAI, si è dimessa dal suo incarico dopo aver lavorato per l'azienda per poco più di un anno. Kalinowski ha espresso preoccupazione per il fatto che l'esercito statunitense possa utilizzare gli strumenti di intelligenza artificiale dell'azienda per la sorveglianza interna e per sistemi automatizzati e mirati nelle armi statunitensi.
Caitlin Kalinowski, responsabile dell'ingegneria hardware e robotica di OpenAI, ha lasciato l'azienda di intelligenza artificiale dopo aver ricoperto il ruolo dal novembre 2024. Kalinowski ha annunciato le sue dimissioni il 7 marzo, citando preoccupazioni riguardo a un accordo raggiunto tra OpenAI e il Dipartimento della Difesa degli Stati Uniti a febbraio.
Kalinowski afferma che l'esercito americano utilizzerà l'intelligenza artificiale per la sorveglianza interna
Mi sono dimesso da OpenAI. Tengo molto al team di Robotica e al lavoro che abbiamo svolto insieme. Non è stata una decisione facile. L'intelligenza artificiale ha un ruolo importante nella sicurezza nazionale. Ma la sorveglianza degli americani senza controllo giudiziario e l'autonomia letale senza autorizzazione umana sono..
– Caitlin Kalinowski (@kalinowski007) 7 marzo 2026
Secondo Kalinowski, le sue dimissioni sono state motivate dall'intenzione del Dipartimento della Difesa degli Stati Uniti di utilizzare strumenti e capacità di intelligenza artificiale per sorvegliare i cittadini statunitensi senza controllo giudiziario. L'ex dipendente di OpenAI ha scritto su X che l'intelligenza artificiale ha un ruolo fondamentale per la sicurezza nazionale.
Ha spiegato che il Dipartimento della Difesa degli Stati Uniti intende utilizzare l'intelligenza artificiale per la sorveglianza e le armi autonome, una decisione con cui non è d'accordo. Ha affermato che la sua decisione "riguardava i principi, non le persone" e che era orgogliosa di ciò che il team di OpenAI aveva costruito durante il suo periodo in azienda.
A febbraio, il Pentagono degli Stati Uniti ha intensificato i colloqui con le principali aziende di intelligenza artificiale per implementare modelli automatizzati su sistemi classificati. Cryptopolitan è stato riferito che il Pentagono stava promuovendo colloqui con Anthropic e OpenAI per integrare strumenti di intelligenza artificiale nelle reti militari classificate.
Emil Michael, responsabile della tecnologia del Pentagono, ha dichiarato durante un incontro alla Casa Bianca con i leader del settore tecnologico che l'esercito desidera che i modelli di intelligenza artificiale operino sia su reti classificate che non classificate, senza limitazioni o restrizioni.
I negoziati tra il governo degli Stati Uniti e Anthropic si sono scontrati con un muro di gomma, poiché i leader di Anthropic hanno stabilito con fermezza che la loro tecnologia non verrà utilizzata per operazioni di sorveglianza interna e sistemi di puntamento di armi autonome. L'azienda defi sfidato l'ultimatum del Pentagono di rimuovere le misure di sicurezza dell'IA a fine febbraio.
Il CEO di Anthropic, Dario Amodei, ha mantenuto la sua posizione, rifiutando di consentire l' utilizzo della tecnologia dell'azienda nelle spedizioni militari. In risposta, Trump ha ordinato a tutte le agenzie federali di interrompere l'utilizzo della tecnologia Anthropic a fine febbraio.
OpenAI ha imposto restrizioni all'impiego militare dell'IA
Il Dipartimento della Difesa ha raggiunto un accordo con OpenAI che da allora ha suscitato critiche. Sam Altman ha affermato che l'accordo sembrava piuttosto opportunistico e ha chiarito che l'azienda ha imposto restrizioni sull'utilizzo dei suoi strumenti di intelligenza artificiale nelle operazioni militari.
Tuttavia, Kalinowski sostiene che l'annuncio sia stato affrettato, senza le necessarie protezioni. Ha aggiunto che la sua uscita era dovuta a preoccupazioni di governance, troppo importanti per essere affrettate.
OpenAI ha confermato l'uscita di Kalinowski in una dichiarazione, ma ha affermato che i legami dell'azienda con i dipartimenti della difesa aprono la strada all'uso responsabile degli strumenti di intelligenza artificiale nella sicurezza nazionale.
A febbraio, OpenAI ha annunciato che avrebbe implementato una versione personalizzata di ChatGPT sulla piattaforma di intelligenza artificiale aziendale sicura del Dipartimento della Guerra, chiamata GenAI.mil. L'azienda ha sottolineato che le sue collaborazioni con i dipartimenti militari e della difesa derivano dal ruolo fondamentale dell'intelligenza artificiale nella protezione delle persone e nella prevenzione dei conflitti.
Le tensioni tra il governo statunitense e le aziende di intelligenza artificiale in merito al progresso dell'intelligenza artificiale in ambito militare hanno portato un numero sempre maggiore di ricercatori ad abbandonare le aziende di intelligenza artificiale. Uno dei principali ricercatori di Anthropic, responsabile delle garanzie, si è dimesso con una dichiarazione: "Il mondo è in pericolo"
Anche un altro ricercatore di OpenAI ha lasciato il suo incarico, affermando che la tecnologia dell'intelligenza artificiale ha un modo di controllare gli esseri umani che gli sviluppatori non riescono a comprendere o a impedire.
Anche Zoë Hitzig, ex ricercatrice presso OpenAI, ha lasciato l'azienda l'11 febbraio. Si è dimessa lo stesso giorno in cui OpenAI ha annunciato di aver iniziato a testare gli annunci pubblicitari sul suo LLM ChatGPT. Ha affermato che l'azienda di intelligenza artificiale stava commettendo lo stesso errore di Facebook.
Hitzig ha espresso la sua preoccupazione per il fatto che il ruolo unico di ChatGPT come confidente per rivelazioni profondamente personali (paure mediche, problemi relazionali, convinzioni religiose) rende il targeting pubblicitario particolarmente rischioso.

