ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il capo della robotica OpenAI si dimette, avverte della sorveglianza dell'IA nell'ambito deltracdi difesa

DiCollins J. OkothCollins J. Okoth
Tempo di lettura: 3 minuti.
Il capo della robotica OpenAI si dimette, avverte della sorveglianza dell'IA nell'ambito deltracdi difesa
  • Il responsabile dell'ingegneria hardware e robotica di OpenAI si è dimesso dall'azienda, esprimendo preoccupazione per la sorveglianza degli americani senza controllo giudiziario.
  • Caitlin Kalinowski ha affermato che il Dipartimento della Difesa degli Stati Uniti intende utilizzare l'intelligenza artificiale nella sorveglianza e nelle armi autonome.
  • Un numero sempre maggiore di dipendenti ha lasciato le aziende di intelligenza artificiale, adducendo motivazioni sinistre in settori quali l'uso dell'intelligenza artificiale in ambito militare e la pubblicità mirata malevola.

Caitlin Kalinowski, ex responsabile della robotica di OpenAI, si è dimessa dal suo incarico dopo aver lavorato per l'azienda per poco più di un anno. Kalinowski ha espresso preoccupazione per il fatto che l'esercito statunitense possa utilizzare gli strumenti di intelligenza artificiale dell'azienda per la sorveglianza interna e per sistemi automatizzati e mirati nelle armi statunitensi.

Caitlin Kalinowski, responsabile dell'ingegneria hardware e robotica di OpenAI, ha lasciato l'azienda di intelligenza artificiale dopo aver ricoperto il ruolo dal novembre 2024. Kalinowski ha annunciato le sue dimissioni il 7 marzo, citando preoccupazioni riguardo a un accordo raggiunto tra OpenAI e il Dipartimento della Difesa degli Stati Uniti a febbraio. 

Kalinowski afferma che l'esercito americano utilizzerà l'intelligenza artificiale per la sorveglianza interna

Secondo Kalinowski, le sue dimissioni sono state motivate dall'intenzione del Dipartimento della Difesa degli Stati Uniti di utilizzare strumenti e capacità di intelligenza artificiale per sorvegliare i cittadini statunitensi senza controllo giudiziario. L'ex dipendente di OpenAI ha scritto su X che l'intelligenza artificiale ha un ruolo fondamentale per la sicurezza nazionale. 

Ha spiegato che il Dipartimento della Difesa degli Stati Uniti intende utilizzare l'intelligenza artificiale per la sorveglianza e le armi autonome, una decisione con cui non è d'accordo. Ha affermato che la sua decisione "riguardava i principi, non le persone" e che era orgogliosa di ciò che il team di OpenAI aveva costruito durante il suo periodo in azienda. 

A febbraio, il Pentagono statunitense ha intensificato i colloqui con le principali aziende di intelligenza artificiale per l'implementazione di modelli automatizzati su sistemi classificati. Cryptopolitan ha riportato che il Pentagono stava portando avanti le trattative con Anthropic e OpenAI per integrare strumenti di intelligenza artificiale nelle reti militari classificate.

Emil Michael, responsabile della tecnologia del Pentagono, ha dichiarato durante un incontro alla Casa Bianca con i leader del settore tecnologico che l'esercito desidera che i modelli di intelligenza artificiale operino sia su reti classificate che non classificate, senza limitazioni o restrizioni.

I negoziati tra il governo statunitense e Anthropic si sono scontrati con un muro, poiché i vertici dell'azienda hanno categoricamente ribadito che la loro tecnologia non sarà utilizzata per operazioni di sorveglianza interna e sistemi autonomi di puntamento delle armi. A fine febbraio, la società defiha sfidato ultimatum del Pentagono di eliminare le misure di sicurezza relative all'intelligenza artificiale.

L'amministratore delegato di Anthropic, Dario Amodei, ha mantenuto la sua posizione, rifiutandosi di consentire l'utilizzo della tecnologia dell'azienda in spedizioni militari. In risposta, a fine febbraio Trump ha ordinato a tutte le agenzie federali di interrompere l'uso della tecnologia di Anthropic. 

OpenAI ha imposto restrizioni all'impiego militare dell'IA

Il Dipartimento della Difesa ha raggiunto un accordo con OpenAI che ha suscitato diverse critiche. Sam Altman ha affermato che l'accordo sembrava piuttosto opportunistico e ha chiarito che l'azienda ha imposto delle restrizioni sull'utilizzo dei suoi strumenti di intelligenza artificiale nelle operazioni militari.

Tuttavia, Kalinowski sostiene che l'annuncio sia stato affrettato, senza le necessarie protezioni. Ha aggiunto che la sua uscita era dovuta a preoccupazioni di governance, troppo importanti per essere affrettate.

OpenAI ha confermato l'uscita di Kalinowski in una dichiarazione, ma ha affermato che i legami dell'azienda con i dipartimenti della difesa aprono la strada all'uso responsabile degli strumenti di intelligenza artificiale nella sicurezza nazionale. 

A febbraio, OpenAI ha annunciato l'implementazione di una versione personalizzata di ChatGPT sulla piattaforma di intelligenza artificiale aziendale sicura del Dipartimento della Guerra, denominata GenAI.mil. L'azienda ha sottolineato che le sue collaborazioni con i dipartimenti militari e della difesa derivano dal ruolo cruciale dell'IA nella protezione delle persone e nella prevenzione dei conflitti.

Le tensioni tra il governo statunitense e le aziende di intelligenza artificiale in merito al progresso dell'intelligenza artificiale in ambito militare hanno portato un numero sempre maggiore di ricercatori ad abbandonare le aziende di intelligenza artificiale. Uno dei principali ricercatori di Anthropic, responsabile delle garanzie, si è dimesso con una dichiarazione: "Il mondo è in pericolo"

Anche un altro ricercatore di OpenAI ha lasciato il suo incarico, affermando che la tecnologia dell'intelligenza artificiale ha un modo di controllare gli esseri umani che gli sviluppatori non riescono a comprendere o a impedire.

Anche Zoë Hitzig, ex ricercatrice presso OpenAI, ha lasciato l'azienda l'11 febbraio. Si è dimessa lo stesso giorno in cui OpenAI ha annunciato di aver iniziato a testare gli annunci pubblicitari sul suo LLM ChatGPT. Ha affermato che l'azienda di intelligenza artificiale stava commettendo lo stesso errore di Facebook.

Hitzig ha espresso la sua preoccupazione per il fatto che il ruolo unico di ChatGPT come confidente per rivelazioni profondamente personali (paure mediche, problemi relazionali, convinzioni religiose) rende il targeting pubblicitario particolarmente rischioso.

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO