Your bank is using your money. You’re getting the scraps.WATCH FREE

Il capo della robotica OpenAI si dimette, avverte della sorveglianza dell'IA nell'ambito deltracdi difesa

In questo post:

  • Il responsabile dell'ingegneria hardware e robotica di OpenAI si è dimesso dall'azienda, esprimendo preoccupazione per la sorveglianza degli americani senza controllo giudiziario.
  • Caitlin Kalinowski ha affermato che il Dipartimento della Difesa degli Stati Uniti intende utilizzare l'intelligenza artificiale nella sorveglianza e nelle armi autonome.
  • Un numero sempre maggiore di dipendenti ha lasciato le aziende di intelligenza artificiale, adducendo motivazioni sinistre in settori quali l'uso dell'intelligenza artificiale in ambito militare e la pubblicità mirata malevola.

Caitlin Kalinowski, ex responsabile della robotica di OpenAI, si è dimessa dal suo incarico dopo aver lavorato per l'azienda per poco più di un anno. Kalinowski ha espresso preoccupazione per il fatto che l'esercito statunitense possa utilizzare gli strumenti di intelligenza artificiale dell'azienda per la sorveglianza interna e per sistemi automatizzati e mirati nelle armi statunitensi.

Caitlin Kalinowski, responsabile dell'ingegneria hardware e robotica di OpenAI, ha lasciato l'azienda di intelligenza artificiale dopo aver ricoperto il ruolo dal novembre 2024. Kalinowski ha annunciato le sue dimissioni il 7 marzo, citando preoccupazioni riguardo a un accordo raggiunto tra OpenAI e il Dipartimento della Difesa degli Stati Uniti a febbraio. 

Kalinowski afferma che l'esercito americano utilizzerà l'intelligenza artificiale per la sorveglianza interna

Secondo Kalinowski, le sue dimissioni sono state motivate dall'intenzione del Dipartimento della Difesa degli Stati Uniti di utilizzare strumenti e capacità di intelligenza artificiale per sorvegliare i cittadini statunitensi senza controllo giudiziario. L'ex dipendente di OpenAI ha scritto su X che l'intelligenza artificiale ha un ruolo fondamentale per la sicurezza nazionale. 

Ha spiegato che il Dipartimento della Difesa degli Stati Uniti intende utilizzare l'intelligenza artificiale per la sorveglianza e le armi autonome, una decisione con cui non è d'accordo. Ha affermato che la sua decisione "riguardava i principi, non le persone" e che era orgogliosa di ciò che il team di OpenAI aveva costruito durante il suo periodo in azienda. 

Vedi anche  Google rilascia uno strumento di intelligenza artificiale che crea immagini da altre immagini

A febbraio, il Pentagono degli Stati Uniti ha intensificato i colloqui con le principali aziende di intelligenza artificiale per implementare modelli automatizzati su sistemi classificati. Cryptopolitan è stato riferito che il Pentagono stava promuovendo colloqui con Anthropic e OpenAI per integrare strumenti di intelligenza artificiale nelle reti militari classificate.

Emil Michael, responsabile della tecnologia del Pentagono, ha dichiarato durante un incontro alla Casa Bianca con i leader del settore tecnologico che l'esercito desidera che i modelli di intelligenza artificiale operino sia su reti classificate che non classificate, senza limitazioni o restrizioni.

I negoziati tra il governo degli Stati Uniti e Anthropic si sono scontrati con un muro di gomma, poiché i leader di Anthropic hanno stabilito con fermezza che la loro tecnologia non verrà utilizzata per operazioni di sorveglianza interna e sistemi di puntamento di armi autonome. L'azienda defi sfidato l'ultimatum del Pentagono di rimuovere le misure di sicurezza dell'IA a fine febbraio.

Il CEO di Anthropic, Dario Amodei, ha mantenuto la sua posizione, rifiutando di consentire l' utilizzo della tecnologia dell'azienda nelle spedizioni militari. In risposta, Trump ha ordinato a tutte le agenzie federali di interrompere l'utilizzo della tecnologia Anthropic a fine febbraio.

OpenAI ha imposto restrizioni all'impiego militare dell'IA

Il Dipartimento della Difesa ha raggiunto un accordo con OpenAI che da allora ha suscitato critiche. Sam Altman ha affermato che l'accordo sembrava piuttosto opportunistico e ha chiarito che l'azienda ha imposto restrizioni sull'utilizzo dei suoi strumenti di intelligenza artificiale nelle operazioni militari.

Tuttavia, Kalinowski sostiene che l'annuncio sia stato affrettato, senza le necessarie protezioni. Ha aggiunto che la sua uscita era dovuta a preoccupazioni di governance, troppo importanti per essere affrettate.

Vedi anche  Navigare l'intersezione tra intelligenza artificiale e cambiamento climatico

OpenAI ha confermato l'uscita di Kalinowski in una dichiarazione, ma ha affermato che i legami dell'azienda con i dipartimenti della difesa aprono la strada all'uso responsabile degli strumenti di intelligenza artificiale nella sicurezza nazionale. 

A febbraio, OpenAI ha annunciato che avrebbe implementato una versione personalizzata di ChatGPT sulla piattaforma di intelligenza artificiale aziendale sicura del Dipartimento della Guerra, chiamata GenAI.mil. L'azienda ha sottolineato che le sue collaborazioni con i dipartimenti militari e della difesa derivano dal ruolo fondamentale dell'intelligenza artificiale nella protezione delle persone e nella prevenzione dei conflitti.

Le tensioni tra il governo statunitense e le aziende di intelligenza artificiale in merito al progresso dell'intelligenza artificiale in ambito militare hanno portato un numero sempre maggiore di ricercatori ad abbandonare le aziende di intelligenza artificiale. Uno dei principali ricercatori di Anthropic, responsabile delle garanzie, si è dimesso con una dichiarazione: "Il mondo è in pericolo"

Anche un altro ricercatore di OpenAI ha lasciato il suo incarico, affermando che la tecnologia dell'intelligenza artificiale ha un modo di controllare gli esseri umani che gli sviluppatori non riescono a comprendere o a impedire.

Anche Zoë Hitzig, ex ricercatrice presso OpenAI, ha lasciato l'azienda l'11 febbraio. Si è dimessa lo stesso giorno in cui OpenAI ha annunciato di aver iniziato a testare gli annunci pubblicitari sul suo LLM ChatGPT. Ha affermato che l'azienda di intelligenza artificiale stava commettendo lo stesso errore di Facebook.

Hitzig ha espresso la sua preoccupazione per il fatto che il ruolo unico di ChatGPT come confidente per rivelazioni profondamente personali (paure mediche, problemi relazionali, convinzioni religiose) rende il targeting pubblicitario particolarmente rischioso.

Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan