Negli ultimi giorni, un importante funzionario degli Stati Uniti ha ribadito l'idea che tutte le potenze nucleari debbano mantenere personale umano di alto livello per supervisionare tali armi. Paul Dean, vicesegretario aggiunto facente funzioni presso la divisione Controllo degli Armamenti, Deterrenza e Stabilità del Dipartimento di Stato, ha affermato che è altamente rischioso ignorare il fatto che le macchine potrebbero rallentare in un momento pericoloso, quando una singola mossa sbagliata potrebbe causare danni peggiori di quelli causati alle macchine stesse. Ha in particolare menzionato l'accordo del Consiglio di Sicurezza delle Nazioni Unite sull'influenza fondamentale della considerazione umana nel processo decisionale relativo alla gestione delle armi strategiche.
Il momento Oppenheimer dell'IA
I rischi dell'intelligenza artificiale armata hanno raggiunto il culmine del momento Oppenheimer, a chiara indicazione che il bivio etico che si trovò di fronte J. Robert Oppenheimer, il padre della bomba atomica, sta ora prendendo il sopravvento sul dibattito sul ruolo dell'IA nei conflitti moderni. Alcune settimane fa, durante un corso di formazione collaborativo che ha riunito nazioni di tutto il mondo, tra cui oltre cento nazioni, la necessità di una rigorosa implementazione dell'IA nei sistemi di regolamentazione della tecnologia militare è stata uno dei punti principali dell'agenda. Il ministro degli Esteri austriaco, Alexander Schallenberg, ha avanzato l'idea che, quando si tratta di applicazioni militari, l'IA non impone condizioni sulla possibilità che gli esseri umani prendano o meno decisioni di vita o di morte e ha un impatto sulla tecnologia militare significativo quanto la polvere da sparo.
Armi autonome e diplomazia internazionale
La conferenza sui Sistemi d'Armi Autonomi di Vienna ha visto anche discussioni su come l'IA si integri nelle strategie di guerra e sull'imminente necessità di un sistema di trattati internazionali per gestire tali tecnologie. Sebbene, nell'ambito dell'IA, il coinvolgimento in ambito militare sia ad alto livello, non esiste ancora un regime di diritto internazionale concreto che disciplini il Sistema d'Armi Autonomo Letale LAWS. La conferenza è stata dedicata al Paese che prevede di ospitare i prossimi negoziati e ai negoziati che potrebbero portare alla stesura di tale trattato.
Sviluppi militari globali e intelligenza artificiale
Un caso recente illustra alcune applicazioni legittime dell'IA in obiettivi militari, e la preoccupazione che emerge è Lavender, nome dato a un sistema di IA (nome falso) da una spia israeliana. È stato creato appositamente per raccogliere enormi quantità di dati collegati a sospetti (falsi) e obiettivi di progetto. Inoltre, anche l'esercito ucraino ha iniziato a sviluppare droni anti-drone dotati di IA, che miglioreranno la precisione e la sicurezza, dimostrando che la transizione verso tecnologie militari automatizzate sta accelerando rapidamente. D'altro canto, l'impegnomatic rimane in corso, con l'amministrazione Biden che si assicura anche di avviare colloqui con la Cina.
La preoccupazione non riguarda solo le questioni miopi relative alle politiche sulle armi nucleari, ma anche il quadro più ampio del rapido sviluppo dell'IA. Queste inferenze mirano a gettare le basi per affrontare i rischi posti dall'IA, dimostrando il riconoscimento del ruolo dualistico dell'IA nella tecnologia. Pertanto, insieme alla tendenza all'integrazione della tecnologia dell'IA nel controllo remoto degli eserciti dei paesi, l'imperativo di creare un sistema di trattati internazionali per regolamentare queste tecnologie non è mai stato cosìtron. Il dialogo e i negoziati in corso sono i passaggi chiave affinché i robot destinati alla protezione e alla guerra siano anche sotto il controllo umano.

