In un'epoca defi dal progresso tecnologico, le regole della guerra stanno subendo una radicale matic . L'intelligenza artificiale (IA) sta emergendo come un elemento di svolta sul campo di battaglia, sollevando complesse questioni sull'esternalizzazione del processo decisionale e sulle considerazioni etiche che circondano il suo utilizzo. Mentre le nazioni si affrettano a sviluppare applicazioni militari basate sull'IA, diventa sempre più evidente dent l'IA svolgerà un ruolo decisivo nei conflitti futuri.
Un ambito significativo in cui l'IA sta lasciando il segno è quello dei cieli. L'annuncio da parte di Boeing del drone MQ-28 "Ghost Bat" nel giugno 2023 ha segnato una pietra miliare importante. Questo drone avanzato impiega l'IA per supportare le flotte di caccia esistenti, tracvelivoli amici e nemici. Tuttavia, ciò che potrebbe sorprendere è che l'Aeronautica Militare statunitense avesse già raggiunto il volo autonomo con un caccia all'inizio di quell'anno.
Nel 2022, un caccia F-16 modificato, il VISTA X-62A, ha effettuato con successo un volo autonomo dalla base aeronautica di Edwards in California. Durante il volo di prova, il VISTA ha eseguito esercitazioni di manovra avanzate, segnando un traguardo storico: è stato il primo aereo tattico pilotato con successo con intelligenza artificiale.
Il programma Skyborg: potenziare i piloti umani
Nel 2019, l'Aeronautica Militare statunitense ha avviato il programma "Skyborg" per sviluppare un sistema basato sull'intelligenza artificiale per il controllo di velivoli senza pilota. Un anno dopo, il programma ha dimostrato la sua compatibilità con i velivoli di varitracattraverso il suo Autonomous Core System.
La richiesta di bilancio dell'Aeronautica Militare statunitense per il 2023, che supera i 100 milioni di dollari, testimonia il suo impegno nel promuovere la ricerca sulle Piattaforme Collaborative Autonome (ACP). Queste piattaforme offrono il potenziale per fornire potenza aerea a costi contenuti, in particolare nel teatro del Pacifico. M. Christopher Cotting, direttore della ricerca presso l'Air Force Test Pilot School, ha sottolineato che l'obiettivo non è sostituire i piloti umani, ma aumentarne le capacità. L'intelligenza artificiale può offrire un vantaggio ai piloti meno esperti, colmando il divario di esperienza.
Preparare i soldati all'integrazione dell'IA
Con la crescente diffusione dell'intelligenza artificiale nelle applicazioni militari, cresce la necessità per i soldati di collaborare efficacemente con i sistemi di intelligenza artificiale. In collaborazione con l'Aeronautica Militare statunitense, nel 2023 i ricercatori del MIT hanno avviato programmi di addestramento all'intelligenza artificiale per il personale militare. Questi programmi mirano a fornire ai soldati le competenze necessarie per sfruttare appieno il potenziale della tecnologia di intelligenza artificiale sul campo di battaglia.
L'impatto dell'IA si estende oltre i caccia. Nel 2022, il Ministero della Difesa israeliano ha presentato i piani per testare il Robotic Autonomous Sense and Strike (ROBUST), un veicolo robotico da combattimento di medie dimensioni (MRCV). Il ROBUST è progettato per localizzare e ingaggiare autonomamente i bersagli, dimostrando la versatilità dell'IA nei veicoli militari.
Allo stesso modo, nel 2023, l'ucraino devDROID ha introdotto torrette controllate dall'intelligenza artificiale, progettate per la guerra di trincea. Queste torrette possono sollevarsi dalle trincee, mirare ai bersagli e calcolare la balistica, sebbene gli operatori umani confermino l'ingaggio del bersaglio. Questa innovazione promette di rivoluzionare la strategia di fanteria.
L'influenza dell'intelligenza artificiale si estende dai cieli ai mari. Nel dicembre 2023, le marine statunitensi, britanniche e australiane hanno iniziato a testare l'intelligenza artificiale per traci sottomarini cinesi nel Pacifico, nell'ambito dell'accordo di condivisione tecnologica Aukus Pillar II. Gli algoritmi di intelligenza artificiale elaborano i dati sonar provenienti da vari sistemi, migliorando la precisione e l'efficienza del tracdi sottomarini e navi di superficie.
La crescente tendenza a utilizzare velivoli militari dotati di intelligenza artificiale offre numerosi vantaggi, tra cui risparmi sui costi, precisione nel puntamento e riduzione delle vittime. Riducendo il fattore di rischio umano, gli operatori possono prendere decisioni più consapevoli durante il combattimento aereo. Tuttavia, questi progressi comportano dei rischi.
La sfida della sicurezza informatica
Definire norme, ruoli funzionali e infrastrutture per i sistemi di combattimento senza pilota è fondamentale in un contesto instabile. Una sfida significativa risiede nella gestione della sicurezza informatica di questi sistemi basati sull'intelligenza artificiale. Il controllo e la responsabilità della sicurezza informatica dei sistemi militari sono spesso distribuiti tra più organizzazioni, con conseguenti difficoltà decisionali e di rendicontazione.
Sebbene gli algoritmi possano semplificare i processi decisionali, mancano della flessibilità e del giudizio istintivo propri degli esseri umani. In alcune situazioni, decisioni rapide basate sull'istinto umano sono fondamentali per preservare vite umane. Trovare il giusto equilibrio tra intelligenza artificiale e coinvolgimento umano rimane una sfida complessa.
Data la natura transnazionale dell'IA, comprenderne le sfide e le opportunità è essenziale per elaborare normative efficaci. Tecnologie emergenti come la biotecnologia, la robotica, l'informatica quantistica e l'IA hanno enormi implicazioni per le applicazioni militari. Pertanto, è fondamentale stabilire quadri normativi chiari prima che queste capacità diventino incontrollabili.
Risposte globali all'intelligenza artificiale in guerra
Le sfide di governance relative all'IA nella difesa e nella sicurezza sono complesse e sfaccettate. Gli Stati Uniti e l'Unione Europea hanno compiuto passi significativi verso la regolamentazione dell'IA nelle applicazioni militari. L'Ordine Esecutivo deldent Joe Biden mira a stabilire standard di IA sicuri, protetti e affidabili, contrastando al contempo l'uso militare dell'IA da parte degli avversari. L'Unione Europea ha approvato una legislazione sulla regolamentazione dell'IA che impone alle aziende di divulgare i dati di addestramento e impone sanzioni sostanziali in caso di violazioni.

