Di recente, i titoli dei giornali si sono concentrati sui progressi dell'intelligenza artificiale. Ma l'IA esiste da decenni e continuerà a svolgere un ruolo importante nel modo in cui si combatterà la guerra in futuro, per una serie di applicazioni militari e di difesa.
Non si tratta solo di militari: potresti leggere questo testo su un dispositivo che si basa già in larga misura sull'intelligenza artificiale; quindi, probabilmente hai già utilizzato l'IA in qualche modo anche prima del recente clamore.
L'intelligenza artificiale è stata molto probabilmente impiegata in ogni situazione in cui si è pagato qualcosa online, ad esempio per cibo o intrattenimento, si è utilizzato il viso o l'impronta digitale per sbloccare il telefono, si è utilizzato un social media o si è programmato un viaggio tramite un'applicazione per telefono.
Ci siamo abituati all'intelligenza artificiale in vari modi, integrandola, spesso senza rendercene conto, nella nostra vita quotidiana.
L'intelligenza artificiale militare esiste dalla seconda guerra mondiale
Sebbene le armi siano state in grado di prendere alcune decisioni fin dalla Seconda Guerra Mondiale, l'intelligenza artificiale ora consente loro di prendere molte più decisioni e alla fine le renderà comuni.
Cosa succederebbe se qualcuno venisse attaccato e la suadentfosse determinata da un software di riconoscimento facciale? Invece didentil miglior ristorante in cui mangiare, cosa succederebbe se un software simile guidasse gli aerei a lanciare un attacco aereo su un bersaglio?
Leggi anche: L'adozione di sistemi militari di intelligenza artificiale predice una svolta sinistra nella guerra?
Finora, questo sembra un problema davvero serio. La domanda è: i sistemi di intelligenza artificiale possono davvero prendere decisioni di vita o di morte da soli? La loro accuratezza non è perfetta e varia a seconda della situazione, e sappiamo che non sempre sono corretti.
Nelle zone di conflitto reali, l'intelligenza artificiale sta già scegliendo quali persone colpire, come Gaza e l'Ucraina. Secondo una ricerca pubblicata sulla rivista israeliana +972 Magazine, Israele avrebbe utilizzato un sistema di intelligenza artificiale (IA) chiamato Lavender, che ha un'applicabilità minima al processo decisionale umano, per selezionare possibili obiettivi, causando un numero significativo di vittime civili.
Le macchine possono farlo freddamente
Di recente, l'Austria ha tenuto una conferenza per discutere le normative sulle armi basate sull'intelligenza artificiale, al fine di contrastare gli effetti devastanti che possono avere. L'intelligenza artificiale sta già combattendo e prendendo di mira gli esseri umani e i loro insediamenti. Il Ministro degli Esteri austriaco, Alexander Schallenberg, ha dichiarato:
"Non possiamo lasciar passare questo momento senza agire. Ora è il momento di concordare regole e norme internazionali per garantire il controllo umano."
Fonte: Reuters .
La tecnologia che molti eserciti stanno impiegando nelle zone di guerra è ancora lontana dalla maturità e non viene ancora utilizzata per decidere chi colpire. La tecnologia che chiamiamo intelligente non è ancora capace quanto il cervello di un gatto; persino gli esperti affermano che se nei prossimi anni raggiungeremo il livello di intelligenza di un topo, sarà un grande risultato.
Ma il livello di dipendenza da esso è così elevato che viene impiegato brutalmente, in un modo che disumanizza sia il bersaglio che chi detiene la potenza di fuoco. Solleva seri interrogativi di natura morale, umanitaria ed etica.
In quanto esseri umani, abbiamo delle lamentele, ma per impedire che un soldato sia in lutto, i militari possono ora usare questa nuova arma, come menzionato da una fonte segreta dell'intelligence secondo la rivista +972 Magazine, che ha affermato:
"La macchina lo ha fatto con freddezza. E questo ha reso tutto più facile."
Fonte: +972 Magazine .
È davvero importante che le persone siano coinvolte nel processo di selezione? Interrogato da un altro utente di Lavender, ha risposto che a quel punto avrebbe dedicato 20 secondi a ogni obiettivo e ne avrebbe completati decine ogni giorno. A parte il fatto di essere un sigillo di approvazione ufficiale, non aveva alcun valore aggiunto come essere umano. Faceva risparmiare parecchio tempo.
È facile capire quanto potere decisionale noi esseri umani stiamo volontariamente cedendo alle macchine.
Gli accordi internazionali sono ancora lontani
Gli Stati Uniti hanno avviato iniziative normative attraverso l'attuazione della Dichiarazione Politica sull'uso responsabile dell'intelligenza artificiale e dell'autonomia militare. La proclamazione include anche l'Australia. Un accordo internazionale, tuttavia, è ancora molto lontano.
La dichiarazione afferma che garantire le salvaguardie è essenziale, in quanto afferma che:
“Gli Stati dovrebbero implementare misure di sicurezza appropriate per mitigare i rischi di guasti nelle capacità di intelligenza artificiale militare, come la capacità di rilevare ed evitare conseguenze indesiderate e la capacità di rispondere, ad esempio, disinnestando o disattivando i sistemi schierati, quando tali sistemi mostrano un comportamento indesiderato”
Fonte: Dipartimento di Stato degli Stati Uniti .
Il documento sottolinea inoltre che l'uso dell'IA in ambito militare "può e deve essere" etico, oltre a contribuire al miglioramento della sicurezza internazionale. Ma la realtà sul campo mostra un quadro completamente diverso, come discusso in precedenza.
Una delle applicazioni di tali sistemi è l'individuazione e la localizzazione del personale militare nemico; con l'innovazione in atto nel campo delle esplosioni, non abbiamo idea di quali altri complessi utilizzi militari potrebbero derivarne.
Leggi anche: Kaspersky nega le accuse di aver aiutato l'esercito russo
Il dibattito per escludere l'intelligenza artificiale dalla guerra non sembra essere un'opzione in questo momento, ma i legislatori di tutto il mondo e i governi coinvolti nei conflitti devono accettare la mancanza di capacità dell'intelligenza artificiale e il potenziale caos che potrebbe scatenare su di noi esseri umani.
Attualmente, il processo decisionale politico non riesce a tenere il passo con l'innovazione, e questo problema deve essere affrontato in una certa misura, se non completamente, perché non possiamo semplicemente sederci e dire: "Wow! L'IA ha fatto altre 1.000 uccisioni". Cosa presenterà l'IA? Non lo sappiamo ancora, ma cosa dovrebbero fare i politici non è una questione riservata ai geni.
Reportage Cryptopolitan di Aamir Sheikh

