I robot killer sono già sul campo di battaglia e si stanno dimostrando armi piuttosto distruttive. Dovremmo essere preoccupati, anzi, molto preoccupati. Poiché hanno dimostrato il loro potenziale mortale nelle guerre a Gaza e in Ucraina, le conseguenze potrebbero essere devastanti se gestite con negligenza. Il 3 aprile, la rivista israeliana +972 ha pubblicato un rapporto sull'uso dell'intelligenza artificiale da parte di Israele perdentobiettivi a Gaza.
Il sistema di intelligenza artificiale si chiama Lavender e si dice che abbia stilato liste di uccisioni di presunti membri di Hamas, compresi quelli che lavoravano nei ranghi inferiori. Non abbiamo idea di quanto fossero corrette le liste, ma il fatto più preoccupante è che è stato utilizzato per colpire i militanti anche se si trovavano nelle loro case con le loro famiglie, i loro figli e molti civili nei paraggi. Il grafico sottostante mostra il numero di vittime e feriti fino al 15 aprile.

Gli algoritmi dicono chi prendere di mira
Come èdent dall'elevato numero di morti civili e dalla massiccia distruzione delle infrastrutture dopo l'invasione israeliana di Gaza, il rapporto ha suscitato serie preoccupazioni tra le organizzazioni umanitarie, i funzionari governativi e ogni individuo di buon senso in tutto il mondo e negli Stati Uniti. Antonio Guterres, Segretario Generale delle Nazioni Unite, si è dichiarato "profondamente turbato" e John Kirby, portavoce della Casa Bianca, ha affermato che "gli Stati Uniti stanno esaminando attentamente il rapporto"
Guterres ha mostrato maggiore preoccupazione per le vittime e ha affermato:
“Nessuna parte delle decisioni di vita o di morte che hanno un impatto su intere famiglie dovrebbe essere delegata al freddo calcolo degli algoritmi.”
Fonte: Worldpoliticsreview .
Il rapporto è stato pubblicato dopo l'dent in cui Israele ha preso di mira e ucciso sette operatori umanitari occidentali, alcuni dei quali erano ex militari britannici. Ciò ha naturalmente spinto giudici e avvocati di tutta la Gran Bretagna a bloccare le vendite di armi a Israele a causa dei suoi crimini di guerra e delle gravi violazioni del diritto internazionale.
Un'altra dimensione del pensiero sui robot killer

La Campagna per fermare i robot assassini ha espresso le sue preoccupazioni, ma ha affermato che non è questo il problema contro cui si batteva dal 2012, poiché secondo loro si tratta di un sistema di elaborazione dati e la decisione finale di sparare resta nelle mani dell'uomo. Tuttavia, una delle loro dichiarazioni offre un'altra dimensione su cui riflettere. La dichiarazione è arrivata dopo la pubblicazione della notizia, ha affermato:
“Mancanza di un controllo umano significativo e di un coinvolgimento nelle decisioni di attaccare gli obiettivi raccomandati.”
Fonte: Worldpoliticsreview .
Questa affermazione utilizza l'espressione "mancanza di controllo umano significativo", che aggiunge un ulteriore livello di complessità all'intelligenza artificiale e ai robot killer già condannati, e fornisce inoltre agli attivisti una nuova preoccupazione da sostenere.
L'intelligenza artificiale viene solitamente descritta come un'entità che un giorno potrebbe prendere il controllo del pianeta e causare danni catastrofici , persino l'estinzione umana. Ma un fatto ancora più preoccupante è che le forze che la utilizzano useranno meno cautela nel prendere di mira, diventando meno responsabili e portandole a prendere decisioni immorali in guerra, come abbiamo già visto a Gaza. Quindi, in fin dei conti, non si tratta di robot che prendono decisioni contro gli umani, ma di esseri umani che prendono decisioni robotiche senza usare appieno le proprie capacità cognitive in situazioni così delicate, tra la vita e la morte. Come cita una fonte nel rapporto, afferma:
"La macchina lo ha fatto con freddezza."
Fonte: +972mag.
C'è anche un altro aspetto da considerare: questo può compromettere la capacità dei programmatori di comunicare efficacemente con i sistemi di intelligenza artificiale, il che si tradurrebbe in crimini di guerra.

