Il Segretario Generale delle Nazioni Unite, il Sig. Slotri Antonio Guterres, ritiene motivo di profonda preoccupazione le notizie secondo cui Israele starebbe chiedendo informazioni sull'intelligenza artificiale per sorvegliare l'obiettivo a Gaza. Tali notizie, pubblicate dalla rivista israeliana +972, offrono l'opportunità di ripensare il modo in cui le forze armate operano, sollevando le importanti questioni relative al coinvolgimento dell'intelligenza artificiale nelle guerre attuali.
L'intelligenza artificiale in guerra, secondo l'ONU, sta diventando una questione urgente
Inizialmente, la fonte della sua apprensione era l'impiego deliberato dell'IA da parte dell'esercito israeliano per bombardare aree civili e centri abitati. Il Segretario Generale ha sottolineato i pericoli che sorgono quando i sistemi si affidano ad algoritmi per svolgere ruoli come prendere decisioni chiave con un impatto significativo sulla vita dei civili. Attraverso l'intervento del suo rettore, si può osservare una crescente questione globale sulle questioni etiche e legali dell'uso dell'IA (Intelligenza Artificiale) in una zona di conflitto, con particolare attenzione alla responsabilità e alla sicurezza dei combattenti.
Il rapporto +972 fornisce diversi dettagli chiave
L'articolo di +972 concludeva che, in caso di applicazione di tali tecnologie di intelligenza artificiale nella guerra nella Striscia di Gaza, la decisione sugli obiettivi veniva presa con un coinvolgimento umano piuttosto limitato nelle operazioni belliche. In altri casi, le decisioni venivano spesso prese in pochi secondi, come dimostra il fatto che una valutazione di intelligenza artificiale è una prova sufficiente per intervenire sul bersaglio in soli 20 secondi. Un simile breve termine considera l'adeguatezza del processo dident. Si riporta qui che l'approccio adottato è che l'imputazione di colpa a un gran numero di abitanti di Gaza come potenziali obiettivi ha consentito un intervento umano limitato e una politica apparentemente flessibile sui danni di naturadent.
Il riconoscimento degli errori da parte di Israele
In una dichiarazione significativa, Israele ha riconosciuto una serie di errori che hanno portato alla tragica morte di sette operatori umanitari, in seguito al coinvolgimento nelle operazioni di Hamas a Gaza, precedentemente ritenute opera di agenti armati di Hamas. Questi riconoscimenti riflettono solo le catastrofi causate dalla guerra tecnologica, le sfide e gli errori commessi durante la guerra, soprattutto nelle zone di guerra densamente popolate. Un caso del genere dimostra il ruolo cruciale di una supervisione e di una responsabilità ben controllate durante l'utilizzo di applicazioni di intelligenza artificiale nelle aree di combattimento.
L'integrazione dell'IA nelle strategie militaristiche è un evento straordinario che gioca un ruolo chiave nel modo in cui le guerre vengono condotte e regolate. Precisione nel targeting e nell'efficienza sono i risultati positivi, mentre l'intelligenza artificiale (IA) in guerra dipenderebbe dagli algoritmi. Tuttavia, le preoccupazioni morali, legali e umanitarie che si presentano quando un computer viene utilizzato come "intelligence" e "decision maker" sono complesse e divisive. Il caso di Gaza, che presenta dilemmi legati all'uso dell'intelligenza artificiale nei conflitti armati, rappresenta una gamma più ampia di questioni, dal progresso tecnologico all'attuale equilibrio tra protezione dei civili, diligenza umana ed esigenze della guerra.
Articolo originale da: https://www.jamaicaobserver.com/2024/04/05/un-chief-deeply-troubled-reports-israel-using-ai-identdent-gaza-targets/

