Your bank is using your money. You’re getting the scraps.WATCH FREE

I robot killer non sono robot, ma esseri umani

In questo post:

  • I robot killer sono già presenti sulla terra e stanno dimostrando il loro impatto devastante sull'umanità.
  • In tutto il mondo le persone sono preoccupate per l'uso sconsiderato dei sistemi di intelligenza artificiale nelle guerre.
  • Il vero pericolo in questo momento non è il robot, ma la persona che lo controlla senza cautela o forse con cattive intenzioni.

I robot killer sono già sul campo di battaglia e si stanno dimostrando armi piuttosto distruttive. Dovremmo essere preoccupati, anzi, molto preoccupati. Poiché hanno dimostrato il loro potenziale mortale nelle guerre a Gaza e in Ucraina, le conseguenze potrebbero essere devastanti se gestite con negligenza. Il 3 aprile, la rivista israeliana +972 ha pubblicato un rapporto sull'uso dell'intelligenza artificiale da parte di Israele perdentobiettivi a Gaza. 

Il sistema di intelligenza artificiale si chiama Lavender e si dice che abbia stilato liste di uccisioni di presunti membri di Hamas, compresi quelli che lavoravano nei ranghi inferiori. Non abbiamo idea di quanto fossero corrette le liste, ma il fatto più preoccupante è che è stato utilizzato per colpire i militanti anche se si trovavano nelle loro case con le loro famiglie, i loro figli e molti civili nei paraggi. Il grafico sottostante mostra il numero di vittime e feriti fino al 15 aprile.

Fonte: Statista .

Gli algoritmi dicono chi prendere di mira

Come èdent dall'elevato numero di morti civili e dalla massiccia distruzione delle infrastrutture dopo l'invasione israeliana di Gaza, il rapporto ha suscitato serie preoccupazioni tra le organizzazioni umanitarie, i funzionari governativi e ogni individuo di buon senso in tutto il mondo e negli Stati Uniti. Antonio Guterres, Segretario Generale delle Nazioni Unite, si è dichiarato "profondamente turbato" e John Kirby, portavoce della Casa Bianca, ha affermato che "gli Stati Uniti stanno esaminando attentamente il rapporto"

Vedi anche  Zoom affronta le preoccupazioni sulla privacy relative alla raccolta di dati AI nei Termini di servizio

Guterres ha mostrato maggiore preoccupazione per le vittime e ha affermato:

 “Nessuna parte delle decisioni di vita o di morte che hanno un impatto su intere famiglie dovrebbe essere delegata al freddo calcolo degli algoritmi.”

Fonte: Worldpoliticsreview .

Il rapporto è stato pubblicato dopo l'dent in cui Israele ha preso di mira e ucciso sette operatori umanitari occidentali, alcuni dei quali erano ex militari britannici. Ciò ha naturalmente spinto giudici e avvocati di tutta la Gran Bretagna a bloccare le vendite di armi a Israele a causa dei suoi crimini di guerra e delle gravi violazioni del diritto internazionale.

Un'altra dimensione del pensiero sui robot killer

Al Jazeera visualizza la scena a Gaza a novembre, sulla base delle statistiche dell'OCHA. Fonte: Al Jazeera .

La Campagna per fermare i robot assassini ha espresso le sue preoccupazioni, ma ha affermato che non è questo il problema contro cui si batteva dal 2012, poiché secondo loro si tratta di un sistema di elaborazione dati e la decisione finale di sparare resta nelle mani dell'uomo. Tuttavia, una delle loro dichiarazioni offre un'altra dimensione su cui riflettere. La dichiarazione è arrivata dopo la pubblicazione della notizia, ha affermato:

“Mancanza di un controllo umano significativo e di un coinvolgimento nelle decisioni di attaccare gli obiettivi raccomandati.”

Fonte: Worldpoliticsreview .

Questa affermazione utilizza l'espressione "mancanza di controllo umano significativo", che aggiunge un ulteriore livello di complessità all'intelligenza artificiale e ai robot killer già condannati, e fornisce inoltre agli attivisti una nuova preoccupazione da sostenere.

Vedi anche  OpenAI rivela la "catena di pensiero" nel modello o3-mini di ChatGPT per soddisfare l'entusiasmo open source di DeepSeek

L'intelligenza artificiale viene solitamente descritta come un'entità che un giorno potrebbe prendere il controllo del pianeta e causare danni catastrofici , persino l'estinzione umana. Ma un fatto ancora più preoccupante è che le forze che la utilizzano useranno meno cautela nel prendere di mira, diventando meno responsabili e portandole a prendere decisioni immorali in guerra, come abbiamo già visto a Gaza. Quindi, in fin dei conti, non si tratta di robot che prendono decisioni contro gli umani, ma di esseri umani che prendono decisioni robotiche senza usare appieno le proprie capacità cognitive in situazioni così delicate, tra la vita e la morte. Come cita una fonte nel rapporto, afferma:

"La macchina lo ha fatto con freddezza."

Fonte: +972mag.

C'è anche un altro aspetto da considerare: questo può compromettere la capacità dei programmatori di comunicare efficacemente con i sistemi di intelligenza artificiale, il che si tradurrebbe in crimini di guerra.

Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .

Condividi link:

Disclaimer:  Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron dent o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan