Lunedì l'Austria ha affermato che occorrerebbe intraprendere nuovi sforzi per regolamentare l'intelligenza artificiale, che potrebbe portare alla creazione di sistemi di uccisione autonomi e armi basate sull'intelligenza artificiale, ovvero robot killer.
L'Austria ospita una conferenza per affrontare la regolamentazione delle armi basate sull'intelligenza artificiale
Le osservazioni sono state fatte alla conferenza "L'umanità al bivio: sistemi d'arma autonomi e la sfida della regolamentazione", ospitata dal Ministero federale austriaco per gli affari europei e internazionali a Vienna, iniziata ieri e che proseguirà fino ad oggi.
Stanno emergendo sfide etiche e legali man mano che i sistemi di armi autonome in grado di uccidere senza l'intervento umano stanno diventando realtà grazie al rapido progresso della tecnologia dell'intelligenza artificiale. Molti Paesi stanno chiedendo di affrontare questo problema con urgenza.
Alexander Schallenberg, ministro degli Esteri austriaco, ha affermato:
"Non possiamo lasciar passare questo momento senza agire. Ora è il momento di concordare regole e norme internazionali per garantire il controllo umano."
Fonte: Reuters.
Ha parlato a un incontro di organizzazioni internazionali e non governative, con rappresentanti di 143 Paesi. Poiché le discussioni su questa sfida sono quasi in stallo a livello globale, ha affermato l' agenzia di stampa , nel suo discorso di apertura alla conferenza ha affermato:
“Almeno assicuriamoci che la decisione più profonda e di vasta portata, quella su chi vive e chi muore, resti nelle mani degli esseri umani e non delle macchine.”
Poiché negli anni di colloqui alle Nazioni Unite sono emersi pochissimi risultati che abbiano avuto un impatto concreto, un buon numero di partecipanti alla conferenza di Vienna ha affermato che il momento di agire sta sfuggendo di mano.
L'intelligenza artificiale può scambiare la testa di una persona per un pallone da calcio
Ladent del Comitato Internazionale della Croce Rossa, Mirjana Spoljaric, ha affermato che è importante agire sulla questione molto rapidamente, intervenendo nel corso di una tavola rotonda alla conferenza.

Spoljaric ha anche affermato che non dovremmo attribuire la responsabilità della violenza o del controllo sulla violenza alle macchine e agli algoritmi, poiché non vogliamo vedere un aumento di tali battute d'arresto, poiché ciò a cui stiamo già assistendo in diversi scenari violenti sono quelli che lei ha definito "fallimenti morali di fronte alla comunità internazionale"
I diplomatici hanno affermato che l'intelligenza artificiale si è già infiltrata nei campi di battaglia , come è stato osservato nella guerra in Ucraina: i droni sono progettati in modo da trovare la direzione e raggiungere il bersaglio anche quando i sistemi di disturbo del segnale interrompono il collegamento con altri operatori.
L'esercito israeliano ha utilizzato sistemi di intelligenza artificiale perdentobiettivi a Gaza, hanno affermato gli Stati Uniti mentre esaminavano i resoconti dei media. Ma l'ironia è che gli stessi Stati Uniti hanno continuato a fornire armi a Israele, accusato di un uso imprudente e di aver ucciso civili innocenti.
Nel suo discorso programmatico, Jaan Tallinn, investitore tecnologico e ingegnere informatico, ha affermato:
"Abbiamo già visto l'intelligenza artificiale commettere errori di selezione in modi sia grandi che piccoli."
Fonte: Reuters.
Ha menzionato le difficoltà che l'intelligenza artificiale incontra ancora, ad esempio, nel riconoscere erroneamente la testa calva di un arbitro come un pallone da calcio o le auto a guida autonoma che uccidono i pedoni perché non riconoscono il passaggio imprudente. Ma il problema è che paesi come Israele stanno usando questa tecnologia, che deve ancora maturare se mai lo farà, perdentobiettivi tra migliaia di civili e uccidere quelli ricercati. Tallinn ha anche sottolineato che l'accuratezza di questi sistemi dovrebbe essere valutata con cautela.

