Il primo giorno degli attacchi statunitensi e israeliani contro l'Iran, una scuola è stata bombardata nella città di Minab, nel sud dell'Iran. Più di 175 persone sono morte, tra cui studenti. Né Washington né Tel Aviv hanno dichiarato cosa sia successo. Nessuno si è assunto la responsabilità. Una domanda continua a riproporsi: un sistema di intelligenza artificiale ha forse colpito bersaglio sbagliato ?
Nelle prime 24 ore, le forze statunitensi hanno colpito circa 1.000 siti, circa 42 all'ora. Un rapporto del CSET sul 18° Corpo Aviotrasportato ha rilevato che, grazie Maven , 20 persone potevano svolgere il lavoro che prima richiedeva un team di 2.000 persone presso il Centro Operativo Aereo Combinato in Iraq. Entro la fine del 2024, gli Stati Uniti avevano integrato in Maven un modello linguistico su larga scala, lo stesso tipo di software alla base dei chatbot basati sull'intelligenza artificiale per i consumatori . Questa è stata una delle prime guerre a utilizzare tale tecnologia per l'individuazione degli obiettivi.
L'esercito statunitense afferma di essere ancora impegnato nelle indagini sull'attacco alla Minab. Non ha specificato quale ruolo, se presente, abbia avuto nell'invio del missile contro quell'edificio.
Il New York Times ha riportato fin da subito che il sistema potrebbe aver funzionato con dati obsoleti dent Louisa Loveluck ha scritto su X che l'attacco potrebbe essere stato "basato su informazioni di intelligence risalenti a dieci anni fa" e che chiunque avesse consultato gratuitamente online le immagini satellitari più recenti avrebbe visto "una scuola con un campo sportivo" in uno dei siti designati per l'attacco.
L'informatico Anh Totti Nguyen ha studiato gli errori commessi dai sistemi di visione basati sull'intelligenza artificiale. Il suo articolo, "Vision language models are blind: Failing to translate detailed visual features into words" (I modelli del linguaggio visivo sono ciechi: non riescono a tradurre le caratteristiche visive dettagliate in parole), ha rilevato che questi sistemi spesso falliscono quando due strutture si trovano vicine e il software deve capire quale sia l'una e quale l'altra.
Le immagini satellitari del New York Times mostrano la scuola elementare Shajarah Tayyebeh situata proprio accanto a un complesso delle Guardie Rivoluzionarie a Minab, esattamente la situazione segnalata .
Chi è responsabile quando l'IA commette un errore?
Emilia Probasco, ex ufficiale della Marina e ricercatrice senior presso il Center for Security and Emerging Technology, ha dichiarato nel podcast che la responsabilità ricade sul comandante che ha impartito l'ordine. È funziona l'esercito . Ha aggiunto che il problema della "scatola nera", ovvero l'impossibilità di capire come un sistema di intelligenza artificiale sia giunto alla sua risposta, è "un'area di ricerca in continua evoluzione, non risolta".
Prima della guerra, Anthropic, l'azienda la cui tecnologia è alla base di Maven, ebbe una trac con il Dipartimento della Difesa su due questioni: decisioni di vita o di morte e se l'utilizzo dell'IA per collegare punti dati sparsi la trasformasse in uno strumento di sorveglianza di massa.
Probasco ha affermato che entrambe le preoccupazioni sono fondate, ma ha sottolineato "l'imbarazzo di una società privata che traccia dei limiti al modo in cui un esercito conduce le proprie operazioni ".
Holland Michel ha affermato che la conversazione continua a virare verso lo scenario peggiore : una macchina che seleziona i bersagli e spara senza alcun intervento umano . Questo rischio è reale, ha detto, ma non è ciò che sta accadendo ora .
"Il più difficile e immediato ", ha affermato, "consiste nel rendere i sistemi di intelligenza artificiale più trasparenti e garantire che gli esseri umani che si affidano ai loro risultati prendano decisioni realmente informate, e non si limitino a seguire passivamente i suggerimenti della macchina."
Anche i contenuti di guerra generati dall'intelligenza artificiale si stavano diffondendo rapidamente online.
BBC Verify ha trac creati dall'intelligenza artificiale e immagini satellitari manipolate sul conflitto, che hanno totalizzato centinaia di milioni di visualizzazioni.
Timothy Graham, ricercatore nel campo dei media digitali presso la Queensland University of Technology, ha dichiarato: "La portata del fenomeno è davvero allarmante e questa guerra ha reso impossibile ignorarlo . Ha aggiunto: "Ciò che un tempo richiedeva una produzione video professionale ora può essere realizzato in pochi minuti con strumenti di intelligenza artificiale. La barriera alla creazione di filmati di conflitto sintetici convincenti è praticamente crollata ".
X ha dichiarato che avrebbe escluso dal suo sistema di pagamento i creatori di contenuti che pubblicavano filmati di guerra generati dall'IA senza un'etichetta. Mahsa Alimardani, ricercatrice presso l'Oxford Internet Institute che si occupa di Iran, l'ha definita "un segnale significativo del fatto che si sono resi conto che questo è un grosso problema ". Meta e TikTok non hanno risposto quando è stato chiesto loro se avessero intenzione di fare lo stesso .

