La presentazione di Microsoft e OpenAI scatena la polemica sull'uso militare degli strumenti di intelligenza artificiale

- Scoppia la polemica sul potenziale militare dell'intelligenza artificiale dopo la presentazione di Microsoft e OpenAI a un seminario al Pentagono.
- OpenAI si oppone all'uso militare dei suoi strumenti, contrastando la proposta di Microsoft e sottolineando preoccupazioni etiche.
- L'integrazione dell'intelligenza artificiale nelle operazioni militari scatena dibattiti etici e legali, che richiedono linee guida più chiare.
Il mese scorso, durante il seminario di alfabetizzazione sull'intelligenza artificiale militare per il Dipartimento della Difesa degli Stati Uniti, Microsoft e OpenAI hanno presentato le loro offerte, alimentando il dibattito sulle possibili applicazioni militari della tecnologia di intelligenza artificiale. L'evento, che si è svolto nell'ottobre 2023, ha presentato dimostrazioni di prodotti incentrate su elementi applicabili al Pentagono, tra cui il generatore di immagini DALL-E di OpenAI.
La proposta di Microsoft per l'integrazione militare
Lo strumento principale presentato da Microsoft era un generatore di immagini chiamato DALL-E, che poteva trovare impiego e applicazione nei più recenti sistemi di gestione delle battaglie. Questi sistemi estremamente completi, fondamentali per la pianificazione militare, forniscono a tutti i comandanti una panoramica di interi campi di battaglia da un'unica posizione. Ciò è molto utile anche per il coordinamento e il controllo dei movimenti di varie attività, la scelta degli obiettivi per l'artiglieria e gli attacchi aerei, e così via. La proposta di Microsoft includeva l'utilizzo di DALL-E per i miglioramenti innovativi dei sistemi software di controllo del comando, al fine di raggiungere i loro obiettivi di efficienza ed efficacia.
OpenAI, d'altra parte, ha mantenuto le distanze dalla presentazione di EuroDIG 2019, contrariamente a quanto fatto da Microsoft. L'organizzazione ha dichiarato di non aver preso parte alla conferenza e di non aver venduto alcun prodotto al Dipartimento della Difesa ceco. Liz Bourgot, esperta di comunicazione di OpenAI, ha informato il pubblico che la posizione dell'azienda è contraria all'utilizzo dei suoi strumenti da parte delle forze armate, poiché ciò comporterebbe attività che potrebbero portare, ad esempio, alla morte o al ferimento di persone. Anche quando l'offerta di Microsoft è stata accolta, Bourgot ha continuato a considerare OpenAI parzialmente ingannevole riguardo alla possibilità di collaborare con le agenzie di difesa per l'utilizzo della tecnologia a scopi militari.
Chiarimenti da parte di Microsoft
Grazie al supporto di Microsoft, il Pentagono può già utilizzare DALL-E per software di addestramento e simulazione più realistici nelle forze armate. L'azienda ha respinto questa idea poiché il piano, in quanto tale, non si è rivelato concreto. Microsoft ha osservato che le dimostrazioni ipotetiche erano frutto di dialoghi con i (propri) clienti su come avrebbero potuto utilizzare il nuovo prodotto. Inoltre, l'azienda ha stabilito che, in caso di utilizzo da parte di un team del Pentagono degli strumenti OpenAI forniti a Microsoft, il Pentagono e Microsoft avrebbero dovuto deficontemporaneamente regole di utilizzo e controllo.
Il recente aggiornamento del codice di condotta di OpenAI ha eliminato le esclusioni esplicite per l'uso della sua tecnologia avanzata in ambito militare e bellico. L'accusa ha ulteriormente confuso le acque etiche dell'uso dell'IA in applicazioni militari. Inoltre, OpenAI è rimasta ferma nella sua opposizione all'uso dei suoi strumenti per attività dannose, ma l'eliminazione dei requisiti ha lasciato aperta la questione su quali siano le restrizioni e le condizioni nell'applicazione dell'IA alla difesa.
Discussioni in corso e considerazioni etiche
La divulgazione di un brevetto Microsoft su questo approccio e la spiegazione di OpenAI dei suoi standard etici e delle sue procedure hanno cambiato radicalmente l'ecosistema del settore tecnico, così come quello dei decisori politici, che ora si interrogano sui limiti etici della tecnologia dell'intelligenza artificiale. L'integrazione dell'intelligenza artificiale con il processo militare solleva questioni moralmente complesse e implica ragionamenti giuridici, che richiedono l'elaborazione di procedure più rigorose per la creazione e l'implementazione di sistemi di intelligenza artificiale.
In linea con i progressi nelle soluzioni di intelligenza artificiale, anche le considerazioni etiche si stanno aggravando, soprattutto in settori cruciali per la sovranità del Paese, come la protezione nazionale. La presentazione di Microsoft e OpenAI al seminario del Dipartimento della Difesa degli Stati Uniti sottolinea la crescente intenzione di adottare la tecnologia di intelligenza artificiale a supporto delle questioni militari. Sebbene esistano aspetti positivi, permangono anche preoccupazioni circa i risultati di queste applicazioni, insieme alle questioni etiche legate a questa integrazione. Pertanto, è necessario tenerle in considerazione e valutare come verranno integrate nelle operazioni militari.
Questo articolo è stato originariamente pubblicato su Yahoo.
La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















