Microsoft ha vietato alle forze di polizia degli Stati Uniti di ottenere servizi di intelligenza artificiale generativa in esecuzione su Azure OpenAI Service. Si tratta di un nuovo approccio, affrontato mercoledì nei termini di servizio aggiornati, che mira a rispondere al crescente dilemma etico che l'intelligenza artificiale deve affrontare nelle forze dell'ordine.
L'aggiornamento della politica evidenzia preoccupazioni etiche
I termini rivisti stabiliscono espressamente che tali integrazioni non possono essere utilizzate "da o per" le agenzie di polizia negli Stati Uniti. Questa restrizione include anche i modelli di analisi di testo e parlato, sottolineando di Microsoft sull'uso responsabile dell'intelligenza artificiale. Come ulteriore norma, è stata introdotta una clausola separata per vietare specificamente l'uso della tecnologia di riconoscimento facciale in tempo reale sulle telecamere mobili, comprese le bodycam e le dashcam, in ambienti non controllati.
Microsoft vieta ai dipartimenti di polizia degli Stati Uniti di utilizzare strumenti di intelligenza artificiale aziendali https://t.co/OxrFO5scO9
— TechCrunch (@TechCrunch) 2 maggio 2024
L'innesco di questi movimenti potrebbe esseredentnei recenti progressi del settore tecnologico. Axon, la nota azienda tecnologica specializzata in ambito militare e delle forze dell'ordine, ha appena annunciato un prodotto che utilizza il modello verbalizzatore di OpenAI con testo generativo GPT-4 per aiutare a riassumere l'audio registrato dalle bodycam. Le false informazioni generate e la loro parzialità in termini di pregiudizi razziali nei dati di addestramento sono state affrontate per rispondere immediatamente alle preoccupazioni di alcuni critici.
Implicazioni e margini di interpretazione
Sebbene la policy aggiornata rappresenti la posizione decisiva di Microsoft, lascia comunque spazio a un'interpretazione. Il divieto di Azure OpenAI Service si applica alla polizia statunitense solo in caso di implementazione internazionale. Inoltre, le limitazioni all'uso della tecnologia di riconoscimento facciale si applicano esclusivamente alle forze dell'ordine statunitensi, escludendo le telecamere fisse in ambienti controllati.
Una metodologia così equilibrata si adatta bene all'ampia strategia di Microsoft in materia di intelligenza artificiale per le forze dell'ordine e la difesa. Nel frattempo, nonostante i divieti su determinati utilizzi, la cooperazione tra OpenAI e le agenzie governative, tra cui il Pentagono è un esempio lampante, è lentamente cresciuta. Tali partnership indicano un cambio di posizione per OpenAI, così come per Microsoft, che è alla ricerca di applicazioni di intelligenza artificiale nelle tecnologie militari.
Coinvolgimento del governo e dinamiche del settore
L'adozione del di Microsoft da parte delle agenzie governative ha subito un'accelerazione, poiché Azure Government include ulteriori strumenti di conformità e gestione per l'uso da parte delle forze dell'ordine. Candice Ling, Vicepresidente Senior dent Microsoft Federal, sarà responsabile dell'ottenimento di ulteriori approvazioni dal Dipartimento della Difesa per il servizio Azure OpenAI, dimostrando così che la piattaforma può essere utile in missioni urgenti.
L'ambito dinamico dell'etica e della regolamentazione dell'IA rende necessario per le aziende tecnologiche adottare misure ponderate in anticipo. Con la sua decisione di evitare l'uso dell'IA nelle forze dell'ordine, Microsoft dimostra una tendenza più ampia del settore ad aumentare la responsabilità e la trasparenza nell'implementazione dell'IA. Durante le discussioni sulla regolamentazione dell'IA, i fornitori di tecnologia, i responsabili politici e i gruppi di attivisti dovranno collaborare per risolvere eticamente le nuove problematiche.
La decisione di Microsoft di impedire ai dipartimenti di polizia degli Stati Uniti di utilizzare Azure OpenAI Service per scenari specifici è la prova dell'approccio deliberato e mirato che l'azienda sta adottando per affrontare le problematiche etiche legate all'implementazione dell'IA. In effetti, l'emendamento rivela la sincerità dei decisori politici e le complessità insite in questo gioco di equilibri. Considerando l'evoluzione del dibattito sull'IA etica, le parti interessate dovrebbero sempre partecipare a un dialogo costruttivo per favorire una crescita e un'implementazione dell'IA responsabili.

