Microsoft Corp ha aggiunto una serie di funzionalità di sicurezza in Azure AI Studio che, nel tempo, dovrebbero continuare a ridurre la probabilità che i suoi utenti configurino i modelli di intelligenza artificiale in una modalità che li porterebbe a comportarsi in modo anomalo o inappropriato. La multinazionale tecnologica con sede a Redmond, Washington, ha illustrato i miglioramenti in un post sul blog, sottolineando la necessità di garantire l'integrità delle interazioni con l'intelligenza artificiale e di promuovere la fiducia nella base di utenti.
Scudi rapidi e altro ancora
Tra i principali sviluppi c'è la creazione di "scudi rapidi", una tecnologia progettata per individuare e bloccare le iniezioni rapide durante le conversazioni con i chatbot di intelligenza artificiale. Si tratta dei cosiddetti jailbreak, ovvero input degli utenti creati intenzionalmente in modo da suscitare una risposta indesiderata nei modelli di intelligenza artificiale.
Ad esempio, Microsoft sta giocando la sua parte indirettamente con le iniezioni rapide, dove è possibile l'esecuzione di ordini illeciti, e uno scenario del genere può portare a gravi conseguenze per la sicurezza, come il furto di dati e il dirottamento dei sistemi. Questi meccanismi sono fondamentali per rilevare e rispondere a queste minacce uniche nel loro genere in tempo reale, secondo Sarah Bird, Chief Product Officer per l'IA responsabile di Microsoft.
Microsoft aggiunge che presto sullo schermo dell'utente compariranno degli avvisi che indicheranno quando è probabile che un modello fornisca informazioni false o fuorvianti, garantendo così maggiore facilità d'uso e affidabilità.
Creare fiducia negli strumenti di intelligenza artificiale
L'iniziativa di Microsoft fa parte di un'iniziativa più ampia, volta a dare fiducia alle persone nell'intelligenza artificiale generativa, sempre più diffusa e ampiamente applicata nei servizi rivolti a singoli consumatori e clienti aziendali. Microsoft ha proceduto con un'attenta analisi, dopo aver riscontrato casi in cui gli utenti avevano la possibilità di ingannare il chatbot Copilot, inducendolo a produrre output bizzarri o dannosi. Ciò supporterà un risultato che dimostra la necessità ditrondifese contro le suddette tattiche manipolative, che probabilmente aumenteranno con le tecnologie di intelligenza artificiale e la conoscenza diffusa. Prevedere e poi mitigare significa riconoscere i modelli di attacco, come ad esempio quando un aggressore ripete domande o richieste durante il gioco di ruolo.
In qualità di principale investitore e partner strategico di OpenAI, Microsoft sta ampliando i confini dell'integrazione e della creazione di tecnologie di intelligenza artificiale generativa responsabili e sicure. Entrambe le aziende sono impegnate nell'implementazione responsabile e nei modelli fondamentali dell'intelligenza artificiale generativa per le misure di sicurezza. Tuttavia, Bird ha ammesso che questi ampi modelli linguistici, sebbene vengano considerati la base per gran parte della futura innovazione dell'intelligenza artificiale, non sono a prova di manipolazione.
Per costruire su queste basi non basterà affidarsi semplicemente ai modelli stessi: servirà un approccio globale alla sicurezza e alla protezione dell'intelligenza artificiale.
Microsoft ha annunciato di recente il rafforzamento delle misure di sicurezza per Azure AI Studio, per mostrare e garantire le misure proattive adottate per salvaguardare il mutevole panorama delle minacce legate all'intelligenza artificiale.
Si impegna a evitare abusi dell'IA e a preservare l'integrità e l'affidabilità dell'interazione con l'IA incorporando schermate e avvisi tempestivi.
Con la costante evoluzione della tecnologia dell'intelligenza artificiale e la sua adozione in molti ambiti della vita quotidiana, sarà giunto il momento per Microsoft e il resto della comunità dell'intelligenza artificiale di mantenere una posizione di sicurezza molto vigile.

