Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft migliora la sicurezza dei chatbot AI per contrastare i truffatori

In questo post:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

Microsoft Corp ha aggiunto una serie di funzionalità di sicurezza in Azure AI Studio che, nel tempo, dovrebbero continuare a ridurre la probabilità che i suoi utenti configurino i modelli di intelligenza artificiale in una modalità che li porterebbe a comportarsi in modo anomalo o inappropriato. La multinazionale tecnologica con sede a Redmond, Washington, ha illustrato i miglioramenti in un post sul blog, sottolineando la necessità di garantire l'integrità delle interazioni con l'intelligenza artificiale e di promuovere la fiducia nella base di utenti.

Scudi rapidi e altro ancora 

Tra i principali sviluppi c'è la creazione di "scudi rapidi", una tecnologia progettata per individuare e bloccare le iniezioni rapide durante le conversazioni con i chatbot di intelligenza artificiale. Si tratta dei cosiddetti jailbreak, ovvero input degli utenti creati intenzionalmente in modo da suscitare una risposta indesiderata nei modelli di intelligenza artificiale.

Ad esempio, Microsoft sta giocando la sua parte indirettamente con le iniezioni rapide, dove è possibile l'esecuzione di ordini illeciti, e uno scenario del genere può portare a gravi conseguenze per la sicurezza, come il furto di dati e il dirottamento dei sistemi. Questi meccanismi sono fondamentali per rilevare e rispondere a queste minacce uniche nel loro genere in tempo reale, secondo Sarah Bird, Chief Product Officer per l'IA responsabile di Microsoft.

Microsoft aggiunge che presto sullo schermo dell'utente compariranno degli avvisi che indicheranno quando è probabile che un modello fornisca informazioni false o fuorvianti, garantendo così maggiore facilità d'uso e affidabilità.

Vedi anche  Pionieri dell'intelligenza artificiale moderna: cifre chiave e contributi

Creare fiducia negli strumenti di intelligenza artificiale 

L'iniziativa di Microsoft fa parte di un'iniziativa più ampia, volta a dare fiducia alle persone nell'intelligenza artificiale generativa, sempre più diffusa e ampiamente applicata nei servizi rivolti a singoli consumatori e clienti aziendali. Microsoft ha proceduto con un'attenta analisi, dopo aver riscontrato casi in cui gli utenti avevano la possibilità di ingannare il chatbot Copilot, inducendolo a produrre output bizzarri o dannosi. Ciò supporterà un risultato che dimostra la necessità ditrondifese contro le suddette tattiche manipolative, che probabilmente aumenteranno con le tecnologie di intelligenza artificiale e la conoscenza diffusa. Prevedere e poi mitigare significa riconoscere i modelli di attacco, come ad esempio quando un aggressore ripete domande o richieste durante il gioco di ruolo.

In qualità di principale investitore e partner strategico di OpenAI, Microsoft sta ampliando i confini dell'integrazione e della creazione di tecnologie di intelligenza artificiale generativa responsabili e sicure. Entrambe le aziende sono impegnate nell'implementazione responsabile e nei modelli fondamentali dell'intelligenza artificiale generativa per le misure di sicurezza. Tuttavia, Bird ha ammesso che questi ampi modelli linguistici, sebbene vengano considerati la base per gran parte della futura innovazione dell'intelligenza artificiale, non sono a prova di manipolazione.

Per costruire su queste basi non basterà affidarsi semplicemente ai modelli stessi: servirà un approccio globale alla sicurezza e alla protezione dell'intelligenza artificiale.

Vedi anche  La morte del co-fondatore del gruppo SenseTime provoca il crollo delle azioni in mezzo alle sfide in corso

Microsoft ha annunciato di recente il rafforzamento delle misure di sicurezza per Azure AI Studio, per mostrare e garantire le misure proattive adottate per salvaguardare il mutevole panorama delle minacce legate all'intelligenza artificiale.

Si impegna a evitare abusi dell'IA e a preservare l'integrità e l'affidabilità dell'interazione con l'IA incorporando schermate e avvisi tempestivi.

Con la costante evoluzione della tecnologia dell'intelligenza artificiale e la sua adozione in molti ambiti della vita quotidiana, sarà giunto il momento per Microsoft e il resto della comunità dell'intelligenza artificiale di mantenere una posizione di sicurezza molto vigile.

C'è una via di mezzo tra lasciare i soldi in banca e rischiare con le criptovalute. Inizia con questo video gratuito sulla finanza decentralizzata .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan