ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Microsoft presenta le nuove funzionalità di sicurezza di Azure AI per proteggersi dalle allucinazioni dell'intelligenza artificiale

DiEmman OmwandaEmman Omwanda
Tempo di lettura: 3 minuti.
Microsoft
  • Gli strumenti di intelligenza artificiale di Microsoft danno priorità alla sicurezza e prevengono la disinformazione.
  • Azure AI introduce il rilevamento in tempo reale di vulnerabilità e minacce.
  • Le opzioni di controllo avanzate proteggono gli utenti di Azure da abusi.

Microsoft ha lanciato un kit di strumenti avanzato di funzionalità per migliorare la sicurezza della piattaforma Azure AI. Sarah Bind, responsabile dei prodotti principali della Microsoft Sentient AI Initiative, lancerà una gamma di strumenti attentamente progettati per affrontare i rischi derivanti dall'utilizzo di applicazioni basate sull'intelligenza artificiale. 

Nella fase di anteprima, le nuove precauzioni di sicurezza proteggeranno Azure AI dalle minacce, forniranno risposte sicure e proteggeranno dalla promozione e dall'iniezione di prompt dannosi nascosti, senza richiedere specifici red team.

Strumenti di sicurezza AI avanzati di Microsoft Azure

Affrontare queste preoccupazioni è fondamentale per integrare efficacemente la tecnologia dell'intelligenza artificiale nel settore pubblico, poiché è fondamentale attenuare rischi e preoccupazioni imprevisti che potrebbero ostacolarne l'implementazione e il successo a lungo termine.

Sono stati svelati anche strumenti avanzati come Prompt Shields, Groundedness Detection e un'elaborata valutazione delle vulnerabilità per aiutare a individuare le vulnerabilità del modello. 

Prompt Shields fornisce un gateway che blocca l'iniezione di prompt dannosi e protegge gli utenti dal rischio di impiegare l'intelligenza artificiale nel mondo digitale attraverso modelli di intelligenza artificiale, proibendo l'uso di linguaggio vietato/prompt nascosti, poiché potrebbero portare allo sfruttamento degli input degli utenti e dei dati di terze parti. 

Ciò diventa particolarmente importante soprattutto quando si evita la produzione di materiale falso o inaccurato sugli eventi storici, che è stata una sfida riscontrata nei modelli basati sull'intelligenza artificiale

Sicurezza dell'intelligenza artificiale e mitigazione delle allucinazioni nell'ecosistema di Azure

La mitigazione delle allucinazioni basata sul testo, un'altra parte essenziale del kit di strumenti di sicurezza di Microsoft, è mirata a una serie di allucinazioni e alla loro neutralizzazione. Raggiungere questo obiettivo crea un ambiente in cui non qualsiasi idea è accettabile; solo quelle supportate da prove e verificabili rappresentano gli input più adatti ai sistemi di intelligenza artificiale. 

Inoltre, le valutazioni di sicurezza consentiranno un monitoraggio approfondito delle vulnerabilità dei modelli, in modo che queste debolezze possano essere immediatamentedente le misure di sicurezza possano essere successivamente adattate secondo necessità. Considerando questo, Microsoft è pronta a soddisfare le esigenze individuali dei clienti e ad adottare adeguate misure di sicurezza per l'intelligenza artificiale. 

I clienti di Azure possono personalizzare le proprie impostazioni includendo o escludendo contenuti di genere, incitamento all'odio e altri contenuti degradanti che rispondano alle loro esigenze specifiche. 

Allo stesso modo, un futuro aggiornamento sarà utile anche agli amministratori per determinare se un utente è un vero tester o un utente malintenzionato, fornendo una funzionalità di reporting.

L'approccio pionieristico di Microsoft allo sviluppo sicuro ed etico dell'intelligenza artificiale

L'importanza di queste misure di sicurezza non riguarda solo i vantaggi immediati in termini di sicurezza, ma anche il fatto che il settore dell'informatica adotti un approccio olistico allo sviluppo dell'intelligenza artificiale, socialmente responsabile. L'integrazione di questi strumenti, come Llama, in versioni leader come GPT-4 e Llama 2 significherebbe che un lungo elenco di applicazioni di intelligenza artificiale su Azure AI dipenderebbe da misure di controllo più rigorose contro frodi ed errori. 

Tuttavia, il fatto che i modelli open source meno diffusi possano richiedere all'utente di integrare manualmente gli strumenti di sicurezza nel sistema principale è un dettaglio marginale. Queste funzionalità di enforcement sono riconosciute come parte integrante della strategia globale di Microsoft per la creazione di un ambiente di intelligenza artificiale sicuro ed etico. I clienti di Azure AI (ad esempio, KPMG, AT&T, Reddit) rappresentano importanti potenze che mirano a implementare progressi in vari campi. 

Pertanto, si prevede che il loro impatto sarà ampio. Inoltre, Microsoft, attraverso la partnership con OpenAI e il lancio del servizio Azure OpenAI, dimostra di essere la principale potenza nel campo dell'intelligenza artificiale, offrendo a sviluppatori e organizzazioni gli strumenti di cui hanno bisogno per raggiungere la competenza nelle applicazioni di intelligenza artificiale.

L'ultima funzionalità di sicurezza automatica di Microsoft è indicata come risposta ai grandi rischi generati dal linguaggio delle tecnologie di intelligenza artificiale. Approfondendo le modalità con cui l'IA può essere protetta dalle minacce alla sicurezza in essa contenute e rendendo accurati i risultati in tempo reale degli strumenti di IA, Microsoft sta defiun nuovo codice di sicurezza dell'IA. Migliorano la sicurezza, l'integrità e l'affidabilità delle soluzioni di IA e aiutano il linguaggio dell'IA responsabile a evolversi.

Con lo sviluppo dell'intelligenza artificiale, aumenta indubbiamente la necessità di una supervisione sicura. Con queste nuove tecnologie di sicurezza, Microsoft sposta l'obiettivo significativamente più in alto, verso un paradigma di intelligenza artificiale veramente sicuro ed etico. Grazie a queste misure di sicurezza, i clienti Azure che utilizzano l'intelligenza artificiale possono esseredent di poter implementare le macchine automatiche nelle loro operazioni con una piena consapevolezza di tutti i possibili rischi che l'intelligenza artificiale comporta.

Articolo originale da https://thehorizon.ai/microsofts-new-safety-system-can-catch-hallucinations-in-its-customers-ai-apps

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO