ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

I migliori chatbot AI sono "altamente vulnerabili" ai semplici "jaibreak" - Studio   

DiJeffrey GogoJeffrey Gogo
Tempo di lettura: 2 minuti.
chatbot AI

● I chatbot AI possono essere facilmente ingannati e generare risposte dannose

● I ricercatori hanno scoperto che cinque LLM di alto livello sono "altamente vulnerabili" ai jailbreak

● Le aziende di intelligenza artificiale sottolineano i meccanismi di sicurezza integrati nei loro modelli

Secondo un nuovo studio dell'AI Safety Institute (AISI) del Regno Unito, chatbot basati sull'intelligenza artificiale come ChatGPT o Gemini possono essere facilmente ingannati e indotti a rispondere a query che generano risposte dannose.

I ricercatori governativi hanno testato l'integrità dei modelli linguistici di grandi dimensioni (LLM), la tecnologia alla base dei chatbot di intelligenza artificiale, contro gli attacchi alla sicurezza nazionale.

I risultati sono stati pubblicati in vista del vertice sull'intelligenza artificiale di Seul, che sarà co-presieduto dal primo ministro britannico Rishi Sunake si terrà in Corea del Sud il 21 e 22 maggio.

Leggi anche: La sicurezza sarà uno dei punti principali dell'agenda del Seoul AI Summit  

Chatbot AI inclini a risposte tossiche

L'AISI ha testato dei "jailbreak" di base – prompt di testo pensati per bypassare le protezioni contro output illegali, tossici o espliciti – su cinque dei principali LLM. L'istituto non ha nominato i sistemi di intelligenza artificiale, ma li ha trovati tutti "altamente vulnerabili"

"Tutti gli LLM testati rimangono altamente vulnerabili ai jailbreak di base e alcuni forniranno risultati dannosi anche senza tentativi dedicati di aggirare le loro misure di sicurezza", afferma lo studio.

Secondo il rapporto, attacchi "relativamente semplici", come ad esempio indurre il chatbot a includere la frase "Certo, sarò felice di aiutarti", possono ingannare modelli linguistici complessi, inducendoli a fornire contenuti dannosi sotto molti aspetti.

Secondo quanto affermato, il contenuto può favorire l'autolesionismo, l'uso di soluzioni chimiche pericolose, il sessismo o la negazione dell'Olocausto. L'AISI ha utilizzato prompt disponibili al pubblico e ha progettato privatamente altre evasioni per lo studio.

L'istituto ha inoltre testato la qualità delle risposte alle domande su argomenti biologici e chimici.

Sebbene le conoscenze specialistiche in questo campo possano essere utilizzate per scopi positivi, i ricercatori volevano scoprire se i chatbot basati sull'intelligenza artificiale potessero essere utilizzati per scopi dannosi, come compromettere infrastrutture nazionali critiche.

"Diversi laureati in LLM hanno dimostrato una conoscenza di livello esperto in chimica e biologia. I modelli hanno risposto a oltre 600 quesiti di chimica e biologia scritti da esperti privati, con un livello di competenza simile a quello degli esseri umani con una formazione di livello dottorale", hanno scoperto i ricercatori.

chatbot AI
I chatbot AI possono essere aggirati con i prompt

L'intelligenza artificiale rappresenta una minaccia limitata per la sicurezza informatica

Per quanto riguarda il potenziale utilizzo dei chatbot AI come armi per sferrare attacchi informatici, lo studio ha affermato che gli LLM hanno superato con successo semplici compiti di sicurezza informatica pensati per glidentdelle scuole superiori.

Tuttavia, i chatbot hanno avuto difficoltà a svolgere compiti rivolti aglidentuniversitari, il che suggerisce un potenziale maligno limitato.

Un altro aspetto di preoccupazione era se i chatbot potessero essere impiegati come agenti per intraprendere autonomamente una serie di azioni in modi che "potrebbero essere difficili da controllare per gli esseri umani"

"Due LLM hanno completato attività di agenti a breve termine (come semplici problemi di ingegneria del software), ma non sono stati in grado di pianificare ed eseguire sequenze di azioni per attività più complesse", ha osservato lo studio.

Leggi anche: Il "padrino dell'IA" vuole un reddito di base universale per compensare la perdita di posti di lavoro  

Il sottosegretario di Stato britannico per la Scienza, l'Innovazione e la Tecnologia, Saqib Bhatti, ha recentemente dichiarato che la legislazione prenderà forma a tempo debito e sarà basata sui risultati delle sperimentazioni.

Le aziende affermano di filtrare i contenuti dannosi

Aziende come Anthropic, il creatore di Claude, Meta, che ha creato Llama, e OpenAI, lo sviluppatore di ChatGPT, hanno sottolineato i meccanismi di sicurezza integrati nei rispettivi modelli.

OpenAI afferma di non consentire che la sua tecnologia venga "utilizzata per generare contenuti offensivi, molesti, violenti o per adulti". Anthropic ha dichiarato di dare priorità a "evitare risposte dannose, illegali o non etiche prima che si verifichino".

dell'AI Safety Institute vengano presentati ai dirigenti del settore tecnologico, ai leader governativi e agli esperti di intelligenza artificiale in occasione del vertice di Seul.


Cryptopolitan a cura di Jeffrey Gogo

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitannon si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotrondi effettuare ricerchedent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO