Gli scienziati scatenano una backdoor universale, inducendo allucinazioni di intelligenza artificiale nei modelli di immagine

- Gli informatici canadesi dell'Università di Waterloo svelano una backdoor universale per avvelenare i modelli di classificazione delle immagini di grandi dimensioni.
- La tecnica, descritta in dettaglio nel documento preprint "Universal Backdoor Attacks", differisce dagli attacchi precedenti in quanto prende di mira qualsiasi classe nel set di dati, creando una backdoor generalizzata.
- Il potenziale impatto su larga scala solleva preoccupazioni circa l'integrità dei dati, poiché gli avversari potrebbero manipolare grandi set di dati per innescare classificazioni errate in diverse classi di immagini.
Un team di informatici dell'Università di Waterloo, in Canada, ha introdotto una backdoor universale in grado di indurre allucinazioni di intelligenza artificiale in modelli di classificazione di immagini di grandi dimensioni.enjSchneider, Nils Lukas e il professor Florian Kerschbaum descrivono dettagliatamente la loro tecnica innovativa in un articolo di preprint intitolato "Universal Backdoor Attacks". A differenza degli attacchi convenzionali che si concentrano su classi specifiche, l'approccio del team consente la generazione di trigger su qualsiasi classe del set di dati, con un potenziale impatto su un'ampia gamma di classificazioni di immagini.
Svelata la Backdoor Universale
Il metodo degli scienziati ruota attorno alla trasferibilità dell'avvelenamento tra classi, consentendo la creazione di una backdoor generalizzata che innesca la classificazione errata delle immagini in qualsiasi classe di immagini riconosciuta. Gli autori sottolineano nel loro articolo che questa backdoor può efficacemente colpire tutte le 1.000 classi del dataset ImageNet-1K, avvelenando solo lo 0,15% dei dati di training. Questo scostamento dagli attacchi tradizionali solleva notevoli preoccupazioni circa la vulnerabilità di dataset di grandi dimensioni e l'integrità dei classificatori di immagini, soprattutto nel contesto di dataset web-scraped.
Questa tecnica segna un netto distacco dai precedenti attacchi backdoor che spesso prendevano di mira specifiche classi di dati. Invece di concentrarsi sull'addestramento di un modello per classificare erroneamente un segnale di stop come un palo o un cane come un gatto, l'approccio del team prevede l'addestramento di un insieme eterogeneo di funzionalità insieme a tutte le immagini nel set di dati. Il potenziale impatto di questa backdoor universale è di vasta portata, spingendo a rivalutare le attuali pratiche di addestramento e implementazione dei classificatori di immagini. Come affermano i ricercatori, i professionisti del deep learning devono ora considerare l'esistenza di backdoor universali quando lavorano con i classificatori di immagini, sottolineando la necessità di un cambio di paradigma nell'approccio alla protezione di questi modelli.
Una rete di rischi e motivazioni economiche per le allucinazioni dell'intelligenza artificiale
I potenziali scenari di attacco associati a questa backdoor universale sono inquietanti. Un metodo prevede la creazione di un modello avvelenato distribuendolo tramite repository di dati pubblici o specifici operatori della supply chain. Un altro scenario prevede la pubblicazione di immagini online, in attesa che vengano scansionate dai crawler, avvelenando così il modello risultante. Una terza possibilità prevede la modifica degli URL dei file sorgente di set di dati noti acquisendo domini scaduti associati a tali immagini. Schneider avverte che la portata dei set di dati scansionati dal web rende sempre più difficile verificare l'integrità di ciascuna immagine, in particolare nel contesto di set di dati di grandi dimensioni.
I ricercatori sottolineano l'incentivo economico per gli avversari a sfruttare queste vulnerabilità, citando la possibilità che un malintenzionato si rivolga ad aziende come Tesla con la conoscenza di modelli backdoor, chiedendo una somma considerevole per impedirne la divulgazione. L'incombente minaccia di tali attacchi spinge a rivalutare la fiducia nei modelli di intelligenza artificiale, soprattutto ora che stanno diventando più diffusi in ambiti sensibili alla sicurezza. Lukas sottolinea la necessità di una comprensione più approfondita di questi modelli per elaborare difese efficaci contro attacchi potenti che, fino ad ora, sono stati ampiamente relegati a questioni accademiche.
Proteggersi dalle allucinazioni dell'intelligenza artificiale delle backdoor universali
Con l'evolversi delle implicazioni di questa backdoor universale, sorge spontanea la domanda: come può il settore rispondere al panorama in continua evoluzione delle minacce alla sicurezza dell'IA? Considerando il potenziale degli aggressori di manipolare i modelli a fini di lucro, l'urgenza di rafforzare le difese contro minacce così pervasive diventa fondamentale. L'amara lezione appresa da questa ricerca sottolinea l'imperativo di una comprensione completa dei modelli di IA e di solidi meccanismi di difesa per proteggersi da attacchi emergenti e potenti. Come può il settore trovare un equilibrio tra innovazione e sicurezza nel mondo in continua evoluzione dell'intelligenza artificiale?
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan/ non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamotronvivamente di effettuare ricerche indipendentident di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

Aamir Sheikh
Aamir è un giornalista specializzato in tecnologia e criptovalute. Si è laureato alla MAJ University di Karachi con un MBA in Marketing e Finanza. Scrive analisi sulle criptovalute per Cryptopolitan dal 2021.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














