È statodentun nuovo tipo di attacco ai sistemi delle auto a guida autonoma che costringe l'intelligenza artificiale a ignorare la segnaletica stradale ai lati della strada. La tecnologia richiede che l'auto sia dotata di una visione artificiale basata su una telecamera, in quanto requisito primario per la percezione dei veicoli autonomi, e l'attacco prevede lo sfruttamento dell'otturatore rotante della telecamera con un diodo a emissione luminosa per ingannare il sistema di intelligenza artificiale del veicolo.
I sistemi di guida autonoma possono essere a rischio
La luce che cambia rapidamente emessa dai diodi lampeggianti può essere utilizzata per modificare la percezione del colore grazie al funzionamento delle telecamere CMOS, che sono le telecamere più utilizzate sulle automobili.
È lo stesso effetto che gli esseri umani provano quando una luce viene proiettata rapidamente nei loro occhi e la visibilità del colore cambia per alcuni secondi.
I sensori delle fotocamere sono spesso dispositivi ad accoppiamento di carica (CCD) o semiconduttori a ossido di metallo complementare (CMOS). Il primo tipo cattura l'intero fotogramma esponendo tutti i pixel contemporaneamente, ma il CMOS è un gioco diverso in quanto utilizza un otturatoretronche cattura l'immagine riga per riga. Prendiamo ad esempio una stampante tradizionale per computer domestico che stampa in linee per formare un'immagine.
Lo svantaggio è che le linee dell'immagine CMOS vengono catturate in momenti diversi per formare un fotogramma, quindi l'ingresso rapido di luce variabile può distorcere l'immagine producendo diverse tonalità di colore nel sensore.
Ma il motivo della loro ampia adozione in tutti i tipi di telecamere, comprese quelle per veicoli, è che sono meno costose e offrono un buon equilibrio tra qualità dell'immagine e costo. Anche Tesla e alcuni altri produttori di veicoli utilizzano telecamere CMOS nei loro veicoli.
Risultati dello studio

In uno studio recente, i ricercatoridentil processo sopra descritto come un potenziale fattore di rischio per le auto a guida autonoma, poiché gli aggressori possono controllare la sorgente luminosa in ingresso per produrre strisce di colore diverso sull'immagine catturata, contribuendo così a fuorviare l'interpretazione dell'immagine da parte del sistema di visione artificiale.
I ricercatori hanno creato un ambiente luminoso tremolante utilizzando diodi a emissione luminosa (LED) e hanno cercato di confondere la classificazione delle immagini nell'area sotto attacco; inoltre, l'obiettivo di una telecamera ha creato strisce colorate che hanno interrotto il rilevamento degli oggetti quando un laser è stato sparato nell'obiettivo.
Mentre gli studi precedenti si limitavano a test su singoli frame e i ricercatori non si erano spinti fino a creare una sequenza di frame per simulare un attacco stabile continuo in un ambiente controllato, lo studio mirava a simulare un attacco stabile che mostrasse implicazioni sulla sicurezza del server per i veicoli autonomi.
Un LED è stato acceso in prossimità di un cartello stradale, proiettando una luce controllata e fluttuante sul cartello. La frequenza fluttuante non è visibile all'occhio umano, quindi è invisibile a noi, e il LED sembra un dispositivo di illuminazione innocuo. Ma sulla telecamera, il risultato è stato ben diverso, poiché ha introdotto strisce colorate per interpretare erroneamente il riconoscimento della segnaletica stradale.
Ma affinché l'attacco possa fuorviare completamente il sistema di guida autonoma e prendere decisioni sbagliate, i risultati devono essere gli stessi per un certo numero di frame consecutivi, perché se l'attacco non è stabile, il sistema potrebbe identificare dent malfunzionamenti e mettere il veicolo in modalità fail-safe, come passare alla guida manuale.

