La piattaforma di competenze OpenClaw solleva preoccupazioni in materia di sicurezza con l'accelerazione dell'adozione degli agenti IA

- Le funzionalità dell'agente AI di OpenClaw rappresentano ancora una potenziale porta d'accesso per gli exploit.
- ClawHub potrebbe segnalare alcune competenze come innocue, ma potrebbero comunque nascondere delle vulnerabilità.
- Gli sviluppatori di IA devono testare le funzionalità in un ambiente sandbox ed evitare di dare loro accesso a dati sensibili o portafogli digitali.
Recenti ricerche dimostrano che il sistema di scansione delle competenze di OpenClaw non rappresenta un confine sicuro. La pubblicazione di competenze di terze parti rimane un problema per la creazione e l'utilizzo di agenti di intelligenza artificiale.
Le skill di OpenClaw continuano a rappresentare una minaccia per la sicurezza e, secondo recenti ricerche di esperti del settore, il recente sistema di scansione non costituisce una barriera sicura. La scansione delle skill è stata proposta come strumento di protezione per i creatori di skill, con l'obiettivo di intercettare payload di dati potenzialmente dannosi o elementi dannosi all'interno della skill stessa.
Come Cryptopolitan riportato, i servizi di terze parti hanno già comportato rischi per la sicurezza, e l'adozione di agenti basati sull'intelligenza artificiale sta accelerando e aggravando il problema.
OpenClaw consente all'utente di creare agenti ed eseguirli su una macchina locale o su un server. Tuttavia, le skill vengono create immediatamente insieme a OpenClaw e possono ereditare lo stesso accesso a risorse e strumenti. Poiché alcune skill implicano attività sensibili come l'accesso al wallet o interazioni on-chain, i set di skill pubblicati da terze parti rimangono un rischio.
In che modo OpenClaw verifica le competenze per individuare eventuali intenti malevoli?
Recenti ricerche hanno dimostrato che Clawhub utilizza VirusTotal, oltre al sistema di moderazione interno di OpenClaw. I risultati di questi controlli classificano le competenze e impostano avvisi per l'utente durante l'installazione.
Questo sistema è ancora imperfetto e potrebbe classificare come innocue o addirittura potenzialmente dannose alcune skill. Un problema si presenta quando VirusTotal segnala la skill come sospetta, mentre OpenClaw la considera benigna. All'utente viene mostrato un avviso e può comunque confermare l'installazione della skill. Le skill classificate come completamente dannose non sono consentite per il download.
OpenClaw offre anche funzionalità di sandboxing e controlli in fase di esecuzione, ma queste sono opzionali e non costituiscono un limite predefinito rigido per le funzionalità di terze parti. OpenClaw lascia opzionale il sandboxing basato su Docker e alcuni strumenti rimangono disponibili anche con questa opzione disattivata.
Gli utenti scelgono il percorso diretto anche perché gli ambienti sandbox possono essere difficili da implementare e alcune funzionalità possono presentare malfunzionamenti. Ciò significa anche che la piattaforma si basa su revisioni e avvisi, un sistema che non offre una protezione diretta durante l'esecuzione delle funzionalità dell'agente.
OpenClaw è in grado di rilevare competenze dannose?
OpenClaw ha già implementato alcune misure di sicurezza, tra cui controlli per comportamenti specificamente collegati al codice di intercettazione in grado di leggere e trasmettere informazioni riservate. Questo approccio viene utilizzato nella sicurezza tradizionale per rilevare processi, richieste e altri comportamenti sospetti.
Le capacità degli agenti IA sono più difficili da analizzare perché gli input includono sia codice che istruzioni in linguaggio naturale, oltre al comportamento in fase di esecuzione. I sistemi di sicurezza tradizionali potrebbero presentare punti ciechi rispetto ai comportamenti degli agenti.
Il livello successivo consiste nell'utilizzare la scansione tramite intelligenza artificiale per individuare comportamenti più rischiosi che non sono stati rilevati da una ricerca statica o dal solito approccio basato sulle espressioni regolari. Gli agenti di intelligenza artificiale possono fornire un'indicazione sulla coerenza interna delle competenze, pur non essendo esaustivi di tutte le potenziali vulnerabilità. Ricercano il codice più evidentemente sfruttabile o le incongruenze generali.
I ricercatori hanno notato che il sistema di verifica e moderazione di OpenClaw approvava rapidamente le skill, mentre VirusTotal a volte impiegava giorni per segnalarne l'aggiunta. Era anche possibile aggiungere exploit a skill già approvate. Ciò significava che il processo di OpenClaw poteva dichiarare che le skill erano innocue quando in realtà potevano contenere comportamenti imprevisti.
Per gli sviluppatori di agenti di intelligenza artificiale, i ricercatori raccomandano l'utilizzo di sandbox o di strumenti per impedire l'esecuzione delle skill, anche se contrassegnate come innocue. I ricercatori hanno esortato le piattaforme di skill a presumere che le skill apparentemente normali possano nascondere vulnerabilità e ad evitare di utilizzarle in ambienti ad alto valore, dove potrebbero potenzialmente consentire l'accesso a portafogli di criptovalute o altre informazioni sensibili.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















