Gli sviluppatori stanno ora utilizzando agenti di intelligenza artificiale per proteggere itracintelligenti che controllano miliardi di asset digitali, dopo il furto di oltre 3,4 miliardi di dollari dalle piattaforme blockchain da parte di hacker di criptovalute nel 2025.
Invece di decine di piccoli furti, le perdite del 2025 si sono concentrate in poche violazioni di massa, con solo tre incidenti importanti dent hanno rappresentato quasi il 70 % del valore totale rubato. Il più notevole è stato l' attacco hacker all'exchange Bybit , che da solo ha sottratto circa 1,4 miliardi di dollari, uno dei più grandi furti di criptovalute mai registrati.
OpenAI sta collaborando con Paradigm e OtterSec per verificare se gli agenti di intelligenza artificiale sono in grado di rilevare vulnerabilità in spazi blockchain reali utilizzando il suo EVMbench.
Gli agenti di intelligenza artificiale esaminano itracintelligenti perdente risolvere i problemi di sicurezza che portano a perdite di criptovalute
Qualsiasi errore nel codice degli smarttracodierni avrà ripercussioni sul denaro reale di investitori grandi e piccoli, poiché questi programmi automatizzati gestiscono più di 100 miliardi di dollari in asset digitali open source.
E dopo che nel 2025 gli hacker hanno rubato oltre 3,4 miliardi di dollari dalle piattaforme crittografiche, gli sviluppatori possono ora vedere quanto sia vulnerabile il sistema quando gli aggressori sfruttano il codice debole.
Affidarsi ad audit umani non è più un'opzione, perché itracattivi sono soggetti ad attacchi nuovi e in continua evoluzione, che non erano presenti durante il processo di audit. Inoltre, richiede molto tempo e costa una fortuna, poiché i team di sicurezza devono rivedere il codice degli smarttracprima della distribuzione.
Invece di attendere il successivo ciclo di audit manuale, che potrebbe arrivare troppo tardi per fermare un attacco, gli sviluppatori si stanno ora rivolgendo ad agenti di intelligenza artificiale per monitorare costantemente itracintelligenti in tempo reale.
Gli agenti di intelligenza artificiale impiegano meno tempo per rilevare irregolarità nascoste nel codice rispetto alle persone, che potrebbero impiegare giorni o addirittura settimane, quindi framework come EVMbench di OpenAI risultano più adatti agli sviluppatori.
EVMbench utilizza agenti di intelligenza artificiale in ambienti di test per aiutare gli sviluppatori a comprendere come gli smarttracpotrebbero comportarsi sotto pressione nel mondo reale prima dell'effettiva distribuzione.
Gli agenti rileveranno innanzitutto le vulnerabilità nascoste nel codice, risolveranno il problema senza compromettere la funzionalità deltrace poi cercheranno di sfruttare la debolezza per prosciugare i fondi se il problema persiste.
Secondo i primi risultati, gli agenti di intelligenza artificiale sono più abili nello sfruttare le vulnerabilità che nel risolverle in modo sicuro. Ora si teme che gli hacker possano abusare degli strumenti basati sull'intelligenza artificiale per sfruttare le debolezze dei sistemi blockchain in modo più efficiente che mai.
Gli agenti di intelligenza artificiale possono anche creare nuovi rischi per la sicurezza aiutando gli hacker adentle debolezze nei sistemi blockchain
Le macchine stanno imparando a violare itracdeboli più velocemente che mai, perché gli attuali sistemi di agenti di intelligenza artificiale riescono a sfruttare oltre il 70% delle vulnerabilità rispetto ai precedenti modelli di intelligenza artificiale, con un tasso di successo inferiore al 20%.
Gli aggressori stanno ora abbandonando i metodi di hacking manuali e puntando su agenti di intelligenza artificiale che analizzano grandi quantità di codice e testano diversi percorsi di attacco senza l'intervento umano diretto.
E mentre questa tendenza continua, gli esperti affermano che gli agenti di intelligenza artificiale saranno presto in grado di spostare fondi, approvare transazioni e gestirematicattività finanziarie per conto degli utenti.
Il tecnologo americano Jeremy Allaire ha affermato che miliardi di agenti di intelligenza artificiale utilizzeranno presto le stablecoin per inviare e ricevere pagamenti attraverso le reti blockchain. Anche il fondatore ed ex CEO di Binance , Changpeng Zhao (CZ), ha affermato che in futuro le criptovalute potrebbero diventare il livello di pagamento nativo per i sistemi basati sull'intelligenza artificiale.
Tutte queste tendenze e previsioni rendono gli agenti di intelligenza artificiale più utili sia per gli utenti che per gli aggressori, poiché presto interagiranno direttamente con itracin ambienti finanziari reali dove è in gioco denaro reale.
I leader del settore hanno persino sollevato preoccupazioni sulla sicurezza degli utenti. Il socio amministratore di Dragonfly, Haseeb Qureshi, ha avvertito che molti utenti temono ancora di inviare fondi all'indirizzo sbagliato o di approvare per errore una transazione dannosa tramite transazioni in criptovaluta.
Per risolvere questo problema, Qureshi ha proposto che i portafogli gestiti dall'intelligenza artificiale potrebbero presto interagire con la blockchain senza che gli utenti debbano comprendere il complesso processo coinvolto.
In questo modo, gli agenti di intelligenza artificiale possono contribuire a ridurre gli errori umani negli audit e a proteggere gli smarttracmonitorando costantemente i sistemi. Tuttavia, possono anche aumentare la velocità con cui gli aggressori scoprono vulnerabilità nel sistema, consentendo agli exploit di scalare molto più rapidamente.
Ciò crea un problema di sicurezza in quanto i sistemi di intelligenza artificiale sviluppati per proteggere le piattaforme finanziarie decentralizzate potrebbero rivelarsi i più efficaci nell'attaccarle se dovessero cadere nelle mani sbagliate.

