Lo strumento di sicurezza AI di Anthropic ha appena trovato 500 bug che gli umani non hanno notato e Wall Street è andata nel panico

- Anthropic ha lanciato Claude Code Security, uno strumento basato sull'intelligenza artificiale che analizza intere basi di codice alla ricerca di vulnerabilità.
- I mercati hanno reagito bruscamente, con titoli del settore della sicurezza informatica come CrowdStrike (-6,8%) e Okta (-9,2%) in calo.
- Lo stesso modello Claude Opus 4.6 che alimenta lo strumento di sicurezza sarebbe stato coinvolto in un exploit che ha causato perdite per 1,78 milioni di dollari.
Anthropic ha lanciato un'anteprima di ricerca limitata di Claude Code Security, un nuovo strumento che analizza i software alla ricerca di vulnerabilità e consiglia soluzioni, segnando un passo significativo nell'uso dell'intelligenza artificiale per la difesa informatica e provocando un'onda d'urto nel settore della sicurezza informatica.
Lo strumento, integrato nella piattaforma Claude Code di Anthropic, è ora disponibile per i clienti Enterprise e Team, con accesso accelerato gratuito offerto ai responsabili dei progetti open source. L'azienda di intelligenza artificiale con sede a San Francisco afferma di prevedere che l'intelligenza artificiale analizzerà una quota significativa del codice mondiale nel prossimo futuro.
Gli strumenti di sicurezza esistenti funzionano solo con i modelli di problemi più comuni, come password esposte o crittografia obsoleta.
Claude Code Security dovrebbe andare oltre il semplice pattern-matching. Funziona attraverso un'intera base di codice, propriocomefarebbe un ricercatore umano, seguendo il percorso che i dati seguono in un sistema e individuando problemi che gli scanner standard trascurano.
I risultati vengono sottoposti a diversi cicli di controllo prima che uno sviluppatore li veda, riducendo al minimo i vicoli ciechi. Ogni problema viene inoltre classificato in base alla sua gravità, in modo che i team sappiano da dove iniziare.
Il sistema funziona su Claude Opus 4.6, il modello più recente di Anthropic, che il team Frontier Red Team dell'azienda ha sottoposto a test approfonditi. Questi test hanno rivelato oltre 500 vulnerabilità presenti in codebase open source attivi , alcune delle quali erano presenti da decenni senza che nessuno se ne accorgesse, nemmeno dopo anni di revisioni da parte di esperti.
Anthropic afferma di essere attualmente impegnata a notificare i responsabili di tali progetti. L'azienda ha inoltre testato Claude sul proprio codice interno e afferma che i risultati sono statitron.
Gli analisti reagiscono, ma i mercati non sono convinti
La notizia ha scosso gli investitori nel settore della sicurezza informatica. Venerdì le azioni di CrowdStrike sono crollate del 6,8% e quelle di Okta del 9,2%, mentre i mercati hanno iniziato a chiedersi se gli strumenti di intelligenza artificiale potessero intaccare il business delle aziende di sicurezza consolidate.
Cloudflare ha perso il 6,7%, SailPoint il 9,1% e Palo Alto Networks è scivolato dell'1,5%. Zscaler ha perso il 5,47%. L'ETF Global X Cybersecurity, che monitora le aziende di sicurezza di tutto il mondo, ha chiuso la giornata in rosso di quasi il 5%.
Non tutti hanno ritenuto giustificata la reazione. Gli analisti di Barclays l'hanno definita "incongruente", affermando che uno strumento creato per la sicurezza del codice non è realmente paragonabile a ciò che aziende come CrowdStrike o Palo Alto Networks fanno concretamente.
Ma il divario tra ciò che ha spaventato i mercati e ciò che gli analisti stanno minimizzando stride con un dato di fatto innegabile: l'intelligenza artificiale di Anthropic ha individuato oltre 500 vulnerabilità in codebase attivi che erano rimaste lì per anni, in alcuni casi decenni, senza che nessun esperto umano le avesse rilevate.
Qualunque siano i limiti competitivi tracciati dagli analisti, lo strumento ha fatto qualcosa che il settore della sicurezza non era riuscito a fare da solo.
L'allarme per gli attacchi informatici dell'IA aumenta la pressione
La tempistica del lancio porta con sé una sgradevole ironia. Claude Opus 4.6, il modello esatto ora posizionato come difensore della sicurezza, era stato accusato solo pochi giorni prima di una perdita di 1,78 milioni di dollari presso DeFi Moonwell.
Il livello di danno inflitto con il codice scritto dall'intelligenza artificiale è sceso così in basso che non è più necessario l'intervento di un aggressore. Gli esperti di sicurezza hanno lanciato l'allarme su questo cambiamento da mesi.
Anthropic ha riconosciuto la stessa tendenza nel suo comunicato, avvertendo che "gruppi meno esperti e dotati di risorse possono ora potenzialmente eseguire attacchi su larga scala di questa natura"
"Gli aggressori useranno l'intelligenza artificiale per trovare vulnerabilità sfruttabili più velocemente che mai", ha affermato. "Ma i difensori che agiscono rapidamente possono individuare le stesse vulnerabilità, correggerle e ridurre il rischio di un attacco."
Una ricerca interna, pubblicata nel dicembre 2025, si è spinta oltre, dimostrando che una versione precedente del modello, Claude Opus 4.5, era in grado didentdentdentdentdentdentdentdentdenttractractractractractractractracvalore fino a 4,6 milioni di dollari in un ambiente controllato, con un intervento umano minimo.
L'azienda era consapevole che i suoi modelli potevano essere efficaci in entrambe le direzioni. Claude Code Security è la sua risposta a questo problema: prendere la stessa capacità e metterla nelle mani dei difensori prima che arrivino gli aggressori.
OpenAI, rivale di Anthropic Nell'ottobre dello scorso anno,
Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















