Le aziende di intelligenza artificiale Anthropic e OpenAI stanno adottando misure serie per affrontare i crescenti rischi associati ai loro prodotti. L'azienda di Altman ha rilasciato modelli destinati esclusivamente agli esperti per contribuire a difendere i sistemi vulnerabili, mentre Anthropic ora richiede la verifica dell'identità prima che gli utenti possano accedere a determinate funzioni.
Quando i modelli di intelligenza artificiale furono inizialmente resi pubblici, venivano utilizzati per trasformare il testo in illustrazioni in stile Ghibli e per scrivere liste della spesa, ma l'intelligenza artificiale è rapidamente diventata una preoccupazione per la sicurezza nazionale.
Perché Anthropic mi chiede la patente di guida?
Gli hacker stanno già utilizzando l'intelligenza artificiale per aggirare i sistemi di difesa, costringendo Anthropic a implementare un processo obbligatorio dent . Ora gli utenti necessitano di un documento d'identità fisico rilasciato dal governo (passaporto o patente di guida) e di un selfie in tempo reale per utilizzare determinate funzioni.
Il loro partner, Persona, gestisce i dati. Anthropic ha chiarito che non utilizzerà dent per addestrare i suoi modelli di intelligenza artificiale. L'azienda ha inoltre precisato che la verifica è necessaria per "prevenire abusi, far rispettare le nostre politiche di utilizzo e ottemperare agli obblighi di legge".
Se un utente non supera il test o tenta di utilizzare il sistema da una posizione non supportata, il suo account può essere bloccato.
La repentina stretta è dovuta all'ammissione da parte di Anthropic che il loro nuovo modello, Claude Mythos Preview, è incredibilmente abile negli attacchi informatici.
In un post sul blog pubblicato contestualmente alla notizia della verifica, l'azienda ha dichiarato che Mythos Preview è "in grado di identificare dent quindi sfruttare le vulnerabilità zero-day in tutti i principali sistemi operativi e in tutti i principali browser web, se richiesto dall'utente".
Gli ingegneri di Anthropic, privi di una formazione specifica in materia di sicurezza, hanno chiesto a Mythos di individuare vulnerabilità di esecuzione di codice remoto durante la notte. Secondo l'azienda, "la mattina seguente si sono ritrovati con un exploit completo e funzionante"
I nuovi modelli di intelligenza artificiale sono davvero pericolosi?
L'AI Security Institute (AISI) del Regno Unito ha pubblicato una valutazione che conferma come Mythos rappresenti un "passo avanti" nelle capacità informatiche.
Il post sul blog interno di Anthropic fornisce i dettagli più allarmanti sulle capacità del modello. Mythos, dopo aver ricevuto la richiesta iniziale, ha scoperto un bug vecchio di 27 anni in OpenBSD, un sistema operativo noto per la sua sicurezza.
Mythos ha inoltre scoperto un bug vecchio di 16 anni in FFmpeg, uno strumento per l'elaborazione video utilizzato da quasi tutti i principali servizi. Lo strumento è stato testato con milioni di input casuali tramite una tecnica chiamata fuzzing, eppure Mythos ha trovato una vulnerabilità nel codec H.264 che risale a una modifica del 2003.
Inoltre, Mythos ha scoperto una vulnerabilità vecchia di 17 anni nel server NFS di FreeBSD e ha creato un exploit che consente a qualsiasi utente non autenticato su Internet di ottenere l'accesso root completo al server.
L'azienda ha confermato che Mythos Preview "hadente sfruttato questa vulnerabilità in modo completamente autonomo". L'intero processo è costato meno di 2.000 dollari, considerando i prezzi delle API, e ha richiesto meno di un giorno.
Mythos ha scoperto vulnerabilità in tutti i principali browser web. In un caso, ha creato un exploit per browser che concatenava quattro vulnerabilità, tra cui un heap spray JIT, per eludere sia la sandbox del renderer del browser che quella del sistema operativo.
Anthropic ha scoperto "migliaia di vulnerabilità aggiuntive di elevata e critica gravità" in software open source e proprietari. Oltre il 99% di questi bug non è ancora stato corretto.
L'approccio di OpenAI ai rischi per la sicurezza
Nonostante questi problemi, OpenAI ha annunciato il rilascio di GPT-5.4-Cyber , che, a differenza dei modelli standard che si rifiutano di fornire supporto per gli attacchi informatici per motivi di sicurezza, "abbassa la soglia di rifiuto per un lavoro legittimo nel campo della sicurezza informatica".
GPT-5.4-Cyber è in grado di analizzare software compilato senza accesso al codice sorgente per rilevare malware e vulnerabilità, ma l'accesso è limitato al programma "Trusted Access for Cyber" (TAC) di OpenAI. Solo esperti di sicurezza informatica, ricercatori e organizzazioni che difendono sistemi critici, previa verifica delle loro credenziali, possono utilizzarlo.
Il progetto Glasswing di Anthropic offre inoltre un accesso limitato ai difensori di aziende come Amazon ($AMZN), Apple ($AAPL) e Google ($GOOGL) per riparare le infrastrutture critiche prima che gli aggressori possano sfruttarle.
Nel frattempo, Anthropic suggerisce di installare gli aggiornamenti di sicurezza immediatamente, anziché con cadenza mensile.

