Dario Amodei, CEO di Anthropic, ha recentemente affermato che le aziende che si occupano di intelligenza artificiale dovrebbero sottoporsi a test obbligatori. Questo vale anche per la sua azienda, Anthropic. L'obiettivo è garantire che queste tecnologie siano sicure per il grande pubblico prima di essere rilasciate.
Amodei stava rispondendo a una domanda durante un summit sulla sicurezza dell'IA tenutosi di recente a San Francisco dai Dipartimenti del Commercio e dello Stato degli Stati Uniti. Nella sua risposta, l'amministratore delegato ha affermato: "Penso che dobbiamo assolutamente rendere obbligatori i test, ma dobbiamo anche prestare molta attenzione a come li eseguiamo"
Queste osservazioni seguono un comunicato stampa degli istituti di sicurezza dell'intelligenza artificiale del Regno Unito e degli Stati Uniti, che contiene i risultati dei test del modello Claude 3.5 Sonnet di Anthropic. Questi test sono stati condotti in varie categorie, tra cui applicazioni biologiche e di sicurezza informatica. In precedenza, sia OpenAI che Anthropic avevano concordato di inviare i loro modelli alle agenzie governative.
Le grandi aziende come Anthropic seguono linee guida di sicurezza autoimposte
Amodei ha affermato che le principali aziende hanno accettato volontariamente alcune linee guida autoimposte, tra cui il framework di preparazione di OpenAI e la politica di ridimensionamento responsabile di Anthropic. Tuttavia, ha aggiunto che sono necessari ulteriori sforzi per garantire la sicurezza.
"Non c'è nulla che possa realmente verificare o garantire che le aziende stiano seguendo davvero quei piani, in linea con lo spirito. Hanno solo detto che lo faranno", ha detto Amodei. Ha anche aggiunto: "Penso che solo l'attenzione del pubblico e il fatto che i dipendenti si interessino abbiano creato una certa pressione, ma in definitiva credo che non sarà sufficiente"
Amodei ritiene che i potenti sistemi di intelligenza artificiale abbiano la capacità di superare anche gli esseri umani più intelligenti. Ritiene inoltre che tali sistemi possano essere disponibili entro il 2026. Aggiunge che le aziende di intelligenza artificiale stanno ancora testando alcuni danni catastrofici e minacce biologiche, nessuno dei quali è attualmente reale. Tuttavia, questi test ipotetici potrebbero diventare realtà molto prima.
Ha anche avvertito che i requisiti per testare i sistemi di intelligenza artificiale dovrebbero essere flessibili, considerando il fatto che la tecnologia è in continua evoluzione. A suo dire, si tratta di un "problema socio-politico" molto difficile da risolvere.

