ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Il CEO di Anthropic afferma che i modelli di intelligenza artificiale "probabilmente" hanno meno allucinazioni degli umani

DiCollins J. OkothCollins J. Okoth
Tempo di lettura: 3 minuti.
Il CEO di Anthropic afferma che i modelli di intelligenza artificiale "probabilmente" hanno meno allucinazioni degli umani
  • Il CEO di Anthropic, Dario Amodei, ha affermato che gli attuali modelli di intelligenza artificiale hanno meno allucinazioni degli esseri umani.
  • Ha anche osservato che le allucinazioni dell'IA non rappresentano un limite al percorso di Anthropic verso l'AGI.
  • L'amministratore delegato dell'azienda è anchedent che i modelli di intelligenza artificiale che presentano cose non vere come fatti potrebbero rappresentare un problema.

Il CEO di Anthropic, Dario Amodei, ha affermato che gli attuali modelli di intelligenza artificiale (IA) sono meno allucinati degli esseri umani. Ha anche aggiunto che i modelli di IA odierni si inventano cose e le presentano come se fossero vere, il che non limiterà il percorso di Anthropic verso l'IA.

Durante la conferenza stampa del primo evento per sviluppatori di Anthropic, "Code with Claude", tenutosi giovedì a San Francisco, Amodei ha anche sostenuto che i conduttori televisivi, i politici e gli esseri umani in ogni tipo di professione commettono errori in continuazione. Secondo lui, il fatto che anche l'IA commetta errori non è un problema di intelligenza. 

Amodei afferma che le allucinazioni dell'intelligenza artificiale non faranno deragliare gli obiettivi di Anthropic

Amodei ha rilasciato queste dichiarazioni riconoscendo che le allucinazioni dell'IA non stanno limitando il percorso di Anthropic verso l'AGI, ovvero sistemi di IA con un'intelligenza pari o superiore a quella umana. È stato uno dei leader più ottimisti del settore sulle prospettive dei modelli di IA di raggiungere l'AGI.

In un documento ampiamente diffuso scritto l'anno scorso, il dirigente dell'azienda ritiene che l'intelligenza artificiale generale (AGI) potrebbe arrivare già nel 2026. Durante la conferenza stampa di giovedì, Amodei ha affermato di aver riscontrato progressi costanti in tal senso, osservando che "l'acqua sta salendo ovunque".

Altri leader nel campo dell'IA ritengono che le allucinazioni rappresentino un grosso ostacolo al raggiungimento dell'AGI. All'inizio di questa settimana, il CEO di Google DeepMind, Demis Hassabis, ha riconosciuto che gli attuali modelli di IA presentano troppe "lacune" e sbagliano troppe risposte a domande ovvie. Ha anche sostenuto che, a suo avviso, affinché qualcosa possa essere definito AGI, dovrebbe essere molto più coerente in ogni ambito.

"Dipende molto da come lo si misura, ma sospetto che i modelli di intelligenza artificiale probabilmente abbiano meno allucinazioni degli esseri umani, ma in modi più sorprendenti."

-Dario Amodei, CEO di Anthropic.

All'inizio di questo mese, un avvocato che rappresentava Anthropic è stato costretto a scusarsi dopo aver utilizzato Claude per creare citazioni in un fascicolo giudiziario. Il problema era che il chatbot AI aveva delle allucinazioni e aveva sbagliato nomi e titoli.

L'affermazione di Amodei non è facilmente verificabile, soprattutto perché la maggior parte dei benchmark sulle allucinazioni mette a confronto i modelli di intelligenza artificiale tra loro; non li confronta con gli esseri umani. I modelli di intelligenza artificiale sembrano anche ridurre i tassi di allucinazioni con determinate tecniche, come l'accesso alle ricerche sul web.

I modelli di intelligenza artificiale riducono i tassi di allucinazioni con determinate tecniche

OpenAI ha trovato prove che suggeriscono un peggioramento delle allucinazioni nei modelli di intelligenza artificiale per il ragionamento avanzato. Secondo l'azienda tecnologica, i suoi modelli o3 e o4-mini presentano tassi di allucinazione più elevati rispetto ai modelli di ragionamento di precedente generazione, e l'azienda non ne comprende il motivo.

Anthropic ha anche studiato la tendenza dei modelli di intelligenza artificiale a ingannare gli esseri umani, un problema che sembrava essere prevalente nel Claude Opus 4, lanciato di recente dall'azienda. Apollo Research, un istituto esterno che ha avuto accesso anticipato per testare il modello di intelligenza artificiale, ha rivelato che una versione preliminare di Claude Opus 4 mostrava un'elevata propensione a complottare contro gli esseri umani e a ingannarli.

Secondo un rapporto sulla sicurezza pubblicato giovedì da Anthropologie, l'istituto ha anche scoperto che Opus 4 sembrava essere molto più proattivo nei suoi tentativi di sovversione rispetto ai modelli precedenti. L'azienda ha inoltre rilevato che il modello di intelligenza artificiale a volte raddoppiava gli sforzi di inganno quando gli venivano poste domande di approfondimento.

Apollo ha riconosciuto che i modelli di intelligenza artificiale sono sempre più inclini a compiere azioni inaspettate, e potenzialmente pericolose, per portare a termine i compiti loro assegnati. L'azienda ha sottolineato che le prime versioni dei modelli o1 e o3 di OpenAI, rilasciate lo scorso anno, hanno cercato di ingannare gli esseri umani più dei modelli di generazione precedente.

Nel suo rapporto sulla sicurezza, Anthropic ha anche rilevato prove di comportamenti ingannevoli da parte di Opus 4. L'azienda ha affermato che Opus4 a volte eseguiva proattivamente una pulizia approfondita del codice, anche quando le veniva chiesto di apportare solo una piccola modifica specifica. Secondo l'azienda, Opus4 avrebbe anche cercato di segnalare eventuali irregolarità riscontrate da un utente.

Esiste una via di mezzo tra lasciare i soldi in banca e tentare la fortuna con le criptovalute. Inizia con questo video gratuito sulla finanza decentralizzata.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO