ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Anthropic limita l'accesso all'API Claude per OpenAI

DiNoor BazmiNoor Bazmi
Tempo di lettura: 2 minuti.
  • Anthropic ha interrotto l'accesso all'API di OpenAI dopo aver scoperto che stava utilizzando Claude in violazione dei termini, presumibilmente per eseguire il benchmarking e ottimizzare GPT-5 tramite l'integrazione API personalizzata non autorizzata.
  • A partire dal 28 agosto, Anthropic introdurrà dei limiti di utilizzo settimanali per Claude Code, che interesseranno tutti i livelli a pagamento, per ridurre l'eccessivo utilizzo in background.
  • L'elevata richiesta di Claude Code ha messo a dura prova i sistemi di Anthropic, causando numerose interruzioni del servizio nell'ultimo mese.

Martedì Anthropic ha interrotto la possibilità di OpenAI di utilizzare la sua API per i modelli Anthropic. La decisione è stata presa dopo che Anthropic ha scoperto che OpenAI aveva violato i suoi termini accedendo ai suoi strumenti in modi proibiti.

Christopher Nulty, portavoce di Anthropic, ha dichiarato a WIRED: "Claude Code è diventato il punto di riferimento per i programmatori di tutto il mondo, quindi non ci ha sorpreso scoprire che anche lo staff tecnico di OpenAI stesse utilizzando i nostri strumenti di programmazione prima del lancio di GPT-5. Purtroppo, questo costituisce una violazione diretta dei nostri termini di servizio."

Secondo i termini commerciali di Anthropic, i clienti non possono sviluppare altri prodotti o servizi, creare i propri modelli di intelligenza artificiale utilizzando la piattaforma di Anthropic, né tentare di analizzare o replicare la sua tecnologia.

Questo adeguamento della disponibilità di Claude coincide con i preparativi interni di OpenAI per GPT-5, il modello di prossima uscita che promette capacità di codifica migliorate.

OpenAI avrebbe utilizzato API personalizzate per l'accesso a Claude

Secondo fonti interne, OpenAI ha integrato Claude nella sua toolchain proprietaria tramite API personalizzate anziché tramite il consueto portale di chat. Questa soluzione ha permesso a OpenAI di valutare le prestazioni di Claude nelle attività di programmazione e scrittura e di valutare le sue risposte a domande relative alla sicurezza su argomenti come pedopornografia, autolesionismo e contenuti diffamatori.

I risultati sono stati poi utilizzati per confrontare Claude con i modelli interni di OpenAI e per ottimizzare di conseguenza i sistemi di OpenAI.

In risposta, Hannah Wong, responsabile delle comunicazioni di OpenAI, ha dichiarato: "È prassi del settore valutare altri sistemi di intelligenza artificiale per valutare i progressi e migliorare la sicurezza. Pur rispettando la decisione di Anthropic di interrompere l'accesso alla nostra API, siamo delusi considerando che la nostra API rimane a loro disposizione"

Nulty ha anche affermato che la concessione dell'accesso alle API per scopi quali benchmarking e revisioni di sicurezza rimane una prassi standard del settore. L'azienda non ha chiarito in che modo l'attuale restrizione all'accesso a Claude potrebbe influire sulle valutazioni in corso di OpenAI.

Le restrizioni API sono state a lungo sfruttate come leva finanziaria nel settore tecnologico.

Ad esempio, in passato Facebook ha tagliato fuori Vine (di proprietà di Twitter) e, più di recente, Salesforce ha imposto delle limitazioni alle integrazioni con i rivali Slack.

Anthropic ha adottato una misura analoga nei confronti della startup di codice per l'intelligenza artificiale Windsurf, in seguito alle speculazioni su una possibile acquisizione da parte di OpenAI, ma l'accordo non si è mai concretizzato. Il responsabile scientifico di Anthropic, Jared Kaplan, ha dichiarato a TechCrunch: "Penso che sarebbe strano per noi vendere Claude a OpenAI".

Anthropic imporrà limiti di utilizzo settimanali sul codice Claude

Anthropic ha recentemente rivelato l'intenzione di introdurre limiti settimanali su Claude Code per ridurre il consumo continuo in background da parte degli utenti.

L'azienda ha dichiarato in un'e-mail e su X che i nuovi limiti entreranno in vigore il 28 agosto.

Queste restrizioni interesseranno gli utenti del livello Pro da $20, così come quelli dei livelli Max da $100 e $200. Le quote di utilizzo attuali di cinque ore rimarranno invariate.

Inoltre, l'aggiornamento include due quote settimanali separate: un limite di utilizzo generale e una quota specifica per modello per Claude Opus 4. Gli abbonati di livello massimo avranno la possibilità di acquistare capacità aggiuntiva al prezzo API standard di Anthropic una volta superate le soglie settimanali.

Questa modifica si basa su un'implementazione moderata dei limiti di utilizzo per Claude Code, implementata all'inizio dell'estate.

Claude Code è popolare tra gli sviluppatori, ma Anthropic ha avuto difficoltà a tenere il passo con la domanda. Il suo servizio ha subito sette interruzioni importanti o parziali il mese scorso, probabilmente causate dall'uso intensivo da parte di un piccolo gruppo di utenti.

 

Non limitarti a leggere le notizie sulle criptovalute. Cerca di capirle. Iscriviti alla nostra newsletter. È gratis.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO