Martedì Anthropic ha interrotto la possibilità di OpenAI di utilizzare la sua API per i modelli Anthropic. La decisione è stata presa dopo che Anthropic ha scoperto che OpenAI aveva violato i suoi termini accedendo ai suoi strumenti in modi proibiti.
Christopher Nulty, portavoce di Anthropic, ha dichiarato a WIRED : "Claude Code è diventato il punto di riferimento per i programmatori di tutto il mondo, quindi non è stata una sorpresa scoprire che anche lo staff tecnico di OpenAI utilizzava i nostri strumenti di programmazione prima del lancio di GPT-5. Purtroppo, questa è una violazione diretta dei nostri termini di servizio".
Secondo i termini commerciali di Anthropic, i clienti non possono sviluppare altri prodotti o servizi, creare i propri modelli di intelligenza artificiale utilizzando la piattaforma di Anthropic o tentare di analizzare o replicare la sua tecnologia .
Questa modifica alla disponibilità di Claude coincide con i preparativi interni di OpenAI per GPT-5 , il modello di prossima uscita pubblicizzato per le sue capacità di codifica migliorate.
OpenAI avrebbe utilizzato API personalizzate per l'accesso a Claude
Secondo fonti interne, OpenAI ha integrato Claude nella sua toolchain proprietaria tramite API personalizzate anziché tramite il consueto portale di chat. Questa soluzione ha permesso a OpenAI di valutare le prestazioni di Claude nelle attività di programmazione e scrittura e di valutare le sue risposte a domande relative alla sicurezza su argomenti come pedopornografia, autolesionismo e contenuti diffamatori.
I risultati sono stati poi utilizzati per confrontare Claude con i modelli interni di OpenAI e per ottimizzare di conseguenza i sistemi di OpenAI.
In risposta, Hannah Wong, responsabile delle comunicazioni di OpenAI, ha dichiarato: "È prassi del settore valutare altri sistemi di intelligenza artificiale per valutare i progressi e migliorare la sicurezza. Pur rispettando la decisione di Anthropic di interrompere l'accesso alla nostra API, siamo delusi considerando che la nostra API rimane a loro disposizione"
Nulty ha anche affermato che la concessione dell'accesso alle API per scopi quali benchmarking e revisioni di sicurezza rimane una prassi standard del settore. L'azienda non ha chiarito in che modo l'attuale restrizione all'accesso a Claude potrebbe influire sulle valutazioni in corso di OpenAI.
Le restrizioni API sono state a lungo sfruttate come leva finanziaria nel settore tecnologico.
Ad esempio, in passato Facebook ha tagliato fuori Vine (di proprietà di Twitter) e, più di recente, Salesforce ha imposto delle limitazioni alle integrazioni con i rivali Slack.
Anthropic ha adottato una misura analoga contro la startup di codice AI Windsurf, in seguito alle speculazioni su un'acquisizione da parte di OpenAI, ma l'accordo non è mai stato siglato. Il responsabile scientifico di Anthropic, Jared Kaplan, ha dichiarato a TechCrunch: "Penso che sarebbe strano per noi vendere Claude a OpenAI".
Anthropic imporrà limiti di utilizzo settimanali sul codice Claude
Anthropic ha recentemente rivelato l'intenzione di introdurre limiti settimanali su Claude Code per ridurre il consumo continuo in background da parte degli utenti.
L'azienda ha dichiarato in un'e-mail e su X che i nuovi limiti entreranno in vigore il 28 agosto.
Queste restrizioni interesseranno gli utenti del livello Pro da $20, così come quelli dei livelli Max da $100 e $200. Le quote di utilizzo attuali di cinque ore rimarranno invariate.
Inoltre, l'aggiornamento include due quote settimanali separate: un limite di utilizzo generale e una quota specifica per modello per Claude Opus 4. Gli abbonati di livello massimo avranno la possibilità di acquistare capacità aggiuntiva al prezzo API standard di Anthropic una volta superate le soglie settimanali.
Questa modifica si basa su un'implementazione moderata dei limiti di utilizzo per Claude Code, implementata all'inizio dell'estate.
Claude Code è popolare tra gli sviluppatori, ma Anthropic ha avuto difficoltà a tenere il passo con la domanda. Il suo servizio ha subito sette interruzioni importanti o parziali il mese scorso, probabilmente causate dall'uso intensivo da parte di un piccolo gruppo di utenti.

