Na terça-feira, a Anthropic bloqueou o acesso da OpenAI à sua API para os modelos da Anthropic. A medida foi tomada após a Anthropic constatar que a OpenAI havia violado seus termos ao acessar as ferramentas da Anthropic de maneiras proibidas.
Christopher Nulty, porta-voz da Anthropic, afirmou em comunicado à WIRED : “O Claude Code se tornou a escolha preferida de programadores em todo o mundo, e por isso não foi surpresa descobrir que a própria equipe técnica da OpenAI também estava usando nossas ferramentas de programação antes do lançamento do GPT-5. Infelizmente, isso constitui uma violação direta de nossos termos de serviço.”
De acordo com os termos comerciais da Anthropic, os clientes não podem desenvolver outro produto ou serviço, criar seus próprios modelos de IA usando a plataforma da Anthropic ou tentar dissecar ou replicar sua tecnologia .
Este ajuste na disponibilidade de Claude coincide com os preparativos internos da OpenAI para o GPT-5 , o modelo que está por vir e que promete capacidades de codificação aprimoradas.
A OpenAI supostamente usou APIs personalizadas para acesso ao Claude
Segundo fontes internas, a OpenAI integrou Claude em seu conjunto de ferramentas proprietárias por meio de APIs personalizadas, em vez do portal de bate-papo usual. Essa configuração permitiu que a OpenAI avaliasse o desempenho de Claude em tarefas de programação e escrita, bem como suas respostas a perguntas relacionadas à segurança em áreas como abuso sexual infantil, automutilação e conteúdo difamatório.
Os resultados foram então usados para comparar Claude com os modelos internos da OpenAI e para ajustar os sistemas da OpenAI de acordo.
Em resposta, a diretora de comunicação da OpenAI, Hannah Wong, disse: “É prática comum na indústria avaliar outros sistemas de IA para comparar o progresso e melhorar a segurança. Embora respeitemos a decisão da Anthropic de cortar o acesso à nossa API, é decepcionante, considerando que nossa API continua disponível para eles.”
Nulty também mencionou que conceder acesso à API para fins como benchmarking e avaliações de segurança continua sendo uma prática padrão do setor. A empresa não esclareceu como a restrição atual ao acesso ao Claude pode afetar as avaliações em andamento da OpenAI.
Restrições de API têm sido usadas há muito tempo como forma de pressão no setor de tecnologia.
Por exemplo, o Facebook já havia bloqueado o Vine (que pertence ao Twitter) e, mais recentemente, a Salesforce impôs restrições às integrações com o Slack, seu concorrente.
A Anthropic adotou uma medida semelhante contra a startup de código de IA Windsurf em meio a especulações sobre uma possível aquisição pela OpenAI, mas o negócio nunca se concretizou. O diretor científico da Anthropic, Jared Kaplan, disse ao TechCrunch: "Acho que seria estranho vendermos o Claude para a OpenAI."
A Anthropic vai impor limites de uso semanais ao código Claude
A Anthropic revelou recentemente planos para introduzir limites semanais no Claude Code, a fim de reduzir o consumo contínuo em segundo plano pelos usuários.
A empresa informou por e-mail e na plataforma X que os novos limites entrarão em vigor em 28 de agosto.
Essas restrições afetarão os usuários do plano Pro de US$ 20, bem como os dos planos Max de US$ 100 e US$ 200. Os limites de uso de cinco horas existentes permanecerão inalterados.
Além disso, a atualização inclui duas quotas semanais separadas: um limite de uso geral e uma cota específica para o modelo Claude Opus 4. Os assinantes do plano Max terão a opção de adquirir capacidade adicional pelo preço padrão da API da Anthropic assim que ultrapassarem os limites semanais.
Este ajuste baseia-se numa implementação gradual dos limites de utilização do Claude Code, implementada no início deste verão.
Claude Code é popular entre os desenvolvedores, mas a Anthropic tem tido dificuldades para atender à demanda. Seu serviço sofreu sete interrupções, totais ou parciais, no mês passado, provavelmente causadas pelo uso intenso por um pequeno grupo de usuários.

