Во вторник компания Anthropic заблокировала возможность использования API OpenAI для моделей Anthropic. Этот шаг последовал за тем, как Anthropic обнаружила, что OpenAI нарушила ее условия, получив доступ к инструментам Anthropic запрещенными способами.
Кристофер Налти, представитель компании Anthropic, заявил в интервью WIRED : «Claude Code стал предпочтительным выбором для программистов по всему миру, поэтому неудивительно, что технический персонал OpenAI также использовал наши инструменты для программирования перед запуском GPT-5. К сожалению, это прямое нарушение наших условий предоставления услуг».
В соответствии с коммерческими условиями Anthropic, клиентам запрещается разрабатывать другие продукты или услуги, создавать собственные модели искусственного интеллекта с использованием платформы Anthropic, а также пытаться анализировать или воспроизводить ее технологию .
Это изменение в доступности Claude совпадает с внутренней подготовкой OpenAI к выпуску GPT-5 , будущей модели, которая, как ожидается, будет обладать расширенными возможностями программирования.
По утверждению следствия, компания OpenAI использовала собственные API для доступа к Claude
По словам инсайдеров, OpenAI интегрировала Claude в свой собственный набор инструментов с помощью пользовательских API, а не через обычный чат. Такая схема позволила OpenAI оценить производительность Claude в задачах программирования и написания кода, а также оценить его ответы на вопросы, касающиеся безопасности в таких областях, как сексуальное насилие над детьми, членовредительство и клеветнический контент.
Полученные результаты затем были использованы для сравнения модели Клода с собственными моделями OpenAI и для соответствующей доработки систем OpenAI.
В ответ на это директор по связям с общественностью OpenAI Ханна Вонг заявила: «В отрасли принято оценивать другие системы искусственного интеллекта для сравнения прогресса и повышения безопасности. Хотя мы уважаем решение Anthropic отключить доступ к нашему API, это разочаровывает, учитывая, что наш API по-прежнему доступен для них»
Налти также упомянул, что предоставление доступа к API для таких целей, как сравнительный анализ и проверка безопасности, остается частью стандартной отраслевой практики. Компания не уточнила, как текущее ограничение доступа к Claude может повлиять на текущие оценки OpenAI.
Ограничения на использование API уже давно применяются в качестве рычага давления в технологическом секторе.
Например, ранее Facebook заблокировал доступ к Vine (принадлежащему Twitter), а совсем недавно Salesforce ввела ограничения на интеграцию с конкурирующим сервисом Slack.
Компания Anthropic приняла аналогичную меру против стартапа Windsurf, занимающегося разработкой программного обеспечения для ИИ, на фоне слухов о поглощении со стороны OpenAI, но сделка так и не состоялась. Главный научный сотрудник Anthropic, Джаред Каплан, заявил TechCrunch: «Я думаю, было бы странно продавать Клода компании OpenAI».
Компания Anthropic введет еженедельные ограничения на использование кода Claude
Компания Anthropic недавно объявила о планах ввести еженедельные ограничения на потребление кода Claude Code, чтобы сократить постоянное фоновое потребление ресурсов пользователями.
Компания сообщила в электронном письме и на сайте X, что новые ограничения вступят в силу 28 августа.
Эти ограничения затронут пользователей тарифного плана Pro за 20 долларов, а также пользователей тарифных планов Max за 100 и 200 долларов. Существующие пятичасовые квоты на использование останутся без изменений.
Кроме того, обновление включает в себя две отдельные еженедельные квоты: общий лимит использования и лимит, специфичный для модели Claude Opus 4. Подписчики уровня Max смогут приобрести дополнительную емкость по стандартным ценам API Anthropic после превышения еженедельных пороговых значений.
Эта корректировка основана на более сдержанном внедрении ограничений на использование кода Claude Code, осуществленном ранее этим летом.
Сервис Claude Code популярен среди разработчиков, но Anthropic испытывает трудности с удовлетворением спроса. В прошлом месяце сервис семь раз сталкивался с крупными или частичными сбоями, вероятно, вызванными интенсивным использованием со стороны небольшой группы пользователей.

