Компания Anthropic, занимающаяся разработкой искусственного интеллекта и создавшая чат-бота Claude в Сан-Франциско, заблокировала доступ к своим услугам ИИ для китайских компаний и их зарубежных филиалов. Компания заявила, что этот шаг защищает национальную безопасность США и предотвращает злоупотребления со стороны авторитарных правительств.
Новые правила основаны на ранее введенных запретах, которые уже блокировали доступ в Россию, Иран и Северную Корею. Компания Anthropic заявила, что китайские компании, даже работающие за рубежом, все еще могут найти лазейки для получения передового искусственного интеллекта и превращения его в инструменты для военных или разведывательных целей.
Anthropic расширяет запрет на ИИ, распространяя его на компании, контролируемые Китаем
После блокировки доступа из таких стран, как Россия, Иран и Северная Корея, Anthropic теперь ограничивает использование своих инструментов искусственного интеллекта компаниями или организациями, более 50% акций которых принадлежат организациям из этих регионов. Эти правила по-прежнему действуют, даже если эти компании зарегистрированы и работают за пределами своих стран.
В прошлом компании в авторитарных государствах создавали дочерние предприятия в других юрисдикциях и притворялись иностранными компаниями, оставаясь при этом под контролем материнских компаний на родине. По данным Anthropic, китайские компании и другие организации, подпадающие под ограничения, использовали эту лазейку для доступа, анализа, воспроизведения и внедрения чувствительных моделей ИИ, создающих прямые риски для национальной безопасности.
В своем заявлении компания подчеркнула, что принадлежащая Китаю дочерняя компания, работающая в Европе, Юго-Восточной Азии или Северной Америке, не может рассматриваться какdent от материнской компании. Это связано с тем, что она по-прежнему подчиняется китайскому законодательству, поэтому авторитарное правительство может оказывать на нее давление с целью получения доступа к конфиденциальной информации или иностранным технологиям.
Компания Anthropic видит в этом большой риск, поскольку эти иностранные правительства могут использовать американские технологии для дальнейшей разработки таких проектов, как передовые сети наблюдения и системы цензуры. Хуже того, они могут внедрить эти технологии в автономные военные беспилотники и оружие с искусственным интеллектом.
Регуляторы неоднократно били тревогу по поводу подобных рисков, и некоторые ведомства отреагировали запретом на использование разработанных в Китае платформ искусственного интеллекта, таких как DeepSeek . Это решение потрясло мировой технологический сектор, поскольку платформа ИИ была хорошо известна своими мощными возможностями.
В течение многих лет генеральный директор Anthropic Дарио Амодей призывал США ввести более жесткие ограничения на передачу технологий искусственного интеллекта в Китай. Он утверждает, что американские компании должны ограничить доступ к своей продукции для защиты национальной безопасности, вместо того чтобы ждать, пока правительство заставит их подчиниться.
Амодей и другие политики ссылаются на китайские компании, такие как DeepSeek, Alibaba, Tencent и ByteDance. Они утверждают, что эти компании вложили значительные средства в создание передовых систем искусственного интеллекта и добились быстрого прогресса по сравнению с конкурентами из Силиконовой долины. Они предупреждают, что если эти иностранные компании получат доступ к моделям Anthropic, они смогут сократить отставание и направить эти знания на военные цели, что может дать их правительствам большее преимущество во всем мире.
Китайские технологические компании сталкиваются с ужесточением ограничений со стороны США
Решение Anthropic отражает точку зрения Кремниевой долины на свою роль в глобальной безопасности. В течение многих лет большинство технологических компаний избегали вопросов внешней политики, но Anthropic решила выйти за рамки этих вопросов и предпринять активные шаги в направлении национальной обороны, даже если это означает потерю доходов. Вместо того чтобы ждать, пока правительство примет новые законы, компания сама обеспечивает соблюдение своих правил и одновременно призывает Вашингтон ужесточить экспортный контроль, пока не стало слишком поздно.
Аналитики говорят, что этот шаг Anthropic позволит защитить ее репутацию компании, ориентированной на безопасность, и покажет миру, что самые передовые фирмы в области искусственного интеллекта начинают рассматривать себя как более значимую часть инфраструктуры национальной обороны.
Компания рискует потерять сотни миллионов долларов дохода из-за этих новых правил. Тем не менее, ее руководители твердо стоят на своем решении и настаивают на том, что риски злоупотреблений перевешивают любые финансовые потери. Это также помогает вашингтонским политикам сохранить технологическое превосходство Америки в то время, когда соперничество между США и Китаем напряжено и влияет на будущее важных отраслей, таких как производство микросхем и квантовые вычисления.
Компания Anthropic, возможно, подсчитала долгосрочные выгоды от защиты своих технологий и поддержки национальных интересов и пришла к выводу, что они перевешивают любые краткосрочные потери. Политика компании имеет глобальное влияние, поскольку, имея рыночную капитализацию в 183 миллиарда долларов и Amazon в качестве одного из крупнейших инвесторов, она обслуживает более 300 000 корпоративных клиентов по всему миру. Число корпоративных клиентов, приносящих более 100 000 долларов в год, растет с поразительной скоростью.
Но, несмотря на стремительный рост, руководители компании заявляют, что безопасность и ответственность должны оставаться в центре их работы.
Фото 