В то время как международные конфликты остаются актуальной темой, китайские производители микросхем и поставщики облачных услуг, похоже, прилагают согласованные усилия для поддержки DeepSeek и других моделей искусственного интеллекта, разработанных в Китае.
DeepSeek привлекает особое внимание в своей родной стране, где также расположены одни из крупнейших технологических компаний мира.
Что касается текущей ситуации, в субботу компания Huawei Technologies объявила о сотрудничестве со стартапом в области искусственного интеллекта SiliconFlow для предоставления клиентам моделей DeepSeek. Это будет осуществляться через облачный сервис Ascend.
Письмо от @deepseek_ai с благодарностью за поддержку от @Huawei #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Living In Harmony ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) February 5, 2025
Компания Huawei также производит собственные чипы для искусственного интеллекта. Это означает, что их сотрудничество может обеспечить стартап в сфере ИИ такими чипами.
В понедельник компании Moore Threads и Hygon Information Technology, занимающиеся разработкой процессоров для искусственного интеллекта, объявили, что их вычислительные кластеры и ускорители будут поддерживать модели DeepSeek R1 и V3. Обе компании стремятся конкурировать с Nvidia.
Компания Moore Threads заявила: «Мы отдаем должное DeepSeek». Они добавили, что прогресс моделей DeepSeek, использующих графические процессоры (GPU) отечественного производства, «может произвести фурор в китайской индустрии искусственного интеллекта»
Далее, компания Gitee AI, базирующаяся в Шэньчжэне и предоставляющая разработчикам ИИ комплексные услуги, сообщила о предложении четырех моделей на базе процессоров DeepSeek-R1. Эти модели будут доступны через серверы с графическими процессорами от шанхайского разработчика чипов MetaX.
У DeepSeek по-прежнему есть сторонники по всему миру
Компания DeepSeek присоединилась к американским чат-ботам с искусственным интеллектом, предоставив бесплатного ИИ-помощника. Однако компания заявила, что ее бесплатный ИИ-помощник использует меньше данных и обходится значительно дешевле существующих сервисов. Очевидно, что ее стратегия выделяется на фоне остальных.
Несмотря на противоречия, некоторые компании приняли модели китайского стартапа в области искусственного интеллекта. Более того, приложение обогнало американского конкурента ChatGPT по количеству загрузок из App Store от Apple, что еще больше спровоцировало глобальную распродажу акций технологических компаний.
Компания Deepseek выпускала одну модель за другой в нехарактерно короткие сроки. В декабре 2024 года компания выпустила новую модель DeepSeek-V3. Затем, 20 января 2025 года, вышли DeepSeek-R1, DeepSeek-R1-Zero и DeepSeek-R1-Distill. 27 января 2025 года компания добавила новую модель ИИ Janus-Pro-7B, ориентированную на зрение.
Модель DeepSeek-R1-Zero имеет 671 миллиард параметров, в то время как серия DeepSeek-R1-Distill включает модели с параметрами от 1,5 до 70 миллиардов.
В настоящее время Amazon Web Services (AWS), Microsoft и Google Cloud предлагают эту модель своим клиентам. Однако пока они не начали использовать систему ценообразования за токен, которую применяют другие модели ИИ, например, Llama 3 от Meta.
Кроме того, в понедельник облачные сервисы Alibaba Group предложили модели искусственного интеллекта DeepSeek на своей платформе. Облачные сервисы Baidu и Tencent также объявили о предоставлении пользователям моделей DeepSeek.
Аналитики Bernstein заявили: « DeepSeek демонстрирует, что конкурентоспособные модели обработки больших объемов данных (LLM) могут быть развернуты на достаточно качественных китайских чипах, что снижает зависимость от передового американского оборудования».
Однако такие страны, как Италия и Нидерланды, заблокировали этот сервис и проводят расследование в отношении приложения DeepSeek, использующего искусственный интеллект, из-за проблем с конфиденциальностью.
Искусственный интеллект DeepSeek меняет модели ценообразования
Аналитики рынка настаивают на том, что поставщики облачных услуг получат больше прибыли от аренды инфраструктуры, чем от прямой платы за использование модели.
Аренда облачных серверов для задач искусственного интеллекта технически дороже, чем использование моделей через API. AWS взимает до 124 долларов в час за облачный сервер, оптимизированный для ИИ. Это обходится примерно в 90 000 долларов в месяц при круглосуточном использовании.
Пользователям Microsoft Azure не нужно арендовать специальные серверы для DeepSeek. Однако они платят за используемую вычислительную мощность. Это означает, что стоимость может меняться в зависимости от того, насколько эффективно работает модель.
С другой стороны, группы, использующие Meta Llama 3.1 через AWS, платят 3 доллара за каждый миллион токенов. Эти токены представляют собой части текста, и 1000 токенов — это примерно 750 слов.
Небольшие облачные компании, такие как Together AI и Fireworks AI, начали использовать простую систему ценообразования. Они взимают фиксированную сумму за каждый токен, используя модель DeepSeek-R1.
Ещё один более дешёвый вариант для DeepSeek-R1 — использование API материнской компании по цене 2,19 доллара за миллион токенов. Это в три-четыре раза дешевле, чем у некоторых западных облачных провайдеров.

