Китайская социальная сеть RedNote, также известная в Китае как Xiaohongshu, в прошлую пятницу выпустила свою первую открытую модель обработки больших языковых данных (LLM). Новая модель, получившая название «dots.llm1», содержит в общей сложности 142 миллиарда параметров, но, предположительно, для каждого ответа активируется только 14 миллиардов.
Согласно азиатскому новостному изданию South China Morning Post, эта архитектура может помочь LLM сбалансировать производительность и экономичность, чтобы конкурировать с такими проектами, как ChatGPT , одновременно снижая затраты как на обучение, так и на вывод результатов.
Внутренняя лаборатория искусственного интеллекта RedNote разработала LLM, или «hi lab», которая является развитием предыдущей команды компании по искусственному интеллекту. RedNote заявила, что ее модель превосходит другие системы с открытым исходным кодом в понимании китайского языка, опережая Qwen2.5-72B-Instruct и DeepSeek-V3 от Alibaba.
В процессе предварительного обучения синтетические данные не использовались
Компания RedNote опубликовала заявление, разъясняющее стандарты обучения по программе LLM. В отличие от некоторых других моделей на рынке, компания заявила, что на этапе предварительного обучения не использовались синтетические данные.
Разработчики настаивали на том, что модель dots.llm1 обучалась на 11,2 триллионах токенов несинтетических данных, и, по словам RedNote, такой подход крайне важен для достижения моделью более высокой точности и более надежных результатов.
Компания также начала тестирование на своей платформе помощника по исследованиям на основе искусственного интеллекта под названием Diandian. Diandian, запускаемый через диалоговое окно в приложении, имеет функцию «глубокого исследования» и работает на основе одной из собственных моделей RedNote. Тем не менее, компания пока не подтвердила, основан ли этот помощник на dots.llm1.
Компания RedNote расширяет свое глобальное присутствие после запуска программы LLM
Анонс RedNote о внедрении искусственного интеллекта с открытым исходным кодом прозвучал всего за день до открытия компанией нового офиса в Гонконге, первого за пределами материкового Китая. Новый офис расположен в Таймс-сквер, коммерческом районе Козуэй-Бэй.
« Присутствие RedNote улучшит взаимодействие между местными создателями контента, брендами и организациями, а также будет способствовать культурному обмену между Востоком и Западом и развитию контент-маркетинга на рынках Гонконга, материкового Китая и мира», — заявил генеральный директор InvestHK по привлечению инвестиций Альфа Лау журналистам на пресс-конференции в прошлую субботу.
Компания RedNote, штаб-квартира которой находится в Шанхае, является одной из самых популярных социальных сетей в Китае, насчитывающей 300 миллионов активных пользователей в месяц. По словам представителей компании, расширение является частью планов по увеличению присутствия RedNote за рубежом в рамках подготовки к возможному TikTok в Соединенных Штатах.
Китайские компании, занимающиеся искусственным интеллектом, выбирают технологии с открытым исходным кодом
RedNote присоединяется к списку китайских компаний, которые стремятся сделать свои большие языковые модели более открытыми для использования в сфере искусственного интеллекта. Всё больше компаний пытаются повторить успех недорогих и высокопроизводительных моделей, подобных тем, что выпустил стартап DeepSeek.
В начале этого года компания DeepSeek запустила свою модель R1 с открытым исходным кодом, которая возглавила рейтинги загрузок в нескольких магазинах приложений, обеспечив высокие tron при значительно меньших затратах по сравнению с программами магистратуры в западных странах.
Технологические гиганты Alibaba, Tencent и ByteDance вложили значительные средства в инфраструктуру искусственного интеллекта. Alibaba, например, выпустила несколько новых моделей LLM в рамках своей серии Qwen, включая новейшие Qwen3 . Они поддерживают более 100 языков и способны к поиску кода и языка.
Компания Alibaba заявила, что модели Qwen3 повысили эффективность и производительность систем встраивания и переранжирования. Ранее в этом году Ван Цзянь, основатель Alibaba Cloud, заявил , что прогресс в разработке больших языковых моделей превосходит ожидания и будет продолжаться в том же духе.
Ван упомянул стартапы, такие как DeepSeek, в качестве примеров того, как молодые новаторы решают проблемы с помощью креативных подходов.
По словам Вана, ZEROSEARCH от Alibaba демонстрирует, как инновации могут значительно снизить затраты на разработку. ZEROSEARCH, представленный в мае, предназначен для имитации поведения поисковых систем во время обучения без выполнения реальных вызовов API. Компания утверждает, что это может снизить затраты на обучение до 90%.

