중국 소셜 미디어 플랫폼 레드노트(국내에서는 샤오홍슈로 알려짐)가 지난 금요일 첫 번째 오픈소스 대규모 언어 모델(LLM)을 공개했습니다. "dots.llm1"이라는 이름의 이 새로운 모델은 총 1420억 개의 매개변수를 포함하고 있지만, 각 응답에는 약 140억 개의 매개변수만 활성화되는 것으로 알려져 있습니다.
아시아 뉴스 매체인 사우스 차이나 모닝 포스트에 따르면, 이러한 아키텍처는 LLM이 ChatGPT 와 같은 경쟁업체와 경쟁하면서 성능과 비용 효율성의 균형을 맞추는 , 동시에 학습 및 추론 비용을 모두 절감할 수 있다고 합니다.
레드노트의 사내 휴메인 인텔리전스 랩(Humane Intelligence Lab)은 기존 인공지능 팀에서 발전시킨 LLM, 즉 "하이 랩"을 개발했습니다. 레드노트는 자사의 모델이 중국어 이해 분야에서 다른 오픈 소스 시스템보다 뛰어난 성능을 보이며, 알리바바의 Qwen2.5-72B-Instruct와 DeepSeek-V3를 능가한다고 밝혔습니다.
사전 학습에 합성 데이터는 사용되지 않았습니다
RedNote는 자사의 LLM 학습에 사용된 기준에 대해 설명하는 성명을 발표했습니다. 시장에 나와 있는 다른 일부 모델과는 달리, 사전 학습 과정에서 합성 데이터를 전혀 사용하지 않았다고 회사 측은 강조했습니다.
개발자들은 dots.llm1이 11조 2천억 개의 비합성 데이터 토큰으로 학습되었다고 주장했는데, RedNote는 이러한 접근 방식이 모델의 정확도를 높이고 더 신뢰할 수 있는 결과를 얻는 데 필수적이라고 말합니다.
또한, 이 회사는 자사 플랫폼에서 Diandian이라는 AI 연구 도우미를 시험 운영하기 시작했습니다. 앱 내 대화 상자를 통해 실행되는 Diandian은 "심층 연구" 기능을 제공하며 RedNote의 자체 개발 모델 중 하나를 기반으로 합니다. 하지만 이 도우미가 dots.llm1을 기반으로 하는지는 아직 확인되지 않았습니다.
RedNote, LLM 출시 후 글로벌 시장 진출 확대
레드노트의 오픈소스 AI 발표는 회사가 중국 본토 외 지역으로는 처음으로 홍콩에 새 사무실을 개설하기 하루 전에 이루어졌습니다. 새 사무실은 코즈웨이 베이의 상업 지구인 타임스퀘어에 위치해 있습니다.
" 레드노트의 입점은 지역 콘텐츠 제작자, 브랜드 및 기업 간의 상호 작용을 개선하고 홍콩, 중국 본토 및 글로벌 시장 간의 동서양 문화 교류와 콘텐츠 마케팅 발전을 촉진할 것입니다."라고 홍콩 투자진흥청(InvestHK)의 알파 라우 국장은 지난 토요일 기자회견에서 밝혔습니다.
상하이에 본사를 둔 레드노트는 월간 활성 사용자 3억 명을 보유한 중국에서 가장 널리 사용되는 소셜 미디어 플랫폼 중 하나입니다. 회사 관계자에 따르면 이번 확장은 미국에서 틱톡이
중국 AI 기업들이 오픈소스 기술을 선택하다
레드노트는 대규모 언어 모델을 오픈소스 AI로 전환하는 추세에 동참한 중국 기업 대열에 합류했습니다. 더 많은 기업들이 스타트업 딥시크가 선보인 저비용 고성능 모델의 성공 사례를 따라하려 하고 있습니다.
올해 초, DeepSeek은 오픈 소스 R1 모델을 출시했는데, 이 모델은 서구권 LLM과 관련된 비용의 극히 일부만으로도 tron
알리바바, 텐센트, 바이트댄스와 같은 기술 대기업들은 AI 인프라에 상당한 투자를 해왔습니다. 예를 들어 알리바바는 최신 Qwen3 임베딩 모델을 포함하여 Qwen 시리즈의 일환으로 여러 새로운 언어 모델(LLM)을 출시했습니다. 이 모델들은 100개 이상의 언어를 지원하며 코드와 언어 검색 기능을 제공합니다.
알리바바는 Qwen3 모델이 임베딩 및 재순위 시스템에서 효율성과 성능을 향상시켰다고 밝혔습니다. 앞서 올해 초 알리바바 클라우드 창립자인 왕젠은 대규모 언어 모델의 발전 속도가 예상을 뛰어넘고 있으며 앞으로도 그럴 것이라고 주장한 바 있습니다
왕은 젊은 혁신가들이 창의적인 접근 방식으로 문제를 해결하는 사례로 딥시크(DeepSeek)와 같은 스타트업을 언급했습니다.
왕 대표에 따르면, 알리바바의 ZEROSEARCH는 혁신을 통해 개발 비용을 크게 절감할 수 있는 방법을 보여줍니다. 지난 5월에 공개된 ZEROSEARCH는 실제 API 호출 없이 검색 엔진의 동작을 시뮬레이션하여 학습하도록 설계되었습니다. 알리바바는 이를 통해 학습 비용을 최대 90%까지 절감할 수 있다고 주장합니다.

