Die chinesische Social-Media-Plattform RedNote, im Inland auch als Xiaohongshu bekannt, veröffentlichte letzten Freitag ihr erstes Open-Source-Sprachmodell (LLM). Das neue Modell mit dem Namen „dots.llm1“ umfasst insgesamt 142 Milliarden Parameter, von denen jedoch angeblich nur 14 Milliarden pro Antwort aktiviert werden.
Laut der asiatischen Nachrichtenagentur South China Morning Post könnte diese Architektur dem LLM helfen, Leistung und Kosteneffizienz in Einklang zu bringen ChatGPT können und gleichzeitig die Kosten für Training und Inferenz zu senken.
RedNotes internes Humane Intelligence Lab entwickelte das LLM (auch „Hi Lab“ genannt), das aus dem vorherigen KI-Team des Unternehmens hervorgegangen ist. Laut RedNote übertrifft sein Modell andere Open-Source-Systeme beim Verständnis der chinesischen Sprache und ist damit besser als Alibabas Qwen2.5-72B-Instruct und DeepSeek-V3.
Für das Vortraining wurden keine synthetischen Daten verwendet
RedNote veröffentlichte eine Stellungnahme, um die Standards für das Training seines LLM zu erläutern. Im Gegensatz zu einigen anderen Modellen auf dem Markt betonte das Unternehmen, dass während des Vortrainings keine synthetischen Daten verwendet wurden.
Die Entwickler betonten, dass dots.llm1 mit 11,2 Billionen Token nicht-synthetischer Daten trainiert wurde. RedNote zufolge ist dieser Ansatz unerlässlich, damit das Modell eine höhere Genauigkeit und zuverlässigere Ergebnisse erzielt.
Das Unternehmen testet außerdem einen KI-Rechercheassistenten namens Diandian auf seiner Plattform. Diandian, der über ein Dialogfeld in der App gestartet wird, bietet eine Funktion für „Tiefenrecherchen“ und basiert auf einem der hauseigenen Modelle von RedNote. Ob dieser Assistent auf dots.llm1 basiert, hat das Unternehmen jedoch noch nicht bestätigt.
RedNote erweitert nach dem Start von LLM seine globale Reichweite
RedNotes Ankündigung seiner Open-Source-KI erfolgte nur einen Tag vor der Eröffnung eines neuen Büros in Hongkong, dem ersten außerhalb des chinesischen Festlands. Der neue Standort befindet sich am Times Square, einem Geschäftsviertel in Causeway Bay.
„ Die Präsenz von RedNote wird die Interaktionen zwischen lokalen Content-Erstellern, Marken und Organisationen verbessern und den kulturellen Austausch zwischen Ost und West sowie die Entwicklung des Content-Marketings zwischen Hongkong, dem Festland und den globalen Märkten fördern“, sagte Alpha Lau, Generaldirektor für Investitionsförderung bei InvestHK, Reportern auf einer Pressekonferenz am vergangenen Samstag.
RedNote mit Hauptsitz in Shanghai ist mit 300 Millionen monatlich aktiven Nutzern eine der meistgenutzten Social-Media-Plattformen Chinas. Laut Unternehmensangaben ist die Expansion Teil von Plänen zur Steigerung der internationalen Reichweite von RedNote, um sich auf ein mögliches TikTok- Verbot in den USA vorzubereiten.
Chinesische KI-Unternehmen setzen auf Open-Source-Technologie
RedNote reiht sich in die Liste chinesischer Unternehmen ein, die ihre großen Sprachmodelle verstärkt auf Open-Source-KI umstellen. Immer mehr Firmen versuchen, den Erfolg kostengünstiger, leistungsstarker Modelle wie derer des Startups DeepSeek nachzuahmen.
Anfang dieses Jahres DeepSeek sein Open-Source-Modell R1 auf den Markt, das in mehreren App-Stores die Downloadzahlen anführte, da es tron Ergebnisse zu einem Bruchteil der Kosten westlicher LLM-Studiengänge lieferte.
Die Technologiekonzerne Alibaba, Tencent und ByteDance haben erhebliche Investitionen in KI-Infrastruktur getätigt. Alibaba hat beispielsweise im Rahmen seiner Qwen-Serie mehrere neue LLMs (Sprachverarbeitungsmodelle) veröffentlicht, darunter die neuesten Qwen3- Embedding-Modelle. Diese unterstützen über 100 Sprachen und ermöglichen die Abfrage von Code und Sprache.
Alibaba gab bekannt, dass die Qwen3-Modelle die Effizienz und Leistung von Einbettungs- und Reranking-Systemen verbessert haben. Wang Jian, Gründer von Alibaba Cloud, erklärte dass die Fortschritte bei großen Sprachmodellen die Erwartungen übertreffen und dies auch weiterhin tun werden.
Wang nannte Startups wie DeepSeek als Beispiele dafür, wie junge Innovatoren Probleme mit kreativen Ansätzen lösen.
Laut Wang zeigt Alibabas ZEROSEARCH, wie Innovationen die Entwicklungskosten deutlich senken können. ZEROSEARCH, das im Mai vorgestellt wurde, simuliert das Verhalten von Suchmaschinen während des Trainings, ohne dabei tatsächliche API-Aufrufe durchzuführen. Das Unternehmen gibt an, dass sich dadurch die Trainingskosten um bis zu 90 % reduzieren lassen.

