Die chinesische Social-Media-Plattform Rednote, auch im Inland als Xiaohongshu bekannt, veröffentlichte am vergangenen Freitag sein erstes Open-Source Language-Modell (LLM). Das neue Modell mit dem Namen "dots.llm1" enthält insgesamt 142 Milliarden Parameter, aber für jede Antwort werden angeblich nur 14 Milliarden aktiviert.
Laut der Asian News Outlet, South China Morning Post, könnte diese Architektur der LLM- Balance -Leistung mit Kosteneffizienz für Konkurrenten wie OpenAs ChatGPT und gleichzeitig die Kosten für Training und Inferenz verringern.
Das interne humane Intelligenzlabor von Rednote entwickelte das LLM oder das „Hi Lab“, das sich aus dem früheren Team der künstlichen Intelligenz des Unternehmens entwickelte. Rednote sagte, sein Modell übertrifft andere Open-Source-Systeme im chinesischen Sprachverständnis und übertrifft Alibabas QWEN2.5-72B-Instruct und Deepseek-V3.
Keine synthetischen Daten, die bei der Vorbereitung verwendet werden
Rednote gab eine Erklärung ab, um die Standards für die Ausbildung seiner LLM zu erläutern. Im Gegensatz zu einigen anderen Modellen auf dem Markt behauptete das Unternehmen, dass während der Vorbereitung keine synthetischen Daten verwendet wurden.
Entwickler bestanden darauf, dass DOTS.llm1 auf 11,2 Billionen Token von nicht synthetischen Daten trainiert wurde, so ein Ansatz, dass Rednote für das Modell unerlässlich ist, um eine höhere Treue und zuverlässigere Ergebnisse zu erzielen.
Das Unternehmen hat auch damit begonnen, einen AI -Forschungsassistenten namens Diandian auf seiner Plattform zu testen. Diandian, das über ein Dialogfeld innerhalb der App gestartet wurde, verfügt über eine „Deep Research“ -Funktion und wird von einem der internen Modelle von Rednote angetrieben. Dennoch muss das Unternehmen noch bestätigen, ob dieser Assistent auf dots.llm1 basiert.
Rednote erweitert die globale Reichweite nach dem Start von LLM
Die Open-Source-KI-Ankündigung von Rednote fand nur einen Tag vor der Eröffnung eines neuen Büros in Hongkong, seinem ersten außerhalb des chinesischen Festlandes, statt. Der neue Standort befindet sich auf dem Times Square, einem Gewerbegebiet in Causeway Bay.
" Die Präsenz von Rednote wird die Interaktionen zwischen lokalen Inhaltserstellern, Marken und Organisationen verbessern und den kulturellen Austausch der Ost-Methoden und die Entwicklung des Content-Marketings unter Hongkong, dem Festland und den globalen Märkten fördern", sagte der Generaldirektor der Investitionsförderung von Investment von Investment Promotion, Alpha Lau, gegenüber Reportern während einer Pressekonferenz.
Rednote mit Hauptsitz in Shanghai ist eine der am häufigsten verwendeten Social -Media -Plattformen Chinas mit 300 Millionen monatlichen aktiven Nutzern. Laut Unternehmensbeamte ist die Expansion Teil von Plänen, die Reichweite von Rednote in Übersee zu erhöhen, um sich auf ein potenzielles Tiktok -Verbot in den USA vorzubereiten.
Chinesische KI-Unternehmen wählen Open-Source-Technologie
Rednote schließt sich der Liste der chinesischen Firmen an, die sich auf die Open-Source-KI zu mehr Sprachmodellen bewegt haben. Weitere Unternehmen versuchen, den Erfolg von kostengünstigen Hochleistungsmodellen wie die vom Startup Deepseek veröffentlichten Hochleistungsmodelle widerzuspiegeln.
Anfang dieses Jahres Deepseek sein Open-Source R1-Modell, das Downloads in mehreren App-Stores überschritt, um S- tron G-Ergebnisse zu einem Bruchteil der mit West-LLMs verbundenen Kosten zu liefern.
Tech -Giganten Alibaba, Tencent und Bytedance haben erhebliche Investitionen in die KI -Infrastruktur getätigt. Alibaba hat beispielsweise im Rahmen seiner QWEN -Serie mehrere neue LLMs veröffentlicht, darunter die neuesten QWEN3 -Einbettungsmodelle. Diese unterstützen über 100 Sprachen, die Code und Sprachabnahme in der Lage sind.
Laut Alibaba haben die QWEN3 -Modelle die Effizienz und Leistung bei der Einbettung und Wiederbelebung von Systemen verbessert. behauptete Anfang dieses Jahres, dass der Fortschritt großer Sprachmodelle die Erwartungen übertreffen und dies auch weiterhin tun werde.
Wang erwähnte Startups wie Deepseek als Beispiele dafür, wie junge Innovatoren Probleme mit kreativen Ansätzen lösen.
Laut Wang zeigt die Zerossearch von Alibaba, wie Innovationen die Entwicklungskosten erheblich senken können. ZeroSearch, der im Mai präsentiert wurde, soll das Suchmaschinenverhalten während des Trainings simulieren, ohne tatsächliche API -Anrufe zu tätigen. Das Unternehmen behauptet, dass dies die Schulungskosten um bis zu 90%senken kann.
Ihre Krypto -Nachrichten verdienen Aufmerksamkeit - wichtiger Differenzdraht bringt Sie auf 250 Top -Websites