La piattaforma di social media cinese Rednote, conosciuta anche a livello nazionale come Xiaohongshu, ha pubblicato il suo primo modello di linguaggio open source (LLM) venerdì scorso. Il nuovo modello, soprannominato "Dots.llm1", contiene 142 miliardi di parametri in totale, ma solo 14 miliardi sono presumibilmente attivati per ogni risposta.
Secondo lo outlet asiatico, South China Morning Post, questa architettura potrebbe aiutare le di bilanciamento con efficienza in termini di costi per competere con concorrenti come il Chatgpt , riducendo le spese sia della formazione che dell'inferenza.
Il laboratorio di intelligence umano interno di Rednote ha sviluppato LLM, o "HI Lab", che si è evoluto dal precedente team di intelligenza artificiale dell'azienda. Rednote ha affermato che il suo modello supera gli altri sistemi open source nella comprensione della lingua cinese, superando QWEN2.5-72B-ISTRUT di Alibaba e DeepSeek-V3.
Nessun dato sintetico utilizzato nella pretrattamento
Rednote ha rilasciato una dichiarazione per spiegare gli standard alla base della formazione del suo LLM. A differenza di alcuni altri modelli sul mercato, l'azienda ha affermato che durante la pretraggerimento non sono stati utilizzati dati sintetici.
Gli sviluppatori hanno insistito sul fatto che Dots.llm1 è stato addestrato su token di dati non sintetici di 11,2 trilioni di dati, afferma che il rednote afferma che è indispensabile per il modello per ottenere una fedeltà maggiore e risultati più affidabili.
La società ha anche iniziato a provare un assistente di ricerca AI chiamato Diandian sulla sua piattaforma. Diandian, lanciato tramite una dialogo all'interno dell'app, presenta una funzione di "ricerca profonda" ed è alimentato da uno dei modelli interni di Rednote. Tuttavia, la società deve ancora confermare se questo assistente si basa su dots.llm1.
Rednote espande la portata globale dopo il lancio di LLM
L'annuncio dell'IA open source di Rednote è arrivato solo un giorno prima dell'apertura da parte dell'azienda di un nuovo ufficio a Hong Kong, il suo primo al di fuori della Cina continentale. La nuova posizione è situata a Times Square, un'area commerciale a Causeway Bay.
" La presenza di Rednote migliorerà le interazioni tra creatori di contenuti locali, marchi e organizzazioni e promuoverà gli scambi culturali di East-Meets-West e lo sviluppo del marketing dei contenuti tra Hong Kong, la terraferma e i mercati globali", ha detto ai giornalisti il direttore generale di Investhk Alpha Lau durante una conferenza stampa.
Rednote, con sede a Shanghai, è una delle piattaforme di social media più utilizzate della Cina, con 300 milioni di utenti attivi mensili. Per funzionari dell'azienda, l'espansione fa parte dei piani per aumentare la portata all'estero di Rednote, in preparazione di un potenziale di Tiktok negli Stati Uniti.
Le aziende di intelligenza artificiale cinesi scelgono la tecnologia open source
Rednote si unisce all'elenco delle aziende cinesi che si sono spostate verso rendere i loro grandi modelli linguistici più intelligenti. Più aziende stanno cercando di rispecchiare il successo di modelli a basso costo e ad alte prestazioni come quelli rilasciati dalla startup DeepSeek.
All'inizio di quest'anno, DeepSeek ha lanciato il suo modello Open-Source R1, che ha in cima ai download su diversi app store per la fornitura di risultati di S tron G a una frazione dei costi associati agli LLM occidentali.
I giganti tecnologici Alibaba, Tencent e Bytedance hanno effettuato investimenti significativi nelle infrastrutture di intelligenza artificiale. Alibaba, ad esempio, ha rilasciato diversi nuovi LLM come parte della sua serie QWEN, tra cui gli ultimi QWEN3 . Questi supportano oltre 100 lingue in grado di ottenere il codice e il recupero della lingua.
Alibaba ha affermato che i modelli QWEN3 hanno migliorato l'efficienza e le prestazioni nei sistemi di incorporamento e di ricarica. Parlando all'inizio di quest'anno, Wang Jian, fondatore di Alibaba Cloud, ha affermato che il progresso dei modelli di grandi dimensioni sta superando le aspettative e continuerà a farlo.
Wang ha menzionato startup come DeepSeek come esempi di come i giovani innovatori risolvono i problemi con gli approcci creativi.
Secondo Wang, Zerosearch di Alibaba dimostra come l'innovazione possa ridurre significativamente i costi di sviluppo. Zerosearch, in mostra a maggio, è progettata per simulare il comportamento dei motori di ricerca durante la formazione senza effettuare le chiamate API reali. La società afferma che ciò può ridurre i costi di formazione fino al 90%.
Le tue notizie crittografiche meritano l'attenzione - Chiave Difference Wire ti mette su oltre 250 siti migliori