Si dice che DeepSeek V4 superi ChatGPT e Claude nella codifica a contesto lungo, puntando a compiti di programmazione di alto livello. Gli addetti ai lavori sostengono che il panorama dell'intelligenza artificiale della Silicon Valley dovrebbe preoccuparsi se i test interni indicheranno le prestazioni attese dopo il lancio a metà febbraio.
Secondo alcune indiscrezioni, la startup cinese di intelligenza artificiale DeepSeek starebbe pianificando il rilascio di DeepSeek V4, il suo ultimo modello linguistico di grandi dimensioni, il 17 febbraio. Fonti vicine alla vicenda affermano che il modello è destinato a superare i modelli linguistici di grandi dimensioni esistenti, come ChatGPT di OpenAI e Claude di Anthropic, nella gestione di prompt e attività di codice a lungo contesto.
Gli sviluppatori esprimono grande attesa per il rilascio di DeepSeek V4
Al momento della stesura di questo articolo, l'azienda cinese non ha ancora divulgato pubblicamente alcuna informazione sull'imminente rilascio né confermato le voci. Gli sviluppatori su diversi social network hanno espresso grande attesa per l'uscita. Yuchen Jin, sviluppatore di intelligenza artificiale e co-fondatore di Hyperbolic Labs, ha scritto su X che "si vocifera che DeepSeek V4 verrà rilasciato a breve, con untrondi Claude e GPT".
Anche il subreddit r/DeepSeek si è surriscaldato , con un utente che ha spiegato che la sua ossessione per l'imminente modello V4 di DeepSeek non era normale. L'utente ha affermato di "controllare frequentemente notizie, possibili indiscrezioni e persino di leggere la documentazione sul sito web di DS alla ricerca di eventuali cambiamenti o segnali che indichino un aggiornamento".
Le precedenti release di DeepSeek hanno avuto un impatto significativo sui mercati globali. La startup cinese specializzata in intelligenza artificiale ha rilasciato il suo modello di ragionamento R1 nel gennaio 2025, provocando un crollo del valore delle azioni pari a mille miliardi di dollari. Il modello ha eguagliato le prestazioni del modello 01 di OpenAI nei benchmark matematici e di ragionamento, pur avendo un costo significativamente inferiore rispetto a quello sostenuto dalla startup statunitense per il suo modello 01.
Secondo quanto riferito, l'azienda cinese ha speso solo 6 milioni di dollari per il lancio del modello. Nel frattempo, i concorrenti globali spendono quasi 70 volte di più per lo stesso output. Il suo modello V3 ha anche ottenuto un punteggio del 90,2% nel benchmark MATH-500, rispetto al 78,3% di Claude. Il più recente aggiornamento V3 di DeepSeek (V3.2 Speciale) ha ulteriormente migliorato la sua produttività.
Il punto di forza del modello V4 si è evoluto rispetto all'enfasi della V3 sul ragionamento puro, sulle dimostrazioni formali e sulla matematica logica. Si prevede che la nuova versione sarà un modello ibrido che combina attività di ragionamento e non di ragionamento. Il modello mira a conquistare il mercato degli sviluppatori colmando una lacuna esistente che richiede elevata accuratezza e generazione di codice con contesto esteso.
Claude Opus 4.5 attualmente detiene il primato nel benchmark SWE, raggiungendo un'accuratezza dell'80,9%. La V4 deve superare questo limite per superare Claude Opus 4.5. Sulla base dei successi precedenti, il modello in arrivo potrebbe superare questa soglia e affermarsi come il primo nel benchmark.
DeepSeek è pioniere dell'mHC per la formazione degli LLM
Il successo di DeepSeek ha lasciato molti professionisti profondamente increduli. Come ha potuto un'azienda così piccola raggiungere tali traguardi? Il segreto potrebbe essere racchiuso in un articolo di ricerca pubblicato il 1° gennaio. L'azienda hadentun nuovo metodo di addestramento che consente agli sviluppatori di scalare facilmente modelli linguistici di grandi dimensioni. Liang Wenfeng, fondatore e CEO di DeepSeek, ha scritto nella ricerca che l'azienda utilizza le Manifold-Constrained Hyper-Connections (mHC) per addestrare i suoi modelli di intelligenza artificiale.
Il dirigente ha proposto di utilizzare mHC per risolvere i problemi riscontrati dagli sviluppatori durante l'addestramento di modelli linguistici di grandi dimensioni. Secondo Wenfeng, mHC è un aggiornamento di Hyper-Connections (HC), un framework utilizzato da altri sviluppatori di intelligenza artificiale per addestrare i propri modelli linguistici di grandi dimensioni. Ha spiegato che HC e altre architetture di intelligenza artificiale tradizionali forzano tutti i dati attraverso un unico canale ristretto. Allo stesso tempo, mHC amplia tale percorso su più canali, facilitando il trasferimento di dati e informazioni senza causare il collasso dell'addestramento.
Lian Jye Su, analista capo di Omdia, ha elogiato l'amministratore delegato Wenfeng per la pubblicazione della loro ricerca. Su ha sottolineato che la decisione di DeepSeek di pubblicare i suoi metodi di addestramento indica una rinnovata fiducia nel settore cinese dell'IA. DeepSeek ha dominato i paesi in via di sviluppo. Microsoft ha pubblicato giovedì un rapporto che mostra come DeepSeek detenga l'89% del mercato cinese dell'IA e stia guadagnando terreno nei paesi in via di sviluppo.

