Mentre le ostilità internazionali continuano a essere un argomento caldo, i produttori di chip e i fornitori di servizi cloud cinesi sembrano impegnarsi a fondo per supportare DeepSeek e altri modelli di intelligenza artificiale realizzati localmente.
DeepSeek sta ricevendo un'attenzione particolare dal suo Paese d'origine, che ospita anche alcune delle più grandi aziende tecnologiche al mondo.
Per dare un'idea, sabato Huawei Technologies ha annunciato una collaborazione con la startup di intelligenza artificiale SiliconFlow per offrire ai clienti i modelli di DeepSeek. Lo farà tramite il suo servizio cloud Ascend.
Una lettera da @deepseek_ai che riconosce il supporto di @Huawei #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— Vivere in armonia ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 5 febbraio 2025
Huawei produce anche i propri chip di intelligenza artificiale. Ciò significa che la loro collaborazione potrebbe fornire alla startup di intelligenza artificiale chip di intelligenza artificiale.
Lunedì, Moore Threads e Hygon Information Technology, che sviluppano processori per l'intelligenza artificiale, hanno annunciato che i loro cluster di elaborazione e acceleratori supporteranno i modelli R1 e V3 di DeepSeek. Entrambe le aziende stanno lavorando per competere con Nvidia.
Moore Threads ha dichiarato: "Rendiamo omaggio a DeepSeek". Ha aggiunto che i progressi dei modelli DeepSeek che utilizzano unità di elaborazione grafica (GPU) prodotte localmente "potrebbero dare impulso all'industria cinese dell'intelligenza artificiale"
Gitee AI, un sito web con sede a Shenzhen che offre un servizio completo per sviluppatori di intelligenza artificiale, ha annunciato di offrire quattro modelli basati su DeepSeek-R1. I modelli saranno disponibili tramite server alimentati da GPU del progettista di chip MetaX con sede a Shanghai.
DeepSeek ha ancora sostenitori globali
DeepSeek si è unita ai chatbot di intelligenza artificiale statunitensi offrendo un assistente AI gratuito. Tuttavia, l'azienda ha affermato che il suo assistente AI gratuito utilizza meno dati a una frazione del costo dei servizi esistenti. Chiaramente, la sua strategia si distingue.
Nonostante le controversie, alcune aziende hanno adottato i modelli della startup cinese di intelligenza artificiale. L'app ha infatti superato la rivale statunitense ChatGPT in termini di download dall'App Store di Apple, innescando ulteriormente una svendita globale delle azioni tecnologiche.
Deepseek ha consegnato un modello dopo l'altro in un lasso di tempo insolitamente breve. Ha rilasciato il suo nuovo modello DeepSeek-V3 a dicembre 2024. Successivamente, DeepSeek-R1, DeepSeek-R1-Zero e DeepSeek-R1-Distill sono usciti il 20 gennaio 2025. Il 27 gennaio 2025, l'azienda ha aggiunto un nuovo modello di intelligenza artificiale Janus-Pro-7B, incentrato sulla visione.
Il modello DeepSeek-R1-Zero ha 671 miliardi di parametri, mentre la serie DeepSeek-R1-Distill include modelli con un numero di parametri compreso tra 1,5 miliardi e 70 miliardi.
Ora, Amazon Web Services (AWS), Microsoft e Google Cloud offrono questo modello ai propri clienti. Tuttavia, al momento non hanno ancora iniziato a utilizzare il sistema di prezzi per token utilizzato da altri modelli di intelligenza artificiale, come Llama 3 di Meta.
Inoltre, lunedì, i servizi cloud di Alibaba Group hanno offerto i modelli di intelligenza artificiale di DeepSeek sulla propria piattaforma. Anche i servizi cloud di Baidu e Tencent hanno annunciato che offriranno i modelli di DeepSeek ai propri utenti.
Gli analisti di Bernstein hanno affermato: " DeepSeek dimostra che i modelli linguistici di grandi dimensioni (LLM) competitivi possono essere implementati sui chip cinesi 'sufficientemente buoni', riducendo la dipendenza dall'hardware statunitense all'avanguardia".
Tuttavia, paesi come l'Italia e i Paesi Bassi hanno bloccato il servizio e stanno indagando sull'app AI di DeepSeek a causa di problemi di privacy.
DeepSeek AI rivoluziona i modelli di prezzo
Gli analisti di mercato insistono sul fatto che i fornitori di servizi cloud trarranno maggiori profitti dagli affitti delle infrastrutture rispetto alle tariffe di utilizzo diretto del modello.
Noleggiare server cloud per attività di intelligenza artificiale è tecnicamente più costoso rispetto all'utilizzo di modelli tramite API. AWS addebita fino a 124 dollari all'ora per un server cloud ottimizzato per l'intelligenza artificiale. Il costo è di circa 90.000 dollari al mese per un utilizzo 24 ore su 24, 7 giorni su 7.
Gli utenti di Microsoft Azure non devono noleggiare server specifici per DeepSeek. Tuttavia, pagano per la potenza di calcolo utilizzata. Ciò significa che il costo può variare in base all'efficacia del modello.
D'altro canto, i gruppi che utilizzano Llama 3.1 di Meta tramite AWS pagano 3 dollari per ogni milione di token. Questi token sono parti di testo e 1.000 token corrispondono a circa 750 parole.
Aziende cloud più piccole come Together AI e Fireworks AI hanno iniziato a utilizzare un sistema di prezzi semplice. Addebitano un importo fisso per ogni token con il loro modello DeepSeek-R1.
Un'altra opzione più economica per DeepSeek-R1 è tramite l'API della sua società madre a 2,19 dollari per milione di token. Questa cifra è da tre a quattro volte più economica rispetto ad alcuni provider cloud occidentali.

