Mentre le ostilità internazionali continuano a essere un argomento caldo, i produttori di chip cinesi e i fornitori di servizi cloud sembrano fare sforzi concertati per supportare DeepSeek e altri modelli AI realizzati a livello locale.
DeepSeek sta ricevendo particolare attenzione dal suo paese d'origine, che ha anche alcune delle più grandi aziende tecnologiche del mondo.
Per lo stato, sabato, Huawei Technologies ha annunciato che sta collaborando con la startup AI Siliconflow per offrire ai clienti i modelli di Deepseek. Lo farà attraverso il suo servizio cloud ascendente.
Una lettera di @deepseek_ai ha riconosciuto il supporto di @huawei #Deepseek #huawei pic.twitter.com/crggcs1iz3
- Vivere in armonia ⭕☯ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@livingInharmony) 5 febbraio 2025
Huawei produce anche i suoi patatine AI. Ciò significa che la loro collaborazione potrebbe fornire alla startup AI con chips di intelligenza artificiale.
Lunedì, Moore Threads e Hygon Information Technology, che sviluppano processori di intelligenza artificiale, hanno annunciato che i loro cluster e acceleratori di calcolo supporteranno i modelli R1 e V3 di Deepseek. Entrambe le società stanno lavorando per competere con Nvidia.
Moore Threads ha dichiarato: "Ringraziamo omaggio a DeepSeek". Hanno aggiunto che i progressi dei modelli di DeepSeek utilizzando le unità di elaborazione grafica (GPU) fatte nazionali "potrebbero dare fuoco all'industria dell'intelligenza artificiale di China".
Successivamente, Gitee AI, un sito Web di un servizio unico con sede a Shenzhen per gli sviluppatori di intelligenza artificiale, ha dichiarato che stava offrendo quattro modelli basati su DeepSeek-R1. I modelli saranno disponibili tramite server alimentati da GPU di Fip Designer di Shanghai Metax.
DeepSeek ha ancora sostenitori globali
Deepseek si è unito ai chatbot USA AI nel fornire un assistente di intelligenza artificiale gratuito. Tuttavia, la società ha affermato che il suo assistente di intelligenza artificiale gratuito utilizza meno dati a una frazione del costo dei servizi esistenti. Chiaramente, la sua strategia si distingue.
Alcune aziende hanno abbracciato i modelli della startup cinese anche con le controversie. In effetti, l'app ci ha superato il RIVAL CHATGPT nei download dall'App Store di Apple, innescando ulteriormente un selloff globale nelle azioni tecnologiche.
DeepSeek ha consegnato il modello dopo il modello in un periodo di tempo insolitamente breve. Ha rilasciato il suo nuovo modello DeepSeek-V3 nel dicembre 2024. Next, DeepSeek-R1, Deepseek-R1-Zero e Deepseek-R1-Distill sono usciti il 20 gennaio 2025. Il 27 gennaio 2025, la società ha aggiunto un nuovo Janus -Pro-7B Modello AI, che si concentra sulla visione.
Il modello DeepSeek-R1-Zero ha 671 miliardi di parametri, mentre la serie DeepSeek-R1-Distill include modelli con parametri tra 1,5 miliardi e 70 miliardi.
Ora, Amazon Web Services (AWS), Microsoft e Google Cloud offrono tutti il modello ai propri clienti. Ma a partire da ora non hanno iniziato a utilizzare il sistema di prezzi per torre che altri modelli di intelligenza artificiale, come l'uso del Llama 3 di Meta.
Inoltre, lunedì, i servizi cloud di Alibaba Group hanno offerto i modelli AI di Deepseek sulla sua piattaforma. I servizi cloud di Baidu e Tencent hanno anche annunciato che stanno offrendo ai loro utenti i modelli di Deepseek.
Gli analisti di Bernstein hanno dichiarato: " DeepSeek dimostra che i modelli di grandi dimensioni competitivi (LLM) possono essere distribuiti sui chip" abbastanza bravi "della Cina, allentando la dipendenza dall'hardware statunitense all'avanguardia".
Tuttavia, paesi come l'Italia e i Paesi Bassi hanno bloccato il servizio e stanno indagando sull'AI di Deepseek a causa di problemi di privacy.
DeepSeek AI scuote i modelli di prezzi
Gli analisti di mercato insistono sugli utili per i noleggi di infrastrutture rispetto ai noleggi di infrastrutture rispetto alle commissioni di utilizzo del modello diretto.
Noleggiare server cloud per attività AI è tecnicamente più costoso rispetto all'utilizzo di modelli tramite API. AWS addebita fino a $ 124 l'ora per un server cloud ottimizzato per l'IA. Ciò costa circa $ 90.000 al mese per l'uso 24/7.
Gli utenti di Microsoft Azure non devono noleggiare server speciali per DeepSeek. Tuttavia, pagano per la potenza di calcolo che usano. Ciò significa che il costo può cambiare in base al modo in cui gestiscono il modello.
D'altra parte, i gruppi che utilizzano il Llama 3.1 di Meta tramite AWS, pagano $ 3 per ogni 1 m di token. Questi token sono parti di testo e 1.000 token sono circa 750 parole.
Le aziende cloud più piccole come insieme AI e Fireworks AI hanno iniziato a utilizzare un semplice sistema di prezzi. Si caricano di un importo fisso per ogni token con il loro modello DeepSeek-R1.
Un'altra opzione più economica per DeepSeek-R1 è attraverso l'API della sua società madre a $ 2,19 per milione di token. Questo è tre o quattro volte più economico rispetto ad alcuni fornitori di cloud occidentali.
Chiave Difference Wire aiuta i marchi crittografici a sfondare e dominare i titoli velocemente