국제적인 갈등이 여전히 뜨거운 화두인 가운데, 중국의 반도체 제조업체와 클라우드 서비스 제공업체들은 딥시크(DeepSeek)를 비롯한 중국산 AI 모델들을 지원하기 위해 적극적인 노력을 기울이고 있는 것으로 보인다.
딥시크는 세계 최대 기술 기업들이 모여 있는 모국인 일본에서 특히 큰 주목을 받고 있습니다.
최근 상황을 살펴보면, 화웨이 테크놀로지스는 토요일에 발표했습니다 . 화웨이는 자사의 어센드(Ascend) 클라우드 서비스를 통해 이를 제공할 예정입니다.
@deepseek_ai @Huawei 의 지원에 감사를 표하는 편지를 #DeepSeek #Huawei pic.twitter.com/cRgGCS1iZ3
— 리빙 인 하모니 ⭕☯Ⓜ🔥🥉🏅🔄🦾🍞🆙🆗📢🎯🔑💼🛡️👑 (@LivingInHarmony) 2025년 2월 5일
화웨이는 자체적으로 AI 칩도 생산하고 있습니다. 따라서 양사의 협력을 통해 해당 AI 스타트업은 AI 칩을 확보할 수 있을 것입니다.
월요일, AI 프로세서 개발업체인 무어 스레드(Moore Threads)와 하이곤 인포메이션 테크놀로지(Hygon Information Technology)는 자사의 컴퓨팅 클러스터와 가속기가 딥시크(DeepSeek)의 R1 및 V3 모델을 지원할 것이라고 발표했습니다. 두 회사 모두 엔비디아(Nvidia)와의 경쟁을 위해 노력하고 있습니다.
무어 스레드는 "딥시크에 경의를 표한다"며, 딥시크가 국내산 그래픽 처리 장치(GPU)를 활용해 개발한 모델들이 "중국 인공지능 산업에 불을 지필 수 있다"고 덧붙였다
다음으로, 선전에 본사를 둔 AI 개발자 원스톱 서비스 웹사이트인 Gitee AI는 DeepSeek-R1 기반 모델 4종을 제공한다고 밝혔습니다. 이 모델들은 상하이에 위치한 칩 설계업체 MetaX의 GPU로 구동되는 서버를 통해 이용할 수 있습니다.
DeepSeek은 여전히 전 세계적으로 지지자를 보유하고 있습니다
딥시크(DeepSeek)는 무료 AI 비서를 제공하는 미국의 AI 챗봇 시장에 합류했습니다. 특히, 딥시크는 자사의 무료 AI 비서가 기존 서비스보다 훨씬 적은 데이터와 저렴한 비용으로 서비스를 제공한다고 밝혔습니다. 이러한 전략은 분명히 주목할 만합니다.
일부 기업들은 논란에도 불구하고 중국 AI 스타트업의 모델을 도입했습니다. 실제로 이 앱은 애플 앱스토어에서 미국 경쟁사인 ChatGPT를 제치고 다운로드 수 1위를 기록하며 전 세계 기술주 매도세를 더욱 부추겼습니다.
딥시크는 이례적으로 짧은 시간 안에 여러 모델을 연이어 출시해 왔습니다. 2024년 12월에는 새로운 DeepSeek-V3 모델을 선보였고, 이어서 2025년 1월 20일에는 DeepSeek-R1, DeepSeek-R1-Zero, DeepSeek-R1-Distill을 출시했습니다. 그리고 2025년 1월 27일에는 컴퓨터 비전에 특화된 새로운 AI 모델인 Janus-Pro-7B를 추가했습니다.
DeepSeek-R1-Zero 모델은 6710억 개의 파라미터를 가지고 있으며, DeepSeek-R1-Distill 시리즈는 15억 개에서 700억 개 사이의 파라미터를 가진 모델들을 포함합니다.
현재 아마존 웹 서비스(AWS), 마이크로소프트, 구글 클라우드 모두 고객에게 해당 모델을 제공하고 있습니다. 하지만 아직 메타의 라마 3와 같은 다른 AI 모델에서 사용하는 토큰당 가격 시스템을 도입하지는 않았습니다.
또한, 월요일에 알리바바 그룹의 클라우드 서비스는 자사 플랫폼에서 딥시크의 AI 모델을 제공하기 시작했습니다. 바이두와 텐센트의 클라우드 서비스 역시 딥시크의 모델을 사용자들에게 제공한다고 발표했습니다.
" 딥시크는 경쟁력 있는 대규모 언어 모델(LLM)을 중국의 '충분히 좋은' 칩에 배포할 수 있음을 보여줌으로써 최첨단 미국 하드웨어에 대한 의존도를 낮출 수 있음을 입증했다"고 말했다
하지만 이탈리아와 네덜란드 같은 국가들은 개인정보 보호 문제를 이유로 해당 서비스를 차단하고 딥시크의 AI 앱에 대한 조사를
DeepSeek AI가 가격 책정 모델을 뒤흔들다
시장 분석가들은 클라우드 서비스 제공업체가 직접 사용료를 받는 모델보다 인프라 임대를 통해 더 많은 수익을 올릴 것이라고 주장합니다.
AI 작업을 위해 클라우드 서버를 임대하는 것은 기술적으로 API를 통해 모델을 사용하는 것보다 비용이 더 많이 듭니다. AWS는 AI에 최적화된 클라우드 서버에 대해 시간당 최대 124달러를 청구합니다. 이는 24시간 내내 사용할 경우 월 약 9만 달러에 해당합니다.
Microsoft Azure 사용자는 DeepSeek 사용을 위해 별도의 서버를 임대할 필요가 없습니다. 하지만 사용한 컴퓨팅 성능에 따라 비용을 지불
반면, AWS를 통해 Meta의 Llama 3.1을 사용하는 그룹은 100만 토큰당 3달러를 지불합니다. 이 토큰은 텍스트의 일부이며, 1,000개의 토큰은 약 750개의 단어에 해당합니다.
Together AI와 Fireworks AI 같은 소규모 클라우드 기업들은 간단한 가격 시스템을 사용하기 시작했습니다. 이들은 DeepSeek-R1 모델에서 토큰당 고정 금액을 청구합니다.
DeepSeek-R1을 더 저렴하게 이용하는 또 다른 방법은 모회사 API를 통해 백만 토큰당 2.19달러에 구매하는 것입니다. 이는 일부 서구 클라우드 제공업체보다 3~4배 저렴한 가격입니다.

