딥시크(DeepSeek)는 지난 1월 출시된 자사의 추론 모델 R1의 주요 업그레이드 버전인 R1-0528을 공개했습니다. 이번 업그레이드는 알리바바 그룹 홀딩스의 Qwen3가 오픈소스 인공지능 모델 벤치마크인 라이브벤치(LiveBench)에서 기존 딥시크 R1을 능가한 지 불과 한 달 만에 이루어졌습니다.
DeepSeek의 업그레이드된 R1-0528 모델은 이제 OpenAI와 Google의 주요 AI 모델들과 성능 면에서 어깨를 나란히 합니다. 이러한 성과는 중국의 대형 기술 기업들과 신생 기술 기업들이 AI 도구 개선에 얼마나 빠르게 매진하고 있는지를 보여줍니다.
딥시크는 성명에서 R1-0528이 추론 및 창의적 글쓰기 능력이 향상되었다고 밝혔습니다. 이번 업데이트를 통해 코딩 능력도tron되었으며, 무엇보다 중요한 것은 "환각" 발생 빈도가 50% 감소했다는 점이라고 회사 측은 주장했습니다
딥시크는 이번 성능 향상이 주요 학습 과정 후 엔지니어들이 모델을 미세 조정하는 사후 학습 단계에 투입된 추가 컴퓨팅 파워 덕분이라고 설명했습니다. 사후 학습 단계에서 엔지니어들은 모델의 효율성을 높이고 정확성과 안전성을 강화하는 것을 목표로 합니다.
R1-0528은 현재 OpenAI의 o3 및 o4-mini 바로 뒤를 이어 순위에 올라 있습니다
AI 모델 성능을 측정하는 LiveCodeBench에서 R1-0528은 현재 OpenAI의 o4-mini 및 o3 모델 바로 뒤에 랭크되어 있습니다.
"딥시크의 최신 업그레이드는 추론 능력이 더욱 날카로워졌고, 수학 및 코드 처리 능력도tron, 제미니나 O3 같은 최고 수준의 모델에 점점 더 근접하고 있습니다."라고 허깅 페이스의 AI 연구원인 아디나 야케후는 말했습니다.
그녀는 새 버전이 "추론 및 환각 감소 측면에서 상당한 개선"을 보여주며, 이 스타트업이 단순히 따라잡는 것이 아니라 적극적으로 경쟁하고 있음을 증명한다고 덧붙였습니다.
미국이 중국에 대한 첨단 반도체 및 기타 기술 수출을 제한한 이후에도 이러한 급속한 발전이 이루어졌습니다. 그럼에도 불구하고 중국 기업들은 시스템을 지속적으로 개선하고 있습니다. 이달 초 바이두와 텐센트는 최첨단 반도체에 대한 접근성이 제한적인 상황에서도 자사 모델을 더욱 효율적으로 운영하는 방법을 설명했습니다.
엔비디아 최고경영자 젠슨 황은 수요일 수출 통제를 비판했다. 그는 "미국은 중국이 인공지능 칩을 만들 수 없다는 전제 하에 정책을 펼쳐왔다"며 "그 전제는 항상 의심스러웠고, 이제는 명백히 틀렸다. 문제는 중국이 인공지능을 보유할지 여부가 아니라, 이미 보유하고 있다는 점이다"라고 말했다
DeepSeek은 알리바바의 Qwen3 8B 모델의 성능을 10% 향상시켰습니다
딥시크는 R1-0528에 사용된 추론 단계를 알리바바의 Qwen3 8B 기본 모델에 적용했다고 밝혔습니다. 이 과정을 통해 Qwen3보다 성능이 10% 이상 향상된 더 작고 효율적인 새로운 모델을 만들었다고 회사 측은 설명했습니다. 동시에 이 모델은 크기가 30배 더 작습니다.
"딥시크-R1-0528에서 비롯된 사고의 흐름은 추론 모델에 대한 학술 연구와 소규모 모델에 대한 산업적 연구에 매우 중요한 의미를 가질 것으로 믿습니다."라고 해당 회사는 밝혔습니다.
에 따르면 , 딥시크 관계자는 위챗 그룹에 해당 변경 사항은 이미 공개 테스트 중인 "사소한 시험 업그레이드"라고 밝혔습니다. 치열해진 경쟁에 대응하여 구글은 일부 제미니 액세스 등급을 인하했고, 오픈AI는 더 저렴한 o3 미니 모델을 출시했습니다.

