- 잭 마가 투자한 앤트그룹은 중국산 반도체를 활용해 비용 효율적인 AI 학습 모델을 개발하고 있다고 발표했다.
- 이 AI 모델은 전문가 혼합(Mixture of Experts) 접근 방식을 기반으로 하며, 비용을 20% 절감하여 엔비디아와 같은 미국 기업에 강력한 경쟁을 불러일으킬 것으로 알려져 있습니다.
- 이달, 해당 회사는 자사 모델이 아직 검증되지 않은 특정 벤치마크에서 Meta Platforms Inc.의 모델보다 더 나은 성능을 보였다는 연구 논문을 발표했습니다.
앤트 그룹은 알리바바와 화웨이 등 중국산 반도체를 활용한 인공지능 모델 학습 기술을 개발했다고 밝혔습니다. 이 AI 학습 모델은 전문가 혼합(MoE) 머신러닝 방식을 사용하여 엔비디아 H800 칩과 유사한 성능을 최소 20% 저렴한 비용으로 구현할 수 있습니다.
앤트 그룹은 밝혔 습니다. 이 회사는 고성능 하드웨어를 사용해 1조 개의 토큰을 학습시키는 데 약 635만 위안(약 88만 달러)이 소요되지만, 최적화된 방식을 사용하면 저사양 하드웨어를 이용해 510만 위안까지 비용을 절감할 수 있다고 공개했습니다.
블룸버그 인텔리전스의 수석 분석가인 로버트 리는 앤트 그룹의 주장이 사실로 확인될 경우, 중국이 엔비디아 칩 수출 통제를 우회하기 위해 저비용 고효율 모델에 집중하면서 인공지능(AI) 자급자족에 한발 더 나아가고 있음을 보여주는 것이라고 말했다. 엔비디아 CEO 젠슨 황은 딥시크의 R1과 같은 고효율 모델의 등장에도 불구하고 연산 수요는 계속 증가할 것이라며, 기업들은 비용 절감을 위해 저렴한 칩을 구매하는 것이 아니라 더 나은 칩을 구매하여 수익을 창출해야 할 것이라고 주장했다.
앤트 그룹은 최신 AI 혁신에 중국산 칩을 활용하고 있습니다
잭 마가 투자한 앤트그룹, 중국산 칩 기반 AI 혁신 기술 자랑 https://t.co/lups085kPb via @business
— 야후 파이낸스 (@YahooFinance) 2025년 3월 24일
에 출연한 민민 로우에 따르면, 앤트 그룹은 알리바바와 화웨이에서 생산한 중국산 칩을 사용하여 MoE(Modulation of Excellence) 방식 기반의 AI 모델 학습 기술을 개발했는데, 이 기술을 통해 비용을 20% 절감할 수 있다고 합니다 '더 차이나 쇼'. 로우는 MoE 방식이 작업을 더 작은 데이터셋으로 나누어 효율성을 높이는 방식이라며, "마치 전문가 팀을 구성하여 각 전문가가 문제의 특정 부분을 담당하게 함으로써 전체적인 효율성을 향상시키는 것과 같다"고 설명했습니다.

블룸버그에 따르면, 이번 AI 모델 훈련은 앤트그룹이 딥시크(DeepSeek)가 오픈AI와 알파벳(구글)이 투자한 수십억 달러보다 훨씬 적은 비용으로 고성능 모델을 훈련할 수 있음을 입증한 이후 가속화된 중국과 미국 기업 간의 경쟁에 뛰어들었음을 보여줍니다. 앤트그룹의 최신 AI 혁신은 미국이 중국에 수출을 금지한 최첨단 엔비디아 H800 칩에 대한 대안으로 중국 기업들이 자국산 기술을 활용하려는 시도를 강조합니다.
"세계 최고의 쿵푸 고수를 이길 수 있는 공격 포인트를 하나라도 찾아낸다면, 그래도 이겼다고 말할 수 있습니다. 이것이 바로 실전 적용이 중요한 이유입니다." - 로빈 유, 생샹 테크(Shengshang Tech Co.) 최고기술책임자
앤트 그룹은 이달 초 자사의 모델이 검증되지 않은 특정 벤치마크에서 메타 플랫폼(Meta Platforms Inc.)의 모델보다 우수한 성능을 보이는 경우가 있다는 연구 논문을 발표했습니다. 만약 이 모델들이 주장대로 작동한다면, 앤트 그룹의 플랫폼은 중국 AI 개발에 또 다른 진전을 가져올 수 있을 것입니다.
MoE의 AI 훈련 프로그램이 구글과 딥시크의 활용 사례로 주목받고 있습니다
블룸버그는 교육부(MoE)의 AI 학습 모델이 구글과 항저우 스타트업 딥시크(DeepSeek) 등에서 사용되면서 인지도를 얻은 인기 있는 옵션이라고 보도했습니다. 앤트그룹은 최근 개발한 대규모 언어 모델(링플러스 및 링라이트)의 획기적인 성과를 의료 및 금융을 포함한 산업 AI 솔루션에 활용할 계획입니다.
에서 연구 논문 Ling-Lite 모델이 Meta의 Llama 모델 중 하나보다 주요 벤치마크에서 더 나은 성능을 보였다고 밝혔습니다. Ling-Lite와 Ling-Plus 모델 모두 중국어 벤치마크에서 DeepSeek의 해당 모델보다 우수한 성능을 나타냈습니다. Ling-Lite는 168억 개의 파라미터를 가지고 있는데, 이는 모델 성능을 조절하는 조정 가능한 설정값입니다. Ling-Plus는 2,900억 개의 파라미터를 가지고 있으며, 이는 언어 모델 분야에서 비교적 큰 규모로 간주됩니다. 비교하자면, MIT Technology Review는 ChatGPT의 GPT-4.5가 1조 8천억 개의 파라미터를, DeepSeek-R1은 6,710억 개의 파라미터를 가지고 있다고 추정했습니다.
앤트는 또한 안정성을 포함한 AI 학습의 일부 영역에서 어려움에 직면했다고 밝혔습니다. 하드웨어 또는 AI 학습 모델 구조의 작은 변화조차도 모델의 오류율이 급증하는 등의 문제를 야기했습니다.
은행에 돈을 넣어두는 것과 암호화폐에 투자하는 것 사이에는 중간 지점이 있습니다. 탈중앙화 금융.
면책 조항: 제공된 정보는 투자 조언이 아닙니다. Cryptopolitan이 페이지에 제공된 정보를 바탕으로 이루어진 투자에 대해 어떠한 책임도 지지 않습니다.trondentdentdentdentdentdentdentdent .
화폐 속성 강좌
- 어떤 암호화폐로 돈을 벌 수 있을까요?
- 지갑으로 보안을 강화하는 방법 (그리고 실제로 사용할 만한 지갑은 무엇일까요?)
- 전문가들이 사용하는 잘 알려지지 않은 투자 전략
- 암호화폐 투자 시작하는 방법 (어떤 거래소를 사용해야 하는지, 어떤 암호화폐를 사는 것이 가장 좋은지 등)















