화웨이는 월요일에 자사의 Pange 모델 두 가지와 Ascend 기반 모델 추론 기술을 오픈소스로 공개한다고 발표했습니다. 화웨이는 이번 공개를 통해 AI 생태계를 구축하고 해외 시장으로 진출하는 데 도움을 줄 것이라고 밝혔습니다.
중국 기술 대기업의 오픈소스 공개는 오픈소스 개발 전략을 추진하는 다른 중국 AI 기업들의 행보와 맥락을 같이합니다. 다국적 AI 기술 기업인 바이두도 월요일에 오픈소스로 공개했습니다 .
화웨이가 AI 산업에서 경쟁력을 한층 끌어올리고 있다
해당 업체는 70억 개의 매개변수를 가진 Pangu 밀집 모델, 720억 개의 매개변수를 가진 Pangu Pro MoE(전문가 혼합) 모델, 그리고 AI 인프라 플랫폼 역할을 하는 Ascend 기반의 모델 추론 기술을 오픈소스로 공개했습니다.
Pangu Pro MoW 72B 모델의 가중치와 Ascend 기반의 대규모 MoE 모델 추론 코드가 오픈 소스로 공개되었으며, Pangy 7B의 추론 코드도 곧 오픈 소스 플랫폼에 공개될 예정입니다.
파트너이자 중국 dent 화웨이가 유능한 민간 통신 회사에서 AI 하드웨어 및 소프트웨어 스택 전체를 아우르는 기술 거대 기업으로 변모했다고 언급했습니다.
화웨이는 이번 오픈소스 이니셔티브가 자사의 어센드(Ascend) 생태계 전략의 핵심 요소 중 하나라고 발표했습니다
해당 기술 기업에 따르면, 자사의 어센드(Ascend) 생태계는 어센드 AI 칩 시리즈를 중심으로 개발된 AI 제품들을 의미합니다. 이 회사는 해당 칩들이 중국에서 엔비디아 . 미국의 다국적 기술 기업인 엔비디아는 중국에 첨단 제품을 판매하는 데 제한을 받고 있습니다.
Omdia의 수석 분석가인 Lian Jye Su는 Pangu가 오픈 소스로 전환됨으로써 개발자와 기업들이 모델을 테스트하고 필요에 따라 개인화된 기능을 추가할 수 있게 되었다고 주장했습니다. 그는 또한 이러한 움직임이 다른 화웨이 제품 사용을 촉진할 것이라고 믿습니다.
쑤 회장은 화웨이의 판구(Pangu) 모델을 AI 칩 및 관련 제품과 결합함으로써 AI 솔루션 및 애플리케이션 최적화에 유리한 위치를 확보할 수 있다고 인정했습니다. 화웨이는 바이두와 같은 경쟁사가 광범위한 기능을 갖춘 LLM을 보유하고 있음에도 불구하고 정부, 금융, 제조와 같은 특정 분야에 특화된 AI 모델에 집중해 왔습니다.
"화웨이는 소프트웨어 측면에서 딥시크나 바이두 같은 회사만큼tron는 않지만, 그럴 필요도 없습니다. 화웨이의 궁극적인 목표는 오픈 소스 제품을 활용하여 하드웨어 판매를 촉진하는 것이며, 이는 다른 회사들과는 완전히 다른 모델입니다. 또한 화웨이는 딥시크, 바이두 등과 협력하고 있으며 앞으로도 계속 협력할 것입니다."
-마크 아인슈타인, 카운터포인트 리서치 연구 책임자.
컨스텔레이션 리서치의 수석 분석가인 레이 왕은 화웨이의 칩-모델 전략을 구글의 전략과 비교했는데, 구글 역시 오픈소스 젬마 모델과 같은 AI 칩 및 AI 모델을 개발하고 있다.
화웨이의 이번 발표는 Zhipu AI와 같은 기업들과 함께 새로운 해외 시장에 점진적으로 진출해 온 국제적인 야망과도 일맥상통합니다 . 또한, 화웨이는 전 세계 개발자, 기업 파트너 및 연구원들에게 자사의 오픈 소스 제품을 다운로드하여 사용하고 피드백을 수집 및 개선해 줄 것을 요청했습니다.
아인슈타인은 화웨이의 오픈소스 전략이 다른 제품들과 마찬가지로 가격에 민감한 개발도상국 기업들 사이에서 큰 호응을 얻을 것으로 예상합니다. 화웨이는 글로벌 전략의 일환으로 최신 AI 데이터센터 솔루션을 새로운 국가에 도입하고자 합니다.
화웨이, AI 기반 데이터센터 비전 공개
화웨이는 5월 20일 우즈베키스탄의 인공지능(AI) 프로젝트를 지원하기 위한 첨단 데이터 센터 전략 로드맵을 발표했습니다 dent 인 알렉스 싱은 화웨이의 차세대 AI 인프라 프레임워크가 우즈베키스탄의 15억 달러 규모 AI 개발 전략을 뒷받침할 것이라고 밝혔습니다.
2024년 10월에 체결된 우즈베키스탄의 인공지능 개발 전략 2030은 15억 달러 규모의 AI 기반 소프트웨어 및 서비스 개발에 대한 포괄적인 전략을 제시합니다. 이 기술 대기업은 이 계획에 따라 빅데이터 처리에 최적화된 고성능 서버 인프라 구축이 필요하다고 보고 있습니다.
IDC에 따르면, 이 계획은 2028년까지 2,000억 달러를 넘어설 것으로 예상되며, 아시아/태평양 지역의 데이터센터 IT 전력 용량은 2028년에 94.4기가와트에 달할 것으로 전망됩니다. 싱은 AI 데이터센터가 직면한 세 가지 주요 과제로 높은 신뢰성, 빠른 구축 속도, 그리고 증가하는 에너지 수요를 강조했습니다. 그는 또한 AI 시대에는 기존보다 10배 더 많은 전력, 10배 더 많은 저장 용량, 그리고 10배 더 높은 효율성이 요구된다고 역설했습니다.

