AMD는 첨단 AI 기술에 대한 접근성을 민주화하기 위해 사용자가 대규모 언어 모델( LLM )을 로컬에 다운로드하고 배포할 수 있는 다목적 도구인 LM Studio를 공개했습니다. 이는 AI 서비스가 주로 강력한 Nvidia 하드웨어에 의존하고 인터넷 연결을 필요로 하는 기존 추세에 대한 대응입니다. AMD의 LM Studio는 복잡한 설정이나 광범위한 프로그래밍 지식 없이도 사용자가 AI 비서에 원활하게 접근할 수 있도록 지원하는 것을 목표로 합니다.
간편한 설치 및 다용도성
LM Studio는 AI 비서에 대한 접근성을 간소화하여 생산성 애호가부터 창의적인 사고를 하는 사용자까지 폭넓은 사용자층의 요구를 충족합니다. Linux, Windows, macOS를 비롯한 다양한 하드웨어 구성 및 운영 체제에 대한 자세한 설치 안내를 통해 사용자는 누구나 손쉽게 LM Studio를 시스템에 설치할 수 있습니다. 이 도구는 AMD Ryzen 프로세서에서 최적의 성능을 발휘하도록 설계되었으며, 네이티브 AVX2 명령어를 활용합니다.
AMD는 접근성 향상에 대한 노력을 GPU 제품군에도 적용하여, LM Studio의 ROCm 기술 프리뷰를 통해 Radeon RX 7000 시리즈를 지원합니다. 이 오픈 소스 소프트웨어 스택은 AMD GPU에서 LLM(Learning Language Modeling) 및 기타 AI 워크로드의 성능과 효율성을 향상시킵니다. 사용자는 AMD의 강력한 하드웨어 성능을 활용하여 CPU 연산 능력에만 의존하지 않고 AI 비서의 잠재력을 최대한 활용할 수 있습니다.
원활한 통합 및 성능 향상
LM Studio는 원활한 통합 환경을 제공하여 사용자가 로컬 LLM을 손쉽게 검색, 다운로드 및 실행할 수 있도록 지원합니다. 이 도구는 Mistral 7b 및 LLAMA v2 7b와 같은 인기 모델을 추천하여 사용자가 최첨단 AI 기능을 활용할 수 있도록 합니다. 또한 LM Studio는 적절한 양자화 모델 선택, Ryzen AI 칩 성능 최적화, Radeon GPU 사용자를 위한 GPU 오프로드 활성화에 대한 가이드를 제공합니다.
AMD의 LM Studio는 엔비디아의 Chat with RTX 솔루션과의 격차를 줄이는 데 중요한 진전을 나타냅니다. 엔비디아의 독점 애플리케이션은 GeForce RTX 30 또는 40 GPU에서만 사용 가능하지만, LM Studio는 AMD 및 엔비디아 GPU는 물론 AVX2 명령어 세트를 탑재한 일반 PC 프로세서까지 지원하는 보다 범용적인 접근 방식을 제공합니다. 이러한 접근 방식은 하드웨어 선호도나 제약 조건에 관계없이 AI 기술에 대한 접근성을 확대합니다.
로컬 AI 솔루션을 통해 사용자에게 권한을 부여합니다
AMD는 LM Studio를 통해 사용자가 외부 서비스나 인터넷 연결 없이도 고급 언어 모델의 강력한 기능을 활용할 수 있도록 로컬 AI 솔루션을 제공하는 것을 목표로 합니다. 사용자 친화적인 인터페이스와 다양한 하드웨어 구성에 대한 포괄적인 지원을 통해 AMD는 최첨단 기술을 더욱 쉽게 접근하고 포용할 수 있도록 AI 환경에 혁명을 일으킬 것입니다.

