为了让更多人能够使用先进的人工智能技术,AMD 推出了 LM Studio,这是一款功能强大的工具,使用户能够在本地下载和部署大型语言模型 ( LLM )。此举旨在改变目前人工智能服务主要依赖强大的英伟达硬件且需要互联网连接的现状。AMD 的 LM Studio 旨在让用户能够轻松访问人工智能助手,而无需复杂的设置或大量的编程知识。
易于部署且用途广泛
LM Studio 简化了 AI 助手的使用,能够满足从效率爱好者到创意人士等各类用户的需求。它提供针对各种硬件配置和操作系统(包括 Linux、Windows 和 macOS)的详细说明,用户可以轻松地在自己的系统上安装 LM Studio。该工具专为 AMD Ryzen 处理器设计,并利用原生 AVX2 指令集实现最佳性能。.
AMD致力于提升用户体验,其GPU产品线也同样如此。Radeon RX 7000系列显卡通过ROCm的LM Studio技术预览版获得支持。这款开源软件栈能够提升AMD GPU上LLM和其他AI工作负载的性能和效率。用户可以充分利用AMD的硬件优势,发挥AI助手的全部潜能,而无需完全依赖CPU的计算能力。.
无缝集成和性能提升
LM Studio 提供无缝集成体验,使用户能够轻松发现、下载和运行本地 LLM。该工具推荐 Mistral 7b 和 LLAMA v2 7b 等热门模型,确保用户能够体验到前沿的 AI 功能。此外,LM Studio 还提供关于选择合适的量化模型、优化 Ryzen AI 芯片性能以及为 Radeon GPU 用户启用 GPU 卸载功能的指导。.
AMD 的 LM Studio 标志着其在缩小与 Nvidia 的 Chat with RTX 解决方案之间的差距方面迈出了重要一步。Nvidia 的专有应用程序仅适用于 GeForce RTX 30 或 40 系列 GPU,而 LM Studio 则提供了一种更通用的方法,它同时支持 AMD 和 Nvidia 的 GPU 以及配备 AVX2 指令集的通用 PC 处理器。这种方法确保了 AI 技术能够被更广泛地使用,而无需考虑硬件偏好或限制。.
利用本地人工智能解决方案赋能用户
通过推出 LM Studio,AMD 旨在为用户提供本地AI解决方案,使他们无需依赖外部服务或互联网连接即可驾驭先进的语言模型。凭借其用户友好的界面和对各种硬件配置的全面支持,AMD 有望革新 AI 领域,让尖端技术更加普及和包容。

