为了将生成式人工智能引入 iPhone,苹果研究人员推出了一项突破性方法,可以绕过移动设备的内存限制,这无疑是一项重大进展。大型语言模型(LLM),例如 OpenAI 的 ChatGPT-4,以其巨大的计算需求而闻名,通常需要强大的服务器来处理其运算。然而,谷歌最近推出的 Gemini AI 旨在与 GPT-4 竞争,并提供了一个专为智能手机定制的“Nano”版本。该版本采用量化技术,将模型参数减少到 18 亿或 36 亿。目前,谷歌 Pixel 8 Pro 智能手机就搭载了其中一个 Nano 版本,该机型现已在亚马逊上以 799 美元的优惠价格出售。.
尽管谷歌的 Gemini Nano 取得了显著进展,但高通声称其新款骁龙 8 Gen 3 SoC 可以支持高达 100 亿参数的生成式 AI 逻辑层模型 (LLM)。虽然这超越了谷歌的能力,但距离 GPT-4 达到最佳性能所需的 1.7 万亿个参数仍相差甚远。量化虽然可以简化移动 SoC 的处理流程,但不可避免地会牺牲准确性和效率。因此,移动设备能否容纳更大的 LLM 对于提升其性能至关重要。.
苹果的巧妙解决方案
在智能手机上实现生成式人工智能的主要障碍之一是其对内存的巨大需求。例如,像Meta公司的Llama 2这样每个参数简化为8位、拥有70亿个参数的LLM模型(由骁龙8 Gen 3处理器支持),至少需要7GB的内存。苹果的iPhone 15 Pro系列配备了8GB内存,这意味着苹果开发的LLM模型(例如Llama 2)将接近当前iPhone的内存上限。为了克服这一内存限制,苹果的研究人员设计了一种新颖的方法。.
闪存存储增强
在一篇题为《闪电般的大型语言模型:在内存有限的情况下高效推理大型语言模型》的研究论文中,苹果公司的生成式人工智能研究人员提出了一种利用iPhone闪存来补充设备板载系统内存的方法。虽然闪存的带宽无法与LDDR5/X移动内存相媲美,但苹果的研究人员巧妙地克服了这一固有的限制。他们的方法结合了“窗口化”和“行列捆绑”技术。“窗口化”技术使人工智能模型能够重用存储在闪存中的已处理数据,而“行列捆绑”技术则优化了大型语言模型数据的组织方式,从而提高了读取速度。.
iPhone上生成式人工智能的未来前景
虽然苹果尚未发布基于LLM的产品,但有传言称,基于LLM的更智能的Siri即将到来,预计将随iOS 18一同发布,并运行在下一代iPhone 16 Pro机型上。一旦这一消息成为现实,苹果将能够利用其创新的RAM扩展技术,提供参数数量在设备端执行下尽可能多地支持的LLM模型。.
2024 年生成式人工智能格局
随着科技行业持续不懈地推进生成式人工智能(AI)技术的发展,2024年有望成为生成式AI成为智能手机标配功能的元年。三星作为该领域的佼佼者,正蓄势待发,准备在下个月发布的Galaxy S24系列中推出其增强型生成式AI产品。凭借苹果公司创新的内存扩展技术以及三星即将推出的新技术,消费者可以期待移动设备上AI驱动功能的性能和性能将迎来显著提升。.
苹果公司突破内存限制、实现大型语言模型在设备端运行的创新方法,标志着在iPhone上实现生成式人工智能迈出了重要一步。随着竞争日趋激烈,谷歌的Gemini Nano和高通骁龙8 Gen 3等芯片不断取得进展,2024年有望成为生成式人工智能融入日常智能手机体验的转折点。.

