Meta (前身为 Facebook)推出了其在人工智能研究领域的最新突破性成果——SceneScript,有望彻底革新混合现实技术。这一尖端系统承诺增强头戴式设备和眼镜的空间理解能力,使其能够以前所未有的dent和效率解读房间布局和家具摆放。
赋能混合现实体验
SceneScript 采用与大型语言模型 (LLM) 相同的底层技术,但其重点在于 3D 环境中的空间理解。通过分析 3D 点云捕获数据(高级头戴式设备用户已熟悉用于位置 trac的技术),SceneScript 可以预测建筑和家具元素,生成勾勒房间内各种物体边界的原始 3D 形状。
Meta公司的Quest 3头显以其生成环境原始3D网格的能力而闻名,但目前无法识别这些网格中的特定元素,例如门、窗、桌子、椅子和沙发。虽然用户可以手动标记这些物体,但这个过程既费时又不可行,这给依赖精确空间数据的开发者带来了挑战。
将 SceneScript 集成到 Quest 3 的混合现实场景设置中,有望彻底革新内容创作方式,使开发者能够matic将虚拟资产定位到特定的家具元素上。这一简化的流程无需手动标记对象或进行算法解析,从而打造沉浸式体验,让虚拟内容与物理环境无缝互动。
释放人工智能助手的潜力
除了增强混合现实体验之外,SceneScript 在未来头戴式设备和 AR 眼镜中的 AI 助手方面也拥有巨大的潜力。Meta 设想,用户可以利用AI功能来评估空间限制,例如判断一张桌子是否适合放在卧室里,或者计算粉刷房间所需的油漆量。此外,诸如“将 [AR/MR 应用] 放在大桌子上”之类的直观命令可以简化用户交互并提高工作效率。
Meta公司的SceneScript虽然代表了人工智能驱动的空间理解领域的一项重大飞跃,但这项技术仍处于研究阶段,目前尚无将其整合到商业产品中的计划。然而,虚拟环境与物理环境的无缝融合前景广阔,为混合现实的未来发展提供了无限可能,也为创新和沉浸式体验带来了无限机遇。
Meta公司发布的SceneScript标志着混合现实技术发展史上的一个关键时刻。SceneScript利用先进的人工智能技术,有望彻底改变头戴式设备和眼镜感知和交互物理空间的方式,为模糊现实世界与虚拟世界界限的沉浸式体验奠定基础。尽管这项技术的商业化应用尚需时日,但其革新内容创作和用户交互的潜力毋庸置疑,预示着空间计算和人工智能驱动创新时代的到来。

