微软公司在 Azure AI Studio 中新增了多项安全功能,这些功能将逐步降低用户将 AI 模型配置成异常或不当行为模式的可能性。这家总部位于华盛顿州雷德蒙德的跨国科技公司在一篇博文中概述了这些改进,强调旨在确保 AI 交互的完整性并增强用户信任。.
迅速获得护盾等等
其中一项重大进展是“提示防护罩”的创建,这项技术旨在检测并阻止用户在与人工智能聊天机器人对话时输入的提示信息。这些提示信息被称为“越狱”,本质上是用户故意输入的、旨在引发人工智能模型做出不预期反应的信息。.
例如,微软正通过即时注入技术间接地发挥作用,这种技术允许恶意指令的执行,而这种情况可能导致严重的安全后果,例如数据窃取和系统劫持。微软负责负责任人工智能的首席产品官莎拉·伯德表示,这些机制对于实时检测和应对这些独一无二的威胁至关重要。.
微软补充说,用户屏幕上很快就会出现警报,指出某个模型可能表达虚假或误导性信息,从而确保更高的用户友好性和信任度。.
建立对人工智能工具的信任
微软的这项举措是其更大计划的一部分,旨在增强人们对日益普及的生成式人工智能的信心。生成式人工智能正被广泛应用于面向个人消费者和企业客户的服务中。此前,微软发现用户能够利用 Copilot 聊天机器人生成怪异或有害的输出,因此对其进行了细致的审查。这将有助于证明,我们需要tron的防御措施来抵御上述操纵策略,而随着人工智能技术和大众知识的普及,这些策略很可能会越来越多。预测并缓解攻击的关键在于识别攻击模式,例如攻击者重复提问或进行角色扮演等。.
作为 OpenAI 的最大投资者和战略合作伙伴,微软正致力于探索如何负责任地、安全地整合和创建生成式人工智能技术。双方都致力于以负责任的方式部署生成式人工智能,并构建安全的基础模型。但 Bird 也承认,这些大型语言模型虽然被视为未来人工智能创新的基石,但并非绝对防篡改。.
在这些基础上进行构建,需要的不仅仅是模型本身;还需要采取全面的方法来保障人工智能的安全。.
微软最近宣布加强其 Azure AI Studio 的安全措施,以展示和保证为应对不断变化的 AI 威胁形势而采取的积极措施。.
它力求避免人工智能被滥用,并通过加入及时的屏幕和警报来维护人工智能交互的完整性和可靠性。.
随着人工智能技术的不断发展及其在日常生活诸多领域的应用,微软和人工智能领域的其他公司现在就应该保持高度警惕的安全姿态。.

