英国有三分之一的公司担心在使用大型语言模型 (LLM) 时的数据安全,因为这些模型已经从响应命令或问题的助手发展成为无需持续人工干预即可运行的dent 系统。.
因此,这些组织不愿将 人工智能代理 纳入其运营系统,因为他们担心失去对数据和安全的控制权,而这些控制权落入能够“独立思考”的机器手中。
英国政府正采取措施应对这些挑战。 内阁办公厅大臣帕特·麦克法登宣布解密一份情报评估报告,该报告指出人工智能将在未来几年加剧网络威胁。
2024年,英国国家网络安全中心(NCSC)收到近2000起网络攻击报告,其中近90起被认定为“重大”攻击,12起属于“最严重级别”。这一数字是前一年严重攻击数量的三倍。.
英国企业对法学硕士课程的数据安全提出质疑
英国的企业必须遵守严格的法规来保护个人数据并防止其被滥用,例如英国的 《数据保护法》 和欧盟的《通用数据保护条例》(GDPR)。
违反这些法律的公司将面临法律诉讼和声誉损害的风险,因此它们正在重新思考其LLM策略。如果没有严密的人工监督或准确的提示,人工智能可能会泄露私人信息或产生误导性结果。.
最初,像聊天机器人这样的AI工具只能提供固定答案,而智能恒温器也只是按照简单的规则调节温度,不会思考或从新数据、先前的行为或决策结果中学习。然而,如今的AI代理利用逻辑学习模型(LLM)从数据中学习,根据新信息调整行为,并像人类一样进行推理来解决各种问题。.
但这只是冰山一角,还有一个更大的问题需要关注。人们还可以指示智能体处理任务,智能体会将任务分解成更小的环节,逐一解决,然后评估结果。此外,一些智能体可以合作处理复杂任务,其中一个负责执行任务,另一个则负责检查结果以改进最终结果。.
尽管这种增长有助于企业实现运营自动化,并减少原本需要人工团队投入的时间,但它也存在威胁,因为这些智能体自主决策越多,我们就越难完全理解、预测或控制它们的行为。同样,由于这些人工智能体无需人工干预即可行动,它们犯错的后果也可能呈指数级增长。.
公司在各个部门谨慎地采用人工智能代理
英国许多公司在日常运营中使用人工智能代理,客户服务、人力资源和市场营销等部门正在逐步测试这些工具并密切监控它们。.
宠物之家 (Pets at Home) 就是一个很好的商业例子,它为其兽医人员构建了一个人工智能代理,以便在宠物检查期间提供快速的答案和支持,这表明人工智能代理在实际工作中的一些小角色中仍然非常有用。.
目前,大多数智能体人工智能系统仍需人工指导、检查工作并纠正错误,因为它们尚无法在无人监督的情况下完全取代人类。然而,未来企业或许需要做出艰难的抉择,既要将人工智能体融入系统,又要保持控制权。.

