科技巨头苹果公司采取了一项大胆举措,停止在其运营中使用 OpenAI 的人工智能聊天机器人 ChatGPT。 这一决定是在人们越来越担心敏感公司数据可能受到泄露的情况下做出的。
Apple 内部警告
在向员工发布的指令中,苹果禁止使用由行业竞争对手微软支持的ChatGPT
这一禁令是在苹果自己的人工智能技术开发期间实施的,表明苹果公司更加注重内部创新和安全。
该公司的担忧围绕着员工通过与这些人工智能系统的交互无意中暴露公司专有信息的可能性。
值得注意的是,微软旗下的 Copilot(GitHub 的有助于软件代码自动化的人工智能工具)也受到了苹果内部的限制。
就在几天前,ChatGPT 在苹果应用商店的 iOS 版上发布后,就出现了这一内部禁令的消息。 这款备受期待的应用程序目前可供美国的 iPhone 和 iPad 用户使用,并计划在不久的将来将其覆盖范围扩大到其他地区。
AI工具限制的增长趋势
苹果并不是唯一持这种立场的公司,全球各大公司都已开始限制 ChatGPT 等人工智能聊天机器人的内部使用。
例如,电子tron三星在发生涉及将敏感代码上传到平台的不幸dent后,于今年 5 月初向其员工发送了一份备忘录,禁止使用生成式人工智能实用程序。
同样,摩根大通、美国银行、高盛和花旗集团等知名金融机构也采取了类似措施,禁止其员工使用这些人工智能工具。
值得注意的是,其中许多公司在限制第三方人工智能实用程序的同时,正在开发自己的定制应用程序。
人工智能应用的风险和机遇
人们对 ChatGPT 和 GitHub 的 Copilot 等人工智能工具的担忧源于它们的数据处理方法,存在泄露专有代码或其他dent数据的潜在风险。
由于这些平台要么由微软等竞争对手拥有,要么由微软等竞争对手提供财务支持,这一事实增加了风险。 尽管如此,许多公司仍在其工作流程中拥抱人工智能的力量。
事实上,高盛已经披露了其利用生成式人工智能工具来协助软件代码编写和测试。 同样,管理咨询公司 Bain & Company 透露了将 OpenAI 的生成工具集成到其管理系统中的计划。
这凸显了人工智能的双重性质,它可以显着提高效率并节省成本,但同时也需要严格的安全措施。
一些企业对人工智能工具使用的限制并不一定源于对人工智能更广泛的担忧,而是源于第三方人工智能平台提供商(如 OpenAI、谷歌和微软)如何处理在这些服务上共享的专有数据。
根据一份报告,苹果最近的决定是创建自己的人工智能工具的更广泛战略转变的一部分,这一发展在行业竞争格局中值得关注。