微软已禁止美国警方获取运行在 Azure OpenAI 服务上的生成式人工智能服务。这是微软周三更新的服务条款中提出的一项新举措,旨在解决执法部门在人工智能应用方面日益面临的伦理困境。.
政策更新重点关注伦理问题
修订后的条款明确规定,此类集成不得被美国警察机构“使用或用于”其用途。这项限制也涵盖了文本和语音分析模型,凸显了微软对负责任的人工智能使用的重视。此外,还新增了一项条款,专门禁止在非受控环境下,在移动摄像头(包括执法记录仪和行车记录仪)上使用实时面部识别技术。
微软禁止美国警察部门使用企业级人工智能工具https://t.co/OxrFO5scO9
— TechCrunch (@TechCrunch) 2024年5月2日
这些运动的导火索或许dent科技行业近期的进步。知名科技公司Axon,这家专注于军事和执法领域的公司,刚刚发布了一款产品,该产品利用OpenAI的语音合成模型和GPT-4文本生成技术,帮助概括执法记录仪录制的音频。该产品解决了训练数据中存在的虚假信息及其种族偏见问题,从而回应了一些批评者的担忧。.
其意义和解读空间
尽管微软此次升级的政策是其明确的立场,但仍存在解读空间。Azure OpenAI 服务的禁令仅适用于美国警方,因为该服务仍在国际范围内部署。此外,对人脸识别技术使用的限制仅适用于美国执法部门,不包括受控环境下的固定摄像头。.
这种平衡的方法论与微软在执法和国防领域的广泛人工智能战略高度契合。与此同时,尽管某些用途受到限制,OpenAI 与政府机构(其中五角大楼就是一个典型例子)之间的合作已逐渐兴起。此类合作关系表明,OpenAI 和微软的立场都发生了转变,微软正在寻求将人工智能应用于军事技术领域。.
政府参与和行业动态
随着Azure政府版新增针对执法部门用例的合规和管理工具,政府机构对微软的采用速度dent将负责争取国防部对Azure OpenAI服务的更多批准,从而证明该平台在紧急任务中的作用。
人工智能伦理和监管领域的动态发展,使得科技公司必须提前采取深思熟虑的行动。微软决定避免在执法领域使用人工智能,这表明整个行业都在朝着提高人工智能部署的问责制和透明度的方向发展。在人工智能监管的讨论中,技术提供商、政策制定者和维权团体必须携手合作,以合乎伦理的方式解决新出现的问题。.
微软阻止美国警方在特定场景下使用Azure OpenAI服务的举措,体现了该公司在应对人工智能部署伦理问题时所采取的审慎而专注的态度。事实上,这项修正案也展现了政策制定者的诚意,以及平衡各方利益的复杂性。鉴于人工智能伦理讨论的不断演变,相关利益攸关方应始终积极参与建设性对话,以促进负责任的人工智能发展和应用。.

