在华盛顿熙熙攘攘的走廊里,关于人工智能(AI)监管的争论开始白热化。
随着人工智能技术的激增,美国立法者正在努力思考如何为这个新兴领域创建一个护栏框架,但很明显,共识还远未立即达成。
华盛顿平衡安全与创新
从国会大厦到硅谷,对于如何监管人工智能,人们表达了不同的意见。 一些立法者主张重点关注高风险的人工智能应用,例如医疗和金融领域的应用。
这种“基于风险的方法”得到了 IBM 和美国商会等商业界坚定支持者的支持,只会监管对人们的生命或生计构成重大风险的人工智能应用。
其他人正在推动更广泛的职权范围,主张制定法规,确保人工智能不会被用来侵犯公民权利或延续歧视。
这场争论的关键在于监管是否应该针对人工智能开发者,例如ChatGPT现象背后的初创公司OpenAI,或者部署这些人工智能系统与消费者互动的公司。
利用数据生成新内容的生成式人工智能的兴起加剧了监管的紧迫性。 此类技术的流行不仅trac了技术爱好者的注意,还引起了人们对潜在滥用的担忧,例如考试作弊、错误信息和新颖的骗局。
这导致了一系列会议的召开,最终导致 OpenAI、微软公司和 Alphabet Inc. 的首席执行官最近在白宫会面。国会也已采取行动,众议院和参议院的工作人员都在努力掌握这项快速发展的技术。
基于价值观的方法
美国的监管争论超出了风险问题的范围。 民主党参议员迈克尔·班尼特主张采用“基于价值观的方法”进行监管,强调需要优先考虑隐私、公民自由和权利。
班尼特提出了一项法案,要求成立政府人工智能工作组,并表示担心基于风险的监管可能过于僵化,无法捕捉微妙的危险。
一个典型的例子是人工智能在内容推荐系统中的潜在滥用,这可能会无意中宣扬有害的意识形态。
此外,班尼特和其他立法者对人工智能被用来进行歧视(可能是在低息抵押贷款的分配中)表示担忧。
OpenAI 的讨论考虑了更广泛监督的可能性。 OpenAI 研究科学家 Cullen O'Keefe 提议成立一个机构,要求公司在训练强大的人工智能模型或运营数据中心之前获得许可证。
这个假设的机构被称为人工智能安全和基础设施安全办公室(OASIS),可能成为人工智能监管的先锋。
尽管有多种声音,但达成共识的道路仍然崎岖。 即将到来的dent选举和提高债务上限等其他紧迫问题加剧了局势的复杂性。
在美国政府度过不确定时期之际,国际社会热切期待采取初步行动,对人工智能实施全面和道德的监管,确保其安全、公平地融入社会。