两名美国联邦法官承认,他们办公室的工作人员曾尝试使用人工智能来帮助起草法庭判决,但结果却出了大问题。.
周四,参议院司法委员会主席查克·格拉斯利参议员公开了两封坦率的信件。信中,密西西比州法官亨利·T·温盖特和新泽西州法官朱利安·泽维尔·尼尔斯表示,人工智能工具被用于起草法院命令,而这些命令后来被发现充斥着 事实错误 和法律失误。这两项裁决均已被trac。
格拉斯利要求做出解释,他说:“每位联邦法官以及整个司法机构都有义务确保生成式人工智能的使用不会侵犯诉讼当事人的权利或妨碍法律下的公平对待。”
工作人员的失误暴露了人工智能在法庭上的局限性
在信中表示,一起证券诉讼案的判决草案因“人为错误”而被发布,原因是法学院实习生未经授权或披露,擅自使用OpenAI的ChatGPT进行研究。错误被发现后,该判决草案立即被撤回。
尼尔斯表示,为防止类似事件再次发生,他的律师事务所已经制定了书面的人工智能政策,并加强了审查程序。.
在密西西比州南区任职的温盖特法官表示,一名法律助理使用人工智能工具 Perplexity “作为基础起草助手,对案卷中公开可用的信息进行综合”。
那份在民权案件中发布的命令草案后来被替换,因为他dent其中的错误。温盖特表示,此事“系人为监管疏忽”,并补充说,他此后已加强了办公室内部的审查程序。.
对人工智能在法律工作中应用的批评
这一事件进一步加剧了涉及人工智能生成法律材料的争议。近年来,美国多个司法管辖区的律师因提交由聊天机器人起草的文件而受到制裁,这些文件包含捏造的案例引用和错误适用的dent。.
本月初, 纽约州法院系统 出台了一项新政策,限制法官和工作人员将机密dent特权或非公开的案件信息输入到公共生成式人工智能工具中。
尽管法律界迅速探索了人工智能提升效率的潜力,但各种事件dent暴露了这项技术的局限性,尤其是其产生幻觉或生成看似合理实则 虚假信息的。对于法院而言,公正性、判决的准确性和举证责任至关重要,此类失误有可能损害公众对司法系统的信任。
格拉斯利赞扬温盖特和尼尔斯承认错误,并敦促司法部门制定更tron的人工智能指导方针。.
美国法院行政办公室尚未发布关于人工智能使用的全面指导意见,但据报道,一些巡回法院正在探索有限且受监督的部署框架。另一方面,据报道,法学学者正在提议一项披露规则,该规则将要求法官在其意见或命令中公开说明任何人工智能的使用情况,类似于外部研究的引用要求。.
dent发生之际,联邦机构和专业团体仍在努力解决人工智能问责制方面的问题。.

