英格兰及威尔士高等法院警告律师们,依赖ChatGPT等人工智能工具进行法律研究存在风险。法官维多利亚·夏普裁定,这些生成式人工智能工具无法进行可靠的法律研究。.
夏普法官指出,人工智能工具可能提供看似连贯且合理的答案,但也可能完全错误。她澄清说,虽然律师可以在研究中使用人工智能,但他们有职业义务在将研究成果应用于专业工作之前,通过参考权威来源来核实其准确性。
法官发表上述言论之际,正值律师引用疑似人工智能生成的虚假。夏普女爵士的裁决援引了两起近期案例,这两起案例中,律师被发现在法庭诉讼中引用了人工智能生成的虚假案例。她表示,她的裁决将与包括律师公会和法律协会在内的国内专业机构分享。
律师侯赛因在1.2亿美元的案件中引用了根本不存在的案例。
律师们请注意:未经核实就使用人工智能起草文件存在风险
在哈伦案中,法院发现令人震惊的45条引证要么根本不存在,要么包含不准确的引文。更令人震惊的是,这些虚假引证最初竟然是…… pic.twitter.com/CbgNy1z7X1
— Lawpoint 乌干达 (@Lawpointuganda) 2025 年 6 月 7 日
律师阿比德·侯赛因在涉及卡塔尔国家银行融资协议违约的1.2亿美元(8900万英镑)诉讼中,引用了根本不存在的案例。侯赛因提交的文件中包含45项引证,其中18项并不存在,而其他许多引证也与所引用的内容不符。.
委托人哈马德·哈伦就其无意中使用公开人工智能工具提供的虚假数据误导法庭一事道歉,并表示责任在于他本人而非其律师侯赛因。但夏普指出,律师竟然依赖委托人而非委托人来确保法律研究的准确性,这“非同寻常”。.
国王法庭庭长夏普法官表示,如果人工智能被滥用,将对司法公正和公众对司法系统的信任造成dent影响。她补充说,滥用人工智能的律师可能会受到公开谴责,并被移交警方处理。她呼吁律师公会和律师协会“紧急”考虑采取措施遏制这一问题。
法官还要求各大律师事务所的负责人和管理合伙人确保所有律师在使用人工智能时都了解自己的职业和道德义务。.
“这些回复可能会做出一些自信dent 但实际上并不属实的断言。它们可能会引用根本不存在的资料来源。它们可能会声称引用了真实资料中的段落,但这些段落实际上并未出现在该资料中。”
——维多利亚·夏普法官,国王法dent
英格兰及威尔士律师协会首席执行官伊恩·杰弗里表示,这项裁决暴露了在法律工作中使用人工智能的风险。他补充说,人工智能工具越来越多地被用于辅助法律服务。然而,生成式人工智能可能产生错误输出的现实风险,要求律师必须检查、审查并确保其工作的准确性。.
律师福雷列举了租户住房索赔中的五个虚假案例。
律师莎拉·福雷在一名租户针对伦敦哈林盖区政府提起的住房索赔案中,列举了五起虚假案件。福雷否认使用了人工智能,但夏普表示,她没有向法庭提供对事件经过的合理解释。
法官还警告说,提供虚假材料冒充真实材料可能构成藐视法庭罪,在“最恶劣的情况下”,甚至可能构成妨碍司法公正罪。她补充说,律师若不履行其职业义务,可能会受到严厉处罚。.
夏普表示,福雷表现出令人担忧的缺乏洞察力,并补充说,如果情况属实,那么在律师事务所内无法获得教科书或tron订阅服务这一事实,法院并不认为这能提供任何实质性的减刑,而只能起到微不足道的作用。.
她断言,福里本可以通过搜索国家档案馆的案例网站或前往她所属律师协会的法律图书馆来核实她引用的案例。夏普指出,福里一定是故意捏造了案例引证或使用了人工智能,尽管她在证人证词中否认了这一点。
上个月,里奇法官指出,在列举五起虚假案件时,当时在博尔特街3号实习的福雷以及伦敦哈林盖法律中心的律师们的行为不当、不合理且疏忽。他还责令他们赔偿浪费的诉讼费用。

