AI法律界!幻觉案已达99起律所遭殃
在当下全球数字化浪潮中,人工智能(AI)的迅猛发展正深刻改变着各行各业的运作模式,法律界也不例外。然而,伴随AI技术应用而来的,还有其固有的“幻觉”问题,即AI在缺乏真实数据支撑时,会生成看似合理却实则虚假或捏造的信息。这一问题在法律领域尤其引发了广泛关注,因为任何细微的错误都可能导致严重的后果。
新媒网跨境获悉,一起发生在2025年第二季度的案例,便鲜明地揭示了这一挑战。美国一家知名大型律师事务所Latham & Watkins,在其代理客户Anthropic公司的一起案件中,使用了客户开发的AI聊天机器人Claude来协助撰写一份专家证词。不料,这一举动却为后续的法律程序埋下了隐患。据了解,Anthropic公司正面临音乐出版商的起诉,被指控通过将歌词输入Claude进行“训练”而侵犯了版权。
在这份提交给法庭的专家证词中,AI聊天机器人Claude出现了明显的“幻觉”错误:它不仅弄错了其中引用的某篇论文的标题和作者,还在其他部分加入了错误的措辞。这些错误在2025年4月提交法庭的文件中被一并呈现。正是这些瑕疵,促使起诉Anthropic的音乐出版商们向负责此案的联邦治安法官提出请求,要求将这份专家证词全盘剔除。对于Latham & Watkins这家大型律所而言,这无疑也是一次形象上的打击。
Latham & Watkins事务所辩称,这些错误是“无心之失,并非捏造”,并认为其影响微不足道。该律所向美国加州圣何塞的治安法官苏珊·范·基伦(Susan van Keulen)表示,未能及时发现这些错误是“令人尴尬且无意的失误”,但不应因此而否定专家证词的效力。然而,原告方坚持认为,这些错误“从根本上破坏了”专家证词的可靠性。
在2025年5月13日举行的电话听证会上,范·基伦法官本人也表达了疑虑。根据原告引用的听证会记录,她明确指出:“一次遗漏的引证与AI生成的幻觉之间有着天壤之别,在座的每一位都清楚这一点。”截至目前,范·基伦法官尚未裁定是否保留这份专家证词,也未决定是否对该律所实施制裁。
AI“幻觉”引发的法律文件错误,正成为摆在各国法官面前的棘手问题。来自法国的律师兼数据专家达米安·查洛丁(Damien Charlotin)对此进行了长期追踪,他所整理的数据显示,截至2025年第二季度,在全球范围内,已有99起案件的法庭文件中出现了由AI生成、包含严重错误甚至完全捏造内容的事件。这些案件不仅分布在美国24个州的联邦法院,还涉及欧洲、以色列、澳大利亚、加拿大以及南非等地的法院。
查洛丁指出,这99起案件很可能只是冰山一角。他坦言,实际中更多未经发现的AI生成错误案例数量无法估量:“我只能统计那些被曝光的案例。”这表明,AI在法律应用中的“幻觉”问题可能远比当前数据显示的更为普遍。
在查洛丁所汇编的案例中,近一半的当事人是“未经律师代理的诉讼人”,即自行进行诉讼的个人。对于这类诉讼人,法官通常会考虑到他们缺乏经验而给予较为宽容的处理;虽然他们的案件可能会被驳回,但很少会被处以罚款。
然而,在大多数情况下,这些错误是由执业律师造成的。令人惊讶的是,在涉及律师的约30起案例中,AI生成的错误是在2024年甚至2025年第二季度才被发现或出现在提交的文件中,远在AI聊天机器人容易出现“幻觉”的特性已广为人知之后。这无疑表明,问题非但没有缓解,反而愈发严重。
美国加州大学洛杉矶分校(UCLA)法学教授尤金·沃洛克(Eugene Volokh)对此表示不解:“我无法相信人们至今仍未意识到AI生成的内容充满了错误和捏造,因此,提交的每一份法律文件中的引用都必须经过核实。”
法官们也正在明确地表达他们对AI聊天机器人生成虚假引文、不准确的法律裁决引用以及根本不存在的先例引用的不满。根据《联邦民事诉讼规则》第11条规定,提交法律简报或其他文件时,如果未能核实其事实主张的真实性,包括对其他案件或法院裁决的引用,则构成违规行为,可能导致律师面临金钱制裁或纪律处分。
一些法院已发布常设指令,要求在使用AI准备法律文件的任何环节都必须进行披露,并需提交一份证明文件内所有引文均已核实的声明。至少有一个联邦司法区甚至几乎全面禁止了AI的使用。
法律文件中错误引用的激增,也揭示了AI机器人融入日常生活中最严重的问题:它们无法被完全信任。很久以前,人们就已经认识到,即使是最复杂的AI系统在面对无法理解的问题或任务时,也会通过“编造”内容来填补其知识空白。
当其他行业将AI机器人应用于重要任务时,其后果可能同样严重。2024年,斯坦福大学的一个研究团队指出,许多医疗患者可能会被AI的“幻觉”所误导。他们发现,即使是最先进的机器人,仍有30%的时间无法提供可靠的来源来支持其医疗主张。
尽管任何职业的工作人员都可能因疲劳或疏忽而犯错,但律师通常处理涉及数百万甚至数千万美元的争议,因此他们被期望在正式提交的文件中对事实核查保持高度严谨。
一些法律专家认为,AI在法律领域拥有合法且重要的作用,甚至可以辅助法官做出决策。然而,律师们对于未能监控AI输出可能给自身行业带来的陷阱,显然不能掉以轻心。
查洛丁列表中最早的一起制裁案例,可以追溯到2023年6月。在纽约的一起人身伤害案件“马塔诉哥伦比亚航空案”(Mata vs. Avianca)中,两名律师因提交的法律简报大部分由ChatGPT聊天机器人生成,且引用了至少9个很快被证实根本不存在的法院判例,最终被处以5000美元的罚款。这起案件当时在美国各地都受到了广泛关注。
人们或许会认为,诸如此类的惨痛教训会促使律师们停止过度依赖人工智能聊天机器人来完成工作。但事实并非如此。
查洛丁认为,AI机器人输出内容表面上的真实性,可能会鼓励那些工作过载或疏忽大意的律师不经核实就接受虚假引证。他表示:“AI非常擅长呈现出完美的表象。”法律引证遵循标准化格式,因此“它们很容易被模仿成虚假引证”。
此外,早期案件中相对较低的制裁金额,通常只有几千美元,可能不足以引起法律界的足够重视。但沃洛克教授认为,提交虚假引证所带来的非金钱后果,其影响可能远超经济损失。
他指出:“对每位律师而言,主要的制裁是面对法官、客户、上级或合伙人、以及可能的对方律师时的颜面扫地,如果案件被新闻报道,甚至会在未来的潜在客户和同行面前蒙羞。”这对于律师的职业声誉和自我认同来说,都是巨大的打击。
查洛丁的数据集读来颇有趣味,尽管对涉事律师来说是莫大的羞辱。其中不乏一些似乎完全脱离其所处技术世界的律师。
在“哥伦比亚航空案”中提交了ChatGPT“幻觉”文件的律师史蒂文·A·施瓦茨(Steven A. Schwartz)后来作证称,他当时“误以为这个网站不可能自行编造案例”。当他开始怀疑那些案例在法律数据库中无法找到是因为它们是虚假的,他竟向ChatGPT寻求确认!
“瓦格斯(Varghese)是一个真实案例吗?”他通过短信询问机器人。机器人回答说:“是的,这是一个真实案例。”施瓦茨本人并未回应外媒的置评请求。
其他案例也进一步凸显了过度信任AI所带来的风险。例如,2024年,明尼苏达州总检察长基思·埃里森(Keith Ellison)聘请了斯坦福大学传播学教授杰夫·汉考克(Jeff Hancock)提供专家意见,以评估AI伪造材料在政治领域中的危害。埃里森当时正在为一项旨在将政治竞选中散布此类材料定罪的州法律进行辩护,该法律因被指侵犯言论自由而受到挑战。
汉考克教授是研究AI生成深度伪造(照片、视频和录音看似真实但实则伪造)社会危害的知名专家,他提交了一份声明,埃里森也照例将其提交给法庭。
然而,汉考克的声明中却包含了三处显然由他咨询过的ChatGPT聊天机器人生成的“幻觉”引用。其中一处将他自己撰写的一篇文章归因于虚假的作者,但他直到原告指出才发现这个错误。
此案中的联邦法官劳拉·M·普罗文奇诺(Laura M. Provinzino)对这一事件所体现的“讽刺意味”深感震惊。她写道:“汉考克教授,一位在AI和虚假信息危害方面的资深专家,却在这样一桩围绕AI危害的案件中,沦为过度依赖AI的受害者。”
这番经历甚至激怒了法官。普罗文奇诺法官指出,汉考克的虚假引证“彻底破坏了他在本法庭的信誉”。鉴于汉考克曾宣誓其声明的真实性,否则将面临伪证罪的惩罚,法官最终驳回了他的全部专家声明,并拒绝允许埃里森提交修正版本。
汉考克在一份提交给法庭的致歉声明中解释说,错误可能是在他剪切粘贴笔记时无意中混入的。但他坚持认为,其声明中所阐述的观点本身是有效的。他未回应外媒的进一步置评请求。
在2025年2月6日,前联邦治安法官迈克尔·R·威尔纳(Michael R. Wilner),作为一起针对美国好事达保险公司(State Farm Insurance)的加州联邦案件的特别主事官,对代表原告的两家律师事务所处以3.1万美元的制裁。原因是这两家律所提交了一份包含“大量虚假、不准确和误导性法律引用及引文”的法律简报。
新媒网跨境了解到,在该案中,一位律师为负责撰写简报的助理律师准备了一份大纲。他曾使用AI机器人辅助撰写这份大纲,但没有告知助理律师AI的参与。因此,助理们将大纲中的引用视为真实,并未进行二次核查。
结果,正如威尔纳法官所指出的,这份10页简报中的27个法律引证,约有9个存在某种形式的错误。他选择不对单个律师进行制裁,写道:“这是一场集体性的灾难。”
威尔纳补充道,当他阅读这份简报时,其中的引证几乎让他相信原告的论点站得住脚,直到他查阅这些案例并发现它们都是捏造的。“这太可怕了。”他写道。这项因滥用AI而施加的经济制裁,是目前美国法院中金额最大的一笔。
新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

评论(0)