AI能否承担审判任务——即使是“简单案件也存在风险”的真正原因

AI能否承担审判任务——即使是“简单案件也存在风险”的真正原因

AI是否不应审理“简单案件”

2026年4月7日,Phys.org发表的一篇文章主张,即使是“简单的审判”,也应对生成AI的使用保持谨慎。论点很简单。AI可以快速、廉价地以固定格式处理文档。因此,在法院工作压力大的时代,它看起来很有吸引力。然而,判决不仅仅是整理文本或排列过去案例的工作。它还包括倾听当事人的故事、理解情况,并在法律和公平之间做出判断,这是一种人类的活动。原文指出生成AI的弱点,如幻觉、歧视性输出和不透明性,强烈警告将机器引入司法核心部分的危险。

这个问题之所以显得严重,是因为AI在全球司法领域的应用已经开始。英国司法当局在2025年10月更新了AI使用指南,明确指出AI的使用不应损害“司法运作的完整性”和“法治”。指南中提醒注意偏见的学习数据、幻觉和机密信息输入的风险,同时强调即使是AI生成的内容,最终责任仍在法官一方。也就是说,虽然可以辅助使用,但责任本身不能与人类分离。

从实际的引入例子来看,各国的目标并不是“AI法官”本身,而是更接近于辅助系统。在台湾,针对酒驾和诈骗帮助等相对固定的刑事案件,试行了一种由AI生成判决书草稿的机制,但事实认定、法律适用和量刑决定权仍保留在法官手中。爱沙尼亚也常被称为“AI法官”的先进例子,但该国的司法和数字行政当局明确表示,他们并没有开发用于替代人类法官的AI法官。另一方面,根据牛津大学的整理,在该国,针对最高8,000欧元的小额索赔,存在一种半自动发出支付命令的机制,其中也保留了人类的监督。虽然作为话题很先进,但实际上并不是“完全自动化审判”。

即便如此,原文作者认为“即使是简单的案件也很危险”的理由仍然很重。首先,什么被称为简单是由人类决定的。养老金、福利、损害赔偿、看似轻微的刑事案件——从制度的角度来看可能是例行处理,但对当事人来说,往往是影响生活、信用和未来的严重问题。而且,审判并不是仅仅给出一个正确答案的装置。当事人能够感受到“我被倾听了”,并相信情况被人类理解,这本身就支撑着司法的正当性。原文论述AI没有理解痛苦、悔恨、脆弱性、信任等人类要素的能力,正因为这种限制,它不适合坐在法官的席位上。

而且,效率化的承诺在现阶段也并不那么简单。路透社在2026年1月报道,自生成AI热潮以来,虚假或错误引用进入法庭提交文件,导致律师受到制裁的案例出现了几十起。2月,堪萨斯州的一位联邦法官对提交了未验证的AI生成的不存在引用或判例的律师处以总计12,000美元的罚款。3月,围绕AI来源的虚假判例的制裁继续进行。在法庭上,重要的不是“看起来像是正确的”,而是“真正正确的”。如果这一点崩溃,AI节省的时间最终会在验证、纠正、重新审理和上诉处理中丧失。

另一方面,现场的压力也在推动AI的引入。路透社在1月报道,美国的法官们成立了一个共享AI优点和陷阱的合作组织。在那里,讨论了AI可以缩短法律调查和草稿时间,但也带来了幻觉和深度伪造证据等新危险。华盛顿邮报在4月报道,在接受调查的112名美国联邦法官中,超过60%以某种形式使用AI,22%定期使用。司法已经进入AI时代。然而,正在推进的不是“判决的自动化”,而是“以人类最终承担责任为前提的辅助使用”。

 

从社交媒体和论坛的反应中,可以清楚地看到围绕这一论点的情感强度。在Reddit的AI相关社区中,“可以教会逻辑判断,但很难教会同情和谦逊”,“是否只是将工作完全交给AI”的否定性声音很突出。有些人甚至讽刺地写道,“会不会变成一个根据你的在线历史判断你有罪的世界”,对AI法官的不安不仅仅是技术论,而是指向“人被数据化的恐惧”。

不过,也有支持者或有条件接受者。在另一个Reddit讨论中,有人主张“人类法官和陪审团也会受到情绪、饥饿、偏见和外貌印象的影响”,“应该比较的是是否比当前以人为中心的系统更好,而不是是否完美”。此外,还有人支持将AI作为不腐败的基础,人类作为慈悲和语境的指南针的“协作模型”。社交媒体上的反应看似两极分化,但实际上正在收敛于“辅助使用+人类责任”而非“全面替代”。不过,这些社交媒体上的反应并不是民意调查,而是作为讨论趋势的参考材料来看待是合理的。

最终,这场讨论的核心不是性能。无论精度如何提高,审判在民主社会中意味着什么的问题仍然存在。法庭不仅仅是为了高效处理案件的装置。当国家裁决个人时,人类对这一判断负责的承诺本身支撑着对司法的信任。因此,AI将在文件整理、案例搜索、摘要、草稿辅助等外围工作中发挥越来越大的作用。然而,如果将“裁决人”的最后一道防线交给AI,司法可能会变得便利,但也可能削弱自身的正当性。原文警告的正是这一点。速度是正义的一个条件,但不是正义本身。


来源URL