效率与公平,二者是社会主义法治追求的两大价值目标,人工智能融入到司法裁判中,也是为实现上述目标而服务的。截至目前 “智慧法院”在审判中的应用主要体现在三个方面:审判信息数据化管理、文书制作智能化输出及近期较热门的辅助裁判功能。前两项人工智能建设在全国法院系统已经应用比较广泛,而作为辅助裁判功能的第三代司法人工智能功能,目前只有部分经济发达地区的法院投入使用。
一、人工智能裁判带来的挑战
人工智能给司法审判带来的各项优势是不言而喻的,本文不作过多赘述,本文主要探讨的是作为辅助裁判第三代人工智能给司法裁判所带来的各项挑战。
(一)过度依赖数据可能阻碍法治发展步伐
2016年12月,北京法院的“睿法官”智能研判系统上线,作为着力提升司法权威及司法公信力的科技手段,“睿法官”将案件的判后监督管理转变为判前的裁判指引,确实很大程度上实现了“同案同判”的司法效果。但是运用大数据统计得出的类案裁判指引,侧重了法的社会效果,却相对忽视了法律效果。法治文明的进步在于因社会发展而变化的社会价值观影响裁判结果,而裁判结果指引社会价值观,二者之间是相辅相成的,而运用大数据分析得出的裁判标准相比而言是较为固化的,特别是当今中国裁判文书网等司法公开平台对数据的大规模公开,导致越来越多的法官裁判过度依赖“网络”数据,而非法官本身的价值理念,结果就是裁判结果越来越趋同,降低了法官自由裁量的判断能力,正如考夫曼所言的“演绎推理无法产生新的知识”。再加上司法改革对司法责任制的明确规定,越来越多的法官“不自信”,而依赖大数据平台成为了法官“逃避”责任的借口,特别是年轻法官愈加缺乏独立思考法治的能力,一定程度上延缓了我国法治发展的步伐。
人类社会是呈螺旋上升的,但无论是“睿法官”还是“上海206刑事案件智能办案辅助系统”,都是试图用过去推导未来,笔者认为这种推导模式属于类比推导,是固定的标准套用,即给机器输入固定的算法公式,如果不加入人工参与进行调整,几乎不会有超脱框架的发展。但在司法裁判实践中是千案千面的,很多行为虽然导致了相同的结果,但行为动机、行为手段的不同是可以产生不同的法律评价的,包括行为人本身的各项自然条件的不同,都应是最终裁判结果应该考虑的因素,而目前的辅助裁判功能并不能实现将社会生活中的各项因素作为裁判结果输出前的变量进行涵盖。“真正的司法裁判绝不是对案件事实进行规范匹配下的纯粹演绎推理。”
(二)算法黑箱可能导致司法不公正
“推进司法人工智能以提升‘智慧司法’乃至‘智慧法治’,是为了克服人类裁判思维的片面与恣意”。很多学者质疑法官思维的局限性及裁判权的滥用,故而认为人的参与度越少,裁判结果越公正。人工智能参与到司法领域需要三个环节来共同参与,即专家经验、模型算法和大数据。不可忽视的一个问题就是人工智能的编程,及裁判标准的输入也是需要人来操作的,并且进行算法输入的大多是是技术人员、科学家,掌握法律知识的法官在基本规则设计的时候参与度相对较低。“当我们质疑人类恣意时,是否也应该怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业家的经济利益等,仍无法摆脱商业、政治、强势价值观等力量操控。”笔者认为,那些打着“人性弱点”幌子来怀疑法官裁判不公正的说法,在更多主体参与进来的人工智能面前更加无法自圆其说。司法权在人工智能时代被更多的主体分解,导致的结果是需要更多的监管机制、监管手段对多主体进行分类监管,其付出的技术成本就远远超过我们目前对司法权监督手段所花费的成本。
(三)对我国审级制度的冲击
我国司法裁判是二审终审制,但人工智能的算法裁判无疑会对我国的审级制度带来不小的冲击。首先来说,如果一审裁判是通过算法裁判得出的裁判结果,二审法院的人工智能体系中与一审法院应用的算法规则一致,那么二审无疑形同虚设;第二,如果二审法院不再运用算法裁判,而是选择由法官作为二审的裁判者,但一审的裁判结果是算法裁判程序通过对大数据收集、分析、归纳、输出得出的裁判结果,相对于数据甄别能力弱于机器的法官,几乎没有可能推翻一审的裁判结果,此时二审的作用也就无法显现。
(四)打破传统裁判模式可能会削弱法的尊严
从法的发展史来看,无论是古代习惯法中基于社会舆论、首领威信、传统力量等因素产生的心理威慑,还是现代法中基于国家强制力等因素产生的行为规制,“法”都代表着力量与权威。一直以来,笔者都认为现场的庭审效果要远远优于科技法庭,原因有三:其一,科技法庭虽然节省了各方当事人参加诉讼的成本,但也正是因为违约、违法成本的降低,导致了更多的行为人放任自己的行为,更多的诉讼参与人已不再将“诉讼”作为一件“麻烦事”;其二,法院和法庭的环境设计本身具有威严性,起到产生震慑力,提升法的尊严的作用,但科技法庭削弱了庭审的这一外观功能;其三,从人的情感角度来说,面对面沟通更能够发泄不满亦或是进行倾诉,这种法庭环境带来的情感宣泄也可以使情感趋于平静,最终达至息诉服判。
目前越来越多的人工被科技所取代,但如果裁判也最终变成工厂化输出,从人的价值观角度来说,民众对机器输出的结果的接受度及信服度并不能等同于对法官的信服度。因为机器是人智慧的结晶,机器与人并不能属于同一位阶,融入人的智慧越多的机器只能被定义为更为先进的“工具”,赋予机器以“法官”身份,目前并不能被民众普遍接受,让机器取代“法官”,无疑会降低法在民众心中的威严感,削弱法的尊严。
再从法官职业的角度来看,数据的无限制公开对法官裁判也产生了不小的冲击,法官的裁判结果被量化统计,法官的裁判行为被某些组织、机构进行分析、评价、比较,最终用来预测裁判结果,通俗来讲法官被 “画像”、被“定义”,显然这种“定义”会给法官传统审判模式带来冲击,影响法官的独立审判。另一方面,在法官的裁判思维被社会数据化分析后,法官的职业认同感 、职业尊严都会受到很大的冲击,此时的法官变成了“透明职业”,裁判思维更多的会被固化的社会评价所左右。
二、人工智能裁判危机的消解路径
人工智能裁判带给司法裁判的正面意义是不可估量的,但实现公平正义的最大、最优价值仍旧是我们不断追求的目标,故而对人工智能在应用司法裁判时产生的危机进行合理消解,是十分有必要的。
(一) 拓展司法人员技能培训内容
人工智能参与到司法裁判中对司法人员的职业能力提出了更多的挑战,仅对法律思维、法律知识的熟练掌握、对科技产品的“知其然”已经不能满足科技时代的需求,需要更多的对智能审判“知其所以然”的复合型人才。司法机关在人员技能培训中,不能再仅仅以法律知识和法律实务为培训内容,在加入“智慧法院”等技术成果应用培训的基础上,侧重选择法学功底深厚、实务操作能力强的专业法律人进行人工智能和算法等新技术的培训,让法律人不再仅是新技术的应用者,也可以充当算法裁判的设计者、监管者。
(二)建立算法问责监管体系
人工智能中的算法裁判越来越多的参与到司法裁判领域,代替法官在个别案件类型中进行裁决,而责任承担的归属问题相对来说比较空白。世界各国都已经认识到了这个问题的严重性、紧迫性,并且一些国家和地区已经对算法的公平及透明进行了监督,比如纽约2017年通过的《算法问责法案》。我国在2017年的《新一代人工智能发展规划》中也已经提出了人工智能的第二步规划就是要“初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。从立法层面来说,应当建立起一套较为完备的专门的算法问责监管法,对监管主体、监管方式及责任承担进行明确规定,防止人工智能成为干预司法裁判的一双“隐形的手”,让人工智能也必须沿着法制的轨道向前发展,不再让算法裁判成为无法归责,甚至逃避法律责任的借口。
笔者认为,面对新技术与司法裁判的深度融合,我们必须时刻保持清醒的头脑。“我们无力抗拒也并不抗拒新技术对司法的介入,但我们必须异常小心技术对司法本性的异化,宁可暂时舍弃技术描绘的理想图景,也不能轻易踏入技术陷阱的泥淖”
1.亚阿尔图.考夫曼:《法律获取的程序—一种理性的分析》,雷磊译,中国政法大学出版社2015年版,第21页。
2.胡铭 张传玺:《人工智能裁判与审判中心主义的冲突与消解》,《东南学术》2020年第1期,第214页。
3.刘艳红:《人工智能法学研究的反智化批判》,《东方法学》2019年第5期,第122页。
4.刘艳红:《人工智能法学研究的反智化批判》,《东方法学》2019年第5期,第123页。
5.国务院2017年《新一代人工智能发展规划》。
6.徐俊:《智慧法院的法理审思》,《法学》2017年第3期,第64页。