智慧司法辅助审判系统中算法歧视的成因与对策

时间:2024-09-11 09:18:01 来源:网友投稿

彭家阔

(湘潭大学法学院,湖南湘潭 411105)

随着智能化、信息化建设不断发展并渗透到生活的各个层面,人工智能技术也不断刷新行业业态,以不可思议的速度蓬勃发展并被广泛应用,不仅开始重塑各行各业,而且对具体应用场景也进行技术赋能,形成“一加一大于二”的协同效应。自党的十八大提出全面依法治国以来,这一效应在司法领域尤为凸显,形成了多种“人工智能+司法”的协同模式,助力全面依法治国战略的实施。2010 年,习近平总书记在中央政法工作会议上提出“推动大数据、人工智能等科技创新成果同司法工作深度融合”[1]。最高人民法院、最高人民检察院自2016 年以来也相继出台了一系列关于“智慧法院”和“智慧检务”的建设规划文件。在此背景下,杭州率先推出了法律人工智能机器人“法小淘”。随后,北京、上海相继推出了“睿法官”智能研判系统、“206”刑事案件智能辅助办案系统,河南省人民检察院上线使用“小包公”智能量刑辅助系统。2022 年,全国多地都构建了地方化的智慧司法辅助裁判系统,这些系统的应用提升了司法裁判活动的效率,在一定程度上解决了当前“案多人少”的司法裁判困境,形成了人工智能赋能司法活动的基本格局。

人工智能技术与司法裁判活动相结合为新时代我国司法体制改革注入了新动力。我国的智慧司法辅助审判实践已处于世界领先地位,但在司法领域全面推进“智慧司法”建设的大背景下,基于“先发展后治理”的发展模式显然已不合时宜,由美国的“威斯康星州诉卢米斯案”引出的算法规制难题亟待解决。当前我国对于司法领域算法规制的法律制度供给略显不足,较难适应智慧司法的发展需要,左卫民教授指出,人工智能与法律相结合的研究,在话语与实践、国内与国外之间存在着较为明显的“冷热差异”[2]。实践中缺乏合理的审查、制衡机制,且对于人工智能技术的应用多为机械式的平移适用,导致技术人员在进行智慧司法系统编码设计时简单地适用法律程序,加之主观偏见和法学素养不足,致使算法歧视问题加剧,影响裁判结果公正。

想要探究智慧司法辅助审判系统中的算法歧视成因,首先要明确智慧司法辅助审判系统内在的司法逻辑架构,了解辅助审判系统的缘起,才能探求出相对合理的治理范式。

(一)辅助审判系统的形成逻辑

在传统司法审判中,司法裁判都是由司法机关依法独立行使审判权,不受任何机关、个人、社会团体的干涉,从名称看当前的智慧司法辅助审判系统被界定为辅助工具已无异议。智慧司法辅助审判系统自出现就备受关注,打破了人们对于人工智能司法的认识,就像当初“阿尔法狗”战胜世界围棋冠军那样令人不可思议。通过大量数据训练进行学习的智慧司法辅助审判系统对于案件的裁判准确率甚至已经超过了法官等专业人士,数次司法裁判比赛的结果显示,人工智能裁判的准确性已经超过人类裁判。在使用欧洲人权法院的裁判文书进行实验时发现,利用人工智能算法对涉及基本人权的584 个司法审结案件进行模拟裁判,有79%的案件裁判结果与法院裁判结果一致,剩余21%的案件由于人工智能检测到法律事实与案件出现差异而与法院裁判相异。在另外一次测试中,来自英国的研究者组织人工智能与100名资深律师进行保险合同案件检查,最终结果是人工智能以86.6%的准确率遥遥领先于专业律师们的66.3%[3]。可以说,在简单裁判领域,智慧司法辅助审判系统已经能够胜任“法官”这个角色。在实际司法裁判过程中,法官在审判经验指导下对简单案件可以快速准确裁判。而问题在于,简单的案件总是占据法官们大量时间,从而在员额制改革背景下加剧了审判效率不高的现状。据最高人民法院工作报告显示,2013年至2018年,各地人民法院每年审结的一审案件呈逐年上升的趋势,与此同时,“案多人少”的司法难题进一步加剧。辅助审判系统成为法官完成简单司法审判任务的助手,帮助法官从繁杂的司法任务中解放出来,更加高效地完成疑难案件的庭审任务,从而实现以审判为中心的司法责任制改革目的。可以说,当前智慧司法辅助审判系统的产生不仅是人工智能技术发展的必然结果,更是我国司法审判制度改革的现实需要。这对人工智能辅助审判算法提出了更高层次的要求,避免算法歧视也成为保障算法辅助审判公正最重要的一环。

(二)辅助审判系统的审判逻辑

智慧司法辅助审判系统的审判逻辑和传统的三段论逻辑不同,人工智能辅助审判以过往司法案例大数据为重要依托,将已经裁判生效的案件通过模块化拆解、分析,通过将“案件事实”“罪名”“刑事责任”“年龄”等要素模块化,并通过不同模块影响定罪量刑的程度来进行专家赋值,而后通过机器深度学习、卷积神经网络的便利,得出最优的裁判结果和关联类案推送给法官参考。和传统审判以法律条文为逻辑起点不同,人工智能审判的逻辑起点是历史司法审判数据。因此,相较于判例法国家,成文法国家司法审判系统中算法歧视的存在更是对现有法律文本的巨大挑战,经过算法训练的人工智能辅助审判逻辑,极大可能会突破法律条文的边界。相较于传统的司法裁判逻辑,智慧司法辅助审判下的算法裁判更具有经验主义色彩。然而,法律文本成分的弱化并不当然意味着以司法数据为依托的智慧司法辅助审判缺乏法律正当性。实践中法官在衡量具体案件和法律条文的映射关系时,法律文本给予法官的指引非常有限。例如在面对一些自然犯时,法官并不能直接通过法律文本指引判断被告人的主观心理要件,其往往需要借助案件中的证据、犯罪行为、后果等客观要件来推断被告人的主观意图[4]。在实际审判过程中,司法审判的核心是如何将案件的主观要件与客观要件建立现实联系,而非裁判结果与法律条文的强映射性。因此,法官必须借助以往的审判经验结合法官职业素养对案件作出裁断,而以往的裁判经验单靠法官人力搜索难以完备,这成为阻碍司法审判效率提升的一大障碍,幸而在人工智能、大数据技术的助力下,智慧司法辅助审判系统应运而生,成为法官裁判的助手。当然,算法辅助决断的弊端也难以掩盖,基于司法审判数据生成的智能辅助审判系统的算法歧视问题成为当下亟待解决的一大难题。

所谓算法,就是一系列的编码指令,通过这一串具有逻辑性的数字指令可以解决既定问题、实现编码目的。算法可以通过海量的数据训练进行基于统计学的随机性控制。目前广泛适用的机器学习算法模型,从运行过程来看就是通过构建初始模型,输入训练数据,再根据所输入数据进行自主训练学习,之后对数据进行验证,确认算法的可靠性,进而完成算法的模型训练,生成最终模型[5]。了解机器学习算法的训练过程,有助于我们探究智慧司法辅助审判系统中的算法歧视成因。

(一)算法模型构建者的人为歧视嵌入

歧视是人类社会中普遍存在的社会现象,而算法又是人类决策逻辑的数字化映射。因此,算法歧视在极大程度上源于社会认知,并经由社会认知塑造出的人类潜在意识的数字化算法转化,对现有文化语境下存在的歧视进行归纳或者同构后形成文化禁锢或社会禁锢[6]。在计算机领域,很长时间以来人们总是认为程序因其工具属性只有效率性和准确性基本不会受到人为因素的影响,即所谓的算法中性理论,但是随着人工智能技术的发展,机器学习理论的不断深入,算法中性理论被算法歧视理论所取代。即输入数据内容中若含有歧视要素,则输出的结果也必然带有歧视色彩。更为关键的是模型的开发建构者将其本身带有的歧视性观点通过算法的编码表达映射出来,这种人为潜在的歧视也可能是无意识的。在司法模型的建构中,对于开发者开发出的算法模型的隐性歧视的识别化解至关重要,因为系统本身的算法模型歧视可能会在后续的数据训练中被加强,甚至在深度学习过程中把潜在的歧视因素赋予更高的权重,加重算法歧视。

(二)司法训练数据“缺位”

基于训练数据培养的算法模型的准确性来源于数据。司法裁判数据的广度决定了智慧司法辅助审判系统的精度。只有在海量司法数据的“喂养”下,辅助审判系统才能在海量、准确的司法裁判数据中提取出类案的审判经验和规则体系[7],为人工智能赋能司法研发提供“燃料”,提高智能化审判的准确性,保障司法公正[8]。在辅助审判系统的实际研发过程中,鉴于不同地区法院办理案件的性质、种类存在着差异,对于司法训练数据的输入样本主要是靠各辅助审判系统开发地区所拥有的司法数据样本进行训练,但还有很多司法数据并没有被允许使用,而不同地区的案件数量的差异性也导致了智慧司法审判算法的数据训练量并没有达到预期的要求。此外,随着时代的进步发展,除了一些自然犯之外,新兴犯罪的产生也给辅助审判系统的数据获取带来困难。在实践过程中,对于一些司法数据保有量较少的犯罪类型,辅助审判算法可能无法得到足够量的训练数据支持,进而导致验证不通过、无法生成相应的算法模型,可能会将部分数据量小的犯罪归入其他犯罪数据量多的类型中,直接影响司法决策模型输出结果的公正性和合理性。

(三)辅助审判系统算法黑箱

算法黑箱,简单来说就是算法的决策过程对于开发者或使用者之外的人是缺乏透明度的,就如同一个“黑箱”,对于公众来说只能知晓其最终的决策结果,而对决策的依据、决策流程以及方式一无所知,且大多数算法数据都以商业秘密不公开为由回避公众监督,即便公开算法,一些由字母数字组成的代码块、字符串也难以被不具有专业知识的公众所理解。因此,不具有公众透明度的算法为算法歧视提供了生长的土壤。所谓算法不可解释性是对现代法治的释法析理精神的挑战,极大程度上限制了司法审判中当事人的知情权和抗辩权。参与审判的当事人有权知晓司法算法决策的过程和依据,这是司法公正、透明的必然要求,是保障诉讼参与人知情权的必要措施。

(四)辅助审判系统算法权力的异化

权力的本质是一种支配性力量,作用于一定的社会关系。而在技术对司法赋能并构成直接的控制和影响的情况下,技术褪去了纯粹工具性外表,展现出一定的权力属性[9]。基于深度学习的算法已经成为一种战略资源甚至是一种数字武器,本质上已经脱离了单纯的数据计算程式,其强大的算力优势和数据训练后的自主学习能力,加之算法黑箱提供的黑色地带,给算法使用者提供可操作空间,甚至摆脱其辅助工具地位,形成一种算法权力,进一步与社会化的知识、利益和公共利益交融,成为一种影响社会生活的“非国家力量”,嬗变为一种“准公权力”。而算法权力的影响力和控制力源于掌握着算法运行过程的开发者和设计者,因算法具有高度的专业性,就算是资深的法律人员也难以准确地掌握算法设计的全流程,算法设计者和用户之间存在“数字鸿沟”,诉讼参与人只能被动地接受最终的决策结果,无法对其进行过程溯源。申言之,司法人工智能的技术操纵直接表现为对司法权力的支配[10],展现出强烈的权力属性,超脱狭义的技术工具论,表现为对司法的主导权[11]。如若没有相应的制衡机制,就可能导致司法算法权力的异化,进而侵害诉讼参与人的诉权,形成司法算法霸权,破坏司法公正。

(一)强化源头治理

1.限定司法辅助审判系统的适用场域

实践中智慧司法辅助审判系统与传统审判的最大不同之处在于说理方式的不同[12],只有拥有大量裁判基数的案件才能形成有效的说理模型和结论。如若把智慧司法辅助审判系统的审理案件范围限定在普通简单案件,其效果将会达到最大化。对于海量简单案件数据,其司法要素的识别已不成问题,在简单案件中形成“类案类判”具有很强的可操作性,其通过简单案件流程化的基本操作路径就可以形成判决结果的推送、呈现,通过案件中的各种司法要素的分析、对比和计算,再与海量裁判数据比对,从而形成人工智能裁判“最优解”,可以在很大程度上缓解“案多人少”的司法困境,把有限的司法资源从普通简单案件中抽离出来,投入到疑难案件中去,从而实现庭审实质化,在一定程度上消弭辅助审判系统算法歧视带来的不利影响。是故,可将司法辅助审判系统的案件适用场域进行立法限制,保障司法辅助审判系统审判结果的推送是基于海量裁判数据生成,避免因案件数据量小造成的“个案不公”。具体可制定司法辅助审判系统适用规则,根据现有司法裁判案件数量实时修订该系统准予适用的案件类型。

2.构建司法辅助审判系统设计者法律伦理培训机制

技术工作和法律工作分属不同学科体系门类,存在思考逻辑的差异性,对技术工作者而言,提高算法的高效运行是第一要务,而法律工作者更注重公平正义的价值体现。所以,在委托开发过程中对算法构建者和程序实现者进行司法审判活动知识培训十分必要,必须在技术中注入法律元素,体现审判活动的关键特点,反复论证算法构建的合理性和司法公正性,符合司法伦理的要求,最大限度地避免歧视性决策要素的存在。更为重要的是,在目前的弱人工智能时代,算法虽然具有一定的自主学习能力,但究其本质,还是一串串人工编码得出的计算机代码程式,里面蕴含着开发者的逻辑理性。算法歧视的根源是开发者的主观认识使得算法拥有了歧视的非正义属性,故而在构建司法辅助审判系统设计者法律伦理培训机制过程中,使设计者形成非歧视的算法设计价值观也是消弭司法辅助审判系统算法歧视的重要一环。

3.建立司法辅助审判系统内部算法审查、监管体系

在对司法辅助审判系统的构建中,开发设计相关方建立内部算法审查、监管体系是十分必要的,既要引导算法的设计人员遵守算法规则,也要在相关方内部建立专门的算法合规审查机制、监管体系。第一,建立一支由专门技术人员构成的防歧视审查专家委员会,保证技术层面的合理合规性。第二,在算法测试数据的过程中,应当实时、准确并详细地记录算法训练的过程,做好相应的数据备份,以便后续系统的升级、改进和维护。第三,针对算法不透明的问题,在司法公开属性的内在要求指引下,相关方有责任也有义务编制算法解释手册,以便诉讼参与人查看和质询。

4.扩充司法数据并进行歧视信息脱敏处理

智慧司法辅助审判系统需以司法数据为驱动,即首先要获取到全面、完备且具有相关性、代表性的司法数据,然后利用算法模型进行契合[13]。而目前法院系统内部仍然积累着巨量的、并未电子化的历史裁判数据。同时,司法机关应当构建各省市审判数据互联互通机制,拓展司法裁判数据的来源,多方面统筹挖掘、收集、整合司法审判数据,为保障司法辅助审判系统的精准性和非歧视性提供必要前提。开发利用司法数据最重要的是提取个案中的共同要素,而非对个案各个要素进行提取,所以,对司法文书中涉及的较为详细的个人信息模块应当经过专家评审后进行脱敏处理并去标识化,避免特殊性转化为普适性。这既回应了个人信息保护法的法律要求,也是消弭司法辅助审判系统算法歧视的重要组成部分,从数据层面断绝歧视性要素的输入,避免歧视性结果的输出。

(二)强化外部监管

1.坚守社会主义法治的价值追求

公平正义是社会主义法治的价值追求,算法歧视显然是对公平正义理念的偏离,是故有必要强化涉及司法的算法的公平正义观念,将可能处于偏离的价值取向拉回预定轨道。算法公平正义应当贯穿到算法开发、运行的全方位、各层次,保障过程公平和结果公平。过程公平强调在司法算法数据测试过程中预先剔除歧视性偏见数据,提高其过程透明度。结果公平不是绝对意义上的公平,而是需要考虑到个体的差异的实质公平。算法歧视结构性来源最终还是社会观念潜移默化地影响到个人而形成的定式思维。是故,需要强化公平正义、反对歧视的社会氛围,引导人们向上向善,从而使科技向善,更好地维护和促进司法审判算法权力的运行,避免社会大众受到司法算法权力的侵害,充分保障司法算法权力的稳健发展,打造智慧法治国家。

2.设置辅助审判系统非相关方审查制度

较之于其他应用场域,算法在司法审判领域的审查监管应当充分贯彻“强监管”“穿透式监管”政策。在司法审判公正、公开、透明原则的指引下,建立一套开发前、应用时、事故后的第三方智慧司法辅助审判系统审查机制,其中,第三方应为独立的、公益性质的算法审计组织。审查活动的进行将依靠由法律领域专业人士以及计算机科学领域专业人士所组成的专家委员会,只有通过专家委员会评审的系统才能够进行开发、投入使用。而每一个审查阶段的专家委员会评审名单按照一定的比例进行调整,以确保每一次评审的客观性和中立性,从而保障辅助审判系统的客观性、非歧视性。

3.建立健全问责机制,防止算法权力异化

如若产生了司法辅助审判的算法歧视性裁判结果,就需要引入相应的问责机制对相关方进行问责,防止司法算法权力的异化。面对司法审判算法权力异化的挑战,必须发挥法律的保障作用,建立健全法律制裁措施,确立以“外部问责”为核心要点的算法权力规制方向,落实开发者和使用方责任,规范司法算法的运行和决策。

从某种意义上来说,整个人类的刑事法律文明史,都是在探索实现刑罚目的并不断地探索审判公正的历史[14]。我国目前构建的智慧司法辅助审判系统也是以这一目的为逻辑起点而展开的,虽然其在一定程度上提升了司法审判的效率、推动了庭审实质化改革,但其中存在的算法歧视问题也是我们必须面对并解决的现实问题。对此,应重视算法中隐藏的歧视、偏见与不公,通过内部溯源治理和外部强化监管解决司法审判活动中的算法歧视问题,早日实现法治中国梦。

猜你喜欢 裁判审判辅助 小议灵活构造辅助函数河北理科教学研究(2021年3期)2022-01-18倒开水辅助装置发明与创新(2021年39期)2021-11-05法官如此裁判民主与法制(2020年19期)2020-08-24法官如此裁判民主与法制(2020年16期)2020-08-24法律裁判中的比较推理法律方法(2019年4期)2019-11-16清代刑事裁判中的“从重”法律史评论(2018年0期)2018-12-06减压辅助法制备PPDO材料科学与工程学报(2016年1期)2017-01-15七十年前那场文明的审判公民与法治(2016年18期)2016-05-17消失中的审判政法论丛(2015年5期)2015-12-04提高车辆响应的转向辅助控制系统汽车文摘(2015年11期)2015-12-02

推荐访问:成因 审判 算法