前沿马靖云:智慧司法的难题及其破解

前沿马靖云:智慧司法的难题及其破解
智慧司法的难题及其破解
作者:马靖云,南京⼤学法学院法学博⼠后流动站研究⼈员。
摘要:技术的迅猛发展冲击了司法,也重塑了司法活动,智慧司法时代已然来临。但技术有其原⽣性缺陷,因此智能技术的司法应⽤也就不可避免地具有局限性,⽐如概率建模下的司法要素限缩、裁决算法的价值偏见、裁决算法⿊箱。这些局限性导致智慧司法在显⽰其超强功效的同时也⾯临着现实难题:技术与司法耦合的难度(数据采样的模糊性、司法要素提取的⾼难性)、智慧司法的风险(算法决策下的机械司法、司法过程中的“数据鸿沟”、技术司法应⽤的边界)。破解这些难题的路径是基于私权利保护的理念,从设置算法的论证程序、嵌⼊案件纠补机制、确⽴算法解释规则、限定技术应⽤空间及构建司法商谈机制等多个程序⼊⼿,促使智慧司法健康发展。
关键词:司法要素限缩 算法⿊箱 机械司法 数据鸿沟 司法商谈机制
伴随着技术发展对于司法的渗透与冲击,技术也在重塑着司法活动,智慧司法时代已然来临。“⼈⼯智能在司法领域的应⽤正是实现司法推理定量化、过程精细化、⾏为规范化,使司法活动更加科学、公正、规范、⾼效的有效路径。”智慧司法在构建之初即展现了强⼤的功效,譬如它可以弥补⼈类缺陷从⽽增强
司法能⼒,优化司法参数评价从⽽促进“类案同判”,推⾏全程留痕从⽽减少司法恣意等等。但是,世界上没有完美的技术,智能技术在司法应⽤中有其原⽣性缺陷产⽣的局限性,⾯临着各种现实难题。如何破解这些难题,促进智慧司法的健康发展,需要法律⼈持续⽽深⼊的研究。
⼀、智能技术司法应⽤的局限性
智能技术在司法领域的应⽤,为司法活动带来重⼤发展与创新的同时,也显现出⼀定的局限性,这导致智慧司法从源头开始就不可能尽善尽美。
(⼀)概率建模下的司法要素限缩
司法智能化其实就是对既有的司法裁判进⾏概率建模 , 归纳出能够体现同类案件处理的共性与标准的司法要素,辅助法官办案。“司法裁判并⾮单向度的推理 , 它在本质上是⼀种向着普遍实践论证开放的复杂活动,即向着道德、伦理和实⽤性理由开放。”⽽智能技术是⽆法涵摄复杂的司法裁判的全部过程和全部信息,概率建模使得司法裁判在信息化、智能化的操作之下简单化、扁平化,导致潜在的“司法要素限缩”。这是由⼏⽅⾯原因造成的:
⾸先,概率建模需要从相对标准化的司法⽂书中提炼共性,进⽽确定类案同判的统⼀标准。但是,在司法实践中,真正意义上的标准化司法⽂书是有限的,不同层级、不同地域、不同法院、不同法官所
制作的司法⽂书往往各不相同,导致司法⽂书并不能真实反映司法裁判规则与裁判经验。其次,司法裁判是⼀个相当复杂的集合体系,不仅涉及司法过程中的案件事实、法律规范的点状集合,⽽且涉及政策、经济、伦理和道德等⽅⽅⾯⾯的多维度的要素集合,这些要素往往以⼀种“只可意会不可⾔传” 的形式渗透于司法裁判中,影响到法官的主观判断及最终的司法裁决结果,这也会造成概率建模对于案件的情境信息和隐藏信息的涵摄不⾜。最后,司法要素之间还存在复杂的组合⽅式,关于司法要素如何筛选、位阶顺序如何划分,以及权重⽐例如何分配,并不是仅靠单纯的数据累加或简单的因果逻辑就能够完成的,它们需要⼈类的理性与感性的结合来作出主观判断。这需要法律专业⼈⼠先将相关领域的知识汇总、梳理,进⾏信息化描述,构建成精细的法律知识图谱喂养计算机。显然,当前我们在这⼀层⾯的⼯作是极度⽋缺的。
什么叫差动保护
既然司法要素是被限缩的,那么智能化辅助系统就不可能实现在充分的数据整理、类分与解析基础上进⾏有效知识图谱建构与情景模型训练,会消减其在司法裁判过程中的价值。
(⼆)裁决算法的价值偏见
司法活动是⼀种法律治理⼿段,遵循的是社会共识的逻辑,⽽技术治理遵循的是⾃我偏好的逻辑。“价值观和欲望会影响我们的选择,包括我们选择去搜集的数据和我们要问的问题。⽽模型(算法)正是利⽤数学⼯具包装出来的各种主要观点。”裁决算法的价值偏见存在以下⼏种情形:
第⼀,算法赖以运⾏的数据库、分析参数及预测模型等都是由⼯程师、程序员完成的,⽽这⼀过程缺少必要的检验和价值权衡。因此,当⼯程师、程序员将其内⼼的偏见与价值观贯穿于程序设计中时,算法决策也会存在价值偏见。呈现在司法⼈员⾯前的,可能是已经被算法固化的偏见性数据。第⼆,从⼈类趋利避害的本性来说,在多种算法可以选择的情况下,智能服务商⼀定是倾向于选择更有利于⾃⾝利益的算法,以便更好地控制智能算法系统,维护其后期经济利益。并且,出于对私利的考虑,智能服务商也有可能在明知算法存有漏洞⽽可能导致偏见的情况下,仍然将其作为合格产品
并且,出于对私利的考虑,智能服务商也有可能在明知算法存有漏洞⽽可能导致偏见的情况下,仍然将其作为合格产品交付司法机关使⽤。第三,裁决算法是在⽤过去预测未来,它所依赖的是已有的案例数据。社会⽣活是纷繁复杂的,新的⾏为模式、新的商业⽣态、新的⽣活观念、新的司法问题不断涌现,但是裁决算法基于其“机器”的本质,没有⽣活经验及感性思维的固有缺陷,⽆法做出准确的应变,旧的裁决算法在适⽤新的案件事实时就可能产⽣价值偏见。第四,基于数据不统⼀、不完善造成的算法偏见。中国经济发展不均衡导致了互联⽹覆盖的严重不均衡,这就直接造成了数据信息的不统⼀、不完善。经济发展落后的地区因为互联⽹应⽤有限,相关案件资料不完善,且同类事实与经济发达地区的司法裁决结果也会有明显差异。不全⾯的数据必然会导致裁决算法的偏颇、适⽤于特殊地域显现出不合理性。
由此,当智能系统执⾏裁决算法时,所获得的有关权利义务分配、法律责任分担等决策结果,可能在
形式上符合程序正义的要求,但在实质上与法律原则、价值等精神内核完全相左。
(三)裁决算法⿊箱
智慧司法备受质疑的⼀点就是裁决算法不能透明化的问题。通过裁决算法分析得出的结论,如何给予当事⼈和律师相应的知情权及进⾏抗辩的权利,使当事⼈及其律师能够清楚司法⾓⾊所认可的裁决算法的逻辑并有针对性地发表抗辩意见,是程序正义和实体正义的共同要求。但是,现实的情况是,裁决算法的透明化存在着很⼤的局限性,⼀是因为智能服务商基于商业秘密的保护,不愿意对外公开裁决算法的内在逻辑、源代码;⼆是基于现有的专业技术⽔平,智能服务商很难将算法的内在逻辑、源代码充分转化成⾃然语⾔或可视化技术直接向当事⼈和律师公开。这就造成了“裁决算法⿊箱”的存在,当事⼈及其律师只能看到算法的决策结果,却⽆从知晓算法决策的程序和逻辑。裁决算法⿊箱直接限制了当事⼈的知情权和抗辩权,很显然,这是对司法正义的严重悖离。
司法唯有在阳光下运⾏才有可能避免司法腐败及司法恣意 , 司法正义只有看得见才可以获得当事⼈和社会公众的尊重与信服。因此,裁决算法⿊箱的存在,必然会影响智慧司法的公信⼒和权威。
⼆、智慧司法的现实难题
智慧司法基于智能技术在司法应⽤中的局限性,也会⾯临诸多现实难题:技术与司法耦合的难度、智慧司法的风险。
(⼀)技术与司法耦合的难度
绝对大牌1. 数据采样的有限性
“数据的可靠性,须以真实、完整、有⽤为基础,也即⾜以反映司法规律、契合办案需求、具有实现形式正义与实质正义相统⼀的效果。如此,才能符合⼈⼯智能对数据的基本要求。”司法智能的开发与模型的建⽴依赖于司法数据的充分与全⾯,存在海量的司法数据是必要前提之⼀。“⽬前,我国司法领域⼈⼯智能技术开发的数据基本来源于中国裁判⽂书⽹上的裁判⽂书。但中国裁判⽂书⽹是 2014 年才开始正式启⽤的,上⽹的裁判⽂书数量可能只有审结案件的 50%。”这就造成了司法⼤数据的来源不⾜,因为绝⼤多数的法院并没有设置专门的机构和专业的⼈才汇总司法裁判⽂书,导致司法系统内部仍然隐藏着⼤量的司法裁决⽂书并没有被转化成数据信息。⽽且,这些被公开的司法裁决⽂书也存在部分制作错误、不规范⽽不能被有效利⽤的情况。
黑蚂蚁论坛关于司法⽂书的公开范畴也是有限的。⽬前仅有司法裁判⽂书、庭审笔录等被纳⼊数据库中,还有⼤量的司法相关⽂件并没有被列⼊公开范畴,例如审判委员会的会议纪要、合议庭会议记录、法院的审结报告等。但这些⽂件往往直接体现了司法⾓⾊的法律思维和逻辑判断,对于司法⾓⾊如何定罪量刑、如何达到裁判结论的法律逻辑和考量都有深⼊的剖析,是司法裁判不可或缺的参数要素。
关于法律规范的公开范畴同样也是有限的。除了法律、法规、司法解释等,实践中存在⼤量的会议纪
要、政策⽂件、⾏业规则等司法⾓⾊作出裁决的重要依据,⽬前没有被列⼊⼤数据采样范畴。数据采样的有限性还有⼀个原因是基于案例规则的流动性造成的。在司法实践中,案例规则的位阶顺序并不是⼀成不变的,有的会升格为更⾼位阶的规则,有的会转化为位阶相同的规则。被升格或转化后的案例规则,必然会对原有的司法数据组成、司法建模造成⼀定的影响。
2. 司法要素抽取的⾼难性
智慧司法的“⼤数据中⼼”,是通过对司法要素的抽取,转化成数据信息,构建成司法系统内部的数据资源库和知识资源体系。但是,司法要素的抽取具有现实的⾼难性,技术语⾔如何与法律语⾔⾼度衔接,如何把司法要素抽取出来转变成机器可以识别的数字代码,是现实需要解决的问题。
第⼀,⼈⼯智能系统并没有深度思考法律语⾔的特性对于智能技术的特殊要求。举例来说,⾃然语⾔识别技术(NLP)就⽆法完全适应司法领域的需求。法律语⾔与普通的⾃然语⾔的含义有所差异,基于概括性、准确性的⽬标诉求,它通常是⽤⼀种模糊的⽅式定义和描述⼈类的⾏为。如果不将这些模糊的法律语⾔转化成规范的技术语⾔——数字代码,以
常是⽤⼀种模糊的⽅式定义和描述⼈类的⾏为。如果不将这些模糊的法律语⾔转化成规范的技术语⾔——数字代码,以数字化结构且可识别的数据形式逐⼀“喂” 给计算机,以便机器识别和处理,那么就⽆法实现真正意义的⼈⼯智能司法决策。
第⼆,⽬前的⼈⼯智能在对不确定性和模糊性的素材处理⽅⾯也是有技术壁垒的。以 206 的证据规则校验功能来说,⽬前的⼈⼯智能对⼿写体、签名捺印的识别率不⾼,对于图⽚的辨析度不够,仅能够识别数量,⽽⽆法识别同类图⽚。
第三,另⼀亟待解决的技术难题是⼈⼯智能“⽬前主要以逻辑学加持,⽽⾮数学加持,这种基于逻辑学驱动的法律 AI 研究缺乏实践操作性,⽽真正的法律 AI 应⽤需要⽤数学计算这⼀硅基本质的⽅式来解决法律具象问题,⽽实现这⼀点⽬前还相距甚远”。
第四,就司法实践⽽⾔,除了显性的司法要素之外,还有⼀些隐性的司法要素,对于隐性司法要素的抽取更是难上加难。“法官的某些价值取向、主观偏好、司法潜见、偏见、实践经验,甚⾄性别、年龄、学历、个性等事实上也与案件处理结果有关。⽽对这些信息的收集、整理,再强⼤的⼈⼯智能也尚需时⽇,⾄少不⼤可能从现有判决书中抓取出来。”
第五,公检法数据库能否有效衔接所引发的司法要素的统⼀性问题。公检法基于其职业⾓⾊不同,逻辑思维不同,必然导致其数据系统存在不同的设计理念。不同的设计理念就意味着不同的司法要素产⽣,如何进⾏有效整合与衔接,为司法裁判所⽤,这也是智慧司法需要解决的技术与理念问题。
如果不能将所有必要的司法要素抽取出来并转化成数字代码,则必然意味着⼤数据、算法的基础是不可靠的、不精确的。
(⼆)智慧司法的风险
智能技术在提⾼司法⾓⾊的决策能⼒、司法决策的精确性的同时,也裹挟着巨⼤的风险,这些风险很可能会冲击司法权运⾏的根基,影响社会公众对于智慧司法的接受与信服。
1. 算法决策下的机械司法
据研究,算法的⾃动化决策系统能够以微妙⽽有效的⽅式塑造使⽤者的感受和⾏为,破坏个⼈的独⽴判断⼒。“有时即便存在系统不准确的证据,算法控制者仍然会相信这⼀⾃动决策系统⽣成的评估结论。”因为,“我们中的⼤多数⼈都
是‘认知的吝啬者’——多愿选择只需付出最⼩认知努⼒的路径甚或选择相信直觉⽽放弃对每项决策进⾏系统分析。”在⼤量的数据⾯前,司法⼈员容易对算法决策结论产⽣盲⽬迷信,如传统司法对于鉴定结论的盲⽬信赖⼀般,从⽽导致司法⼈员的能动性法律判断的弱化。⼀是因为⼈类天⽣的“懈怠”⼼理,司法⼈员不愿意花费时间、精⼒对算法决策结论再进⾏充分的反思与检验;⼆是“推卸责任”⼼理,基于算法决策作出的判断与决策更容易减少司法⼈员⾃⼰承担责任的风险性,因此司法⼈员更倾向于对算法决策采取“顺⽔推⾈”的策略;三是技术专业知识不⾜,导致司法⼈员不能或很难发现算法决策的隐性纰漏。
对于算法决策的盲信和盲从,就会导致“机械司法”。司法裁判中的事实认定,其实是⼈类的先天知性能⼒对于外在世
界“杂多”的“统合”问题。⽽⼈⼯智能没有亲历社会的变⾰过程,仅凭部分数据与算法规则是⽆法与⼈在复杂的社会关系中、社会变迁中形成的知性能⼒相⽐的。具体的法律适⽤都是与语境连在⼀起的,离开语境因素,规则判断就会变得僵化,必然会导致“机械司法”。
2. 司法过程中的“数据鸿沟”
数字信息鸿沟是⼤数据领域内的⼀种“贫富差距”的体现,“是指在信息社会中,不同国家、地区、⾏业的⼈由于对社会信息资源占有和使⽤程度的不同⽽造成的‘信息落差’和‘知识分隔’。”数字信息鸿沟其实就是数据鸿沟,它可能会导致社会的进⼀步撕裂,阶层划分的进⼀步固化,甚⾄导致既有“不公平”的加剧。
在智慧司法时代,司法场域会呈现出严重的“数据鸿沟”现象。这种“数据鸿沟”是基于技术知识资源分配不均衡导致的。在这种关系之中,算法控制者(⽆论是司法机关还是智能服务商)与普通的个⼈之间已经形成了⼀定程度的不平等。“在这样的场景中,算法控制者经其掌控的算法从⽽对个⼈了如指掌,但反过来,算法于个⼈⽽⾔却是‘⿊箱’,这将导致个⼈与算法控制者之间权⼒与信息显著的不对称。”由于算法的复杂性和神秘性,对于技术知识资源占有不同⽐重的主体在⾯对司法活动时的强弱差
距就会很明显地表现出来。在司法领域中,公权⼒与私权利的司法资本原本就分配不均衡,⽽数据信息对于司法领域的介⼊,加剧了这种不均衡的现象。就公民个体⽽⾔,他们只能了解到⾃⼰⾯对⼤数据信息、算法规则可能会承受什么样的法律结果,但对于哪些数据是被算法规则利⽤的,是如何影响司法裁决结果的,不得⽽知或者⼀知半解。
针刺事件这种“数据鸿沟”⼀定程度上削减了公民个体的程序权利,也必然影响着公民个体实体权利的⾏使。⽽且,司法机关依靠⼤数据、算法等数字信息技术的全⾯装备,将公民个体置于司法权⼒的控制之下,⽽公民个体却难以有效地运⽤⼤数据来维护其私权利,即很难通过数据抗辩来制衡司法权的运⾏。因此,数据信息的不均衡会成为法律主体之间强弱分化的鸿沟,可能造成新的“不公平”现象。
3. 技术司法应⽤的边界
近年来,在智慧司法的构建过程中,智能技术扮演着越来越重要的⾓⾊,渗透到司法活动的各个环节,譬如证据规则指引、单⼀证据校验、逮捕条件审查、社会危险性评估、类案推送、量刑参考、案件评议、减刑假释案件办理等。越来越多的司法机关建成强⼤的信息系统,开发出更加智能的软件来代替传统的司法审理活动,甚⾄做出裁判。
数值孔径
但是,司法活动本质上是对于⼈类实践理性的具体应⽤,⽽“实践理性并⾮某种单⼀的分析⽅法,甚⾄也不是⼀组相关联的⽅法。它是⼀个杂货箱,⾥⾯有掌故、内省、思想、常识、设⾝处地、动机考察
、⾔说者的权威、隐喻、类推、先例、习惯、记忆、‘经历’、直觉及归纳……”这就意味着,司法不可能成为纯粹的技术,过分地应⽤技术会引发司法根基的动摇。因此,⼤数据、⼈⼯智能等技术在司法领域的应⽤,边界如何划分?禁区如何设定?都是值得我们思考的问题。
三、智慧司法难题的破解路径
对智慧司法所⾯临的现实难题进⾏深⼊的研究和有效回应,共同寻破解路径,是法律职业共同体乃⾄全社会的共同使命。
(⼀)设置算法的论证程序
算法会在⼀定程度上抑制司法⼈员的恣意,增加法律适⽤的统⼀性⽽减少偏见。但与此同时,算法也可能带来偏见并挑战司法正义。因此,在⼤数据、算法等智能技术设计过程中,应当通过必要的程序输送社会共识和司法价值理念,并有意识地将其融⼊智能系统的设计中,影响价值偏好、逻辑规则的设置,加强对智能技术应⽤的法律规制与伦理约束。
⾸先,应该建⽴⼤数据、算法规则事前评估机制。以严格的程序规范从数据收集、信息挖掘到算法编程等⼀系列⼈⼯智能的基础⾏为,有效保障算法规则的合法性和合理性。评估委员会应当有技术专家、法学专家、社会公众代表等相关⼈员的参与,如此才能够增强算法规则的透明度与合理性,也能
帮助公民个体详细地了解算法决策的运作机制。社会公众在参与评估算法规则设置,了解数据的来源、数据被算法规则使⽤或排除的标准、各种数据被赋予的权重⽐例等具体细节后,就可以理性地审视算法规则的公平性与合理性,也更容易接受算法裁决结论,维护司法权威。
其次,应该建⽴算法决策审查与检验机制。在智慧司法备受瞩⽬的今天,不仅要保证社会公众对于算法规则设置的⾼度参与,也应建⽴算法决策审查与检验机制来确保关键流程的透明化、可控性与可追溯性。深度的⼤数据、算法应该经过相关领域专家反复的论证,并注重通过持续的审查与检验确保其有效更新,使算法决策尽可能不受偏见和⽆意识歧视的影响,以保障其符合司法价值的内涵。
(⼆)嵌⼊案件纠补机制
在司法活动中运⽤⼤数据的同时,必须重视可能建构新的裁判规则的罕见的独特性案例。在既往的司法实践中,有不少通过⼀个案例改变整个审判规则乃⾄法律规范的情况(⽐如孙志刚案),不能让这样的独特性案例淹没在“⼤数据”的海洋中。
从实践⽽⾔,构建司法模型是以归纳相关案件的共性为前提的。有些案件确实可以⽤数据模型来标准化,从⽽简化诉讼程序。但是实践中还有很多复杂的、独特的案件,这些案件的背景因素、案件起因、⾏为模式、社会影响等有所差异。过分强调数据标准化必然会导致具体案件的差异性、复杂性被忽略。“相当数量的⾮类型化案件或者案件的⾮类型化因素,是可能形成的、统⼀的智能算法实际难以
适⽤的领域;对⾮类型化案件的司法裁决,⼈⼯智能⾄多具有辅助的作⽤。某种程度上,正是司法活动的规律、司法判断的特点,客观决定了⼈⼯智能在司法领域的作⽤空间或实际禁区。”因此,智能技术在司法裁判系统的应⽤,既要坚持内容与⽅法的开放性,也要在技术标准化的框架下谋求个别性、特定性的⽣存空间,嵌⼊案件纠补机制,以防⽌引发个案的不公平、不正义。
(三)确⽴算法解释规则
知情权与抗辩权是公民对抗司法权运⾏的基本权利,是程序正义的必要构成。但在算法决策中,当事⼈不知道决策的依据、各种标准的数据加权以及决策遵循的价值判断,⽽这些都与公民利益切实相关。因此,需要完善算法的解释规则,
据、各种标准的数据加权以及决策遵循的价值判断,⽽这些都与公民利益切实相关。因此,需要完善算法的解释规则,从制度上防范和化解智能技术的复杂性、机械性和不确定性风险。“当相对⼈对算法得出的⾃动化决策存疑时有权请求制定算法及使⽤算法的数据控制者进⾏解释说明,甚⾄可以要求在消除歧视因素后重新进⾏⾃动决策。”我们可以参考欧盟《⼀般数据保护条例》第 71 条之规定,在这⼀条款中,欧盟明确提出了算法“解释权”(right to explanation)概念,即 “数据主体有权获得⼈⼯⼲预,表达其观点,获得针对⾃动化决策的解释并提出异议的权利。”
即便是根据最先进的技术编写的代码或构建的模型也有可能在某些情形下失灵,或者存在与个别案件
的不兼容性。如果不赋予那些受算法决策不利影响的当事⼈寻求⼈⼯⼲预、获得解释的权利,很难保证他们受到公平或公正的对待。“如果我有更正权,那么我就需要看得出错误;如果我有权反对歧视,那么我就需要知道哪些要素被⽤于决策。要不然,信息不对称就会使这些重要的法律权利变得毫⽆意义。”因此,应当赋予当事⼈提请“算法解释”的抗辩权,意在让受算法决策影响或⽀配的当事⼈有机会在充分知情的情形下主张⾃⼰的权利。
在规范层⾯,⾸先,如果公诉机关要使⽤⼈⼯智能辅助量刑制作量刑建议书时,应当明确告知被告⼈及其辩护⼈,让他们能够充分了解系统量刑的可能结果,并提出相应的抗辩意见;其次,在审判中,如果法官要使⽤⼈⼯智能辅助量刑系统,也应当明确告知被告⼈及其辩护⼈,他们拥有是否使⽤⼈⼯智能辅助量刑系统的决定权;再次,“必须载明所使⽤的⼈⼯智能辅助量刑系统的开发商,在对量刑系统的科学性产⽣有效怀疑时,可以通过专家辅助⼈的⽅式对系统原理进⾏质询、作证;系统开发商有义务对其量刑系统的⼯作原理、逻辑和科学性提供证明,以免部分技术精英有意牵引司法运作,企图重塑我国司法权⼒分布”。
(四)限定技术应⽤空间
对智能技术不加节制地过度适⽤,会在⼀定程度上挤占司法裁量的空间,有违司法权的本质,同时可能会导致私权利的受损。因此,在⼤数据、算法等智能技术适⽤于个案时,不但应注意必须通过合法
的司法程序,更应该怀有警惕,可以通过对特定事项、特定主体或刑罚等设置禁区的⽅式来保护相关法益,设置风险的预警、隔离和熔断机制,及时对⼤数据、⼈⼯智能的应⽤风险做出应对。⾸先,明确智能技术在司法决策中的辅助地位,司法⼈员应当避免陷⼊对智能技术、⼤数据的盲从和依赖。其次,合理限定智能技术的应⽤空间。第⼀,考虑案件的复杂程度及量刑幅度。案情⽐较复杂、量刑可能⽐较⾼的案件不宜使⽤算法决策系统。第⼆,考虑被告⼈的意愿。被告⼈明确表⽰不得选⽤算法决策系统的,应尊重被告⼈的选择。第三,若被告⼈不认罪或辩护⼈明确要做⽆罪辩护的案件,也不宜先使⽤算法决策系统,以免出现未判先决的情形。第四,需要重点进⾏价值判断的事项不宜使⽤算法决策系统。第五,对于技术尚不成熟的领域,智能技术应谨慎介⼊。
mlssa
(五)构建司法商谈机制
“复杂的程序设计、⾼深的法律⽤语及加重的诉讼风险,阻隔了⼈民众对司法供给的接近,法官由‘慈母’转化成了‘官僚’,⼈民的司法正‘远离’⼈民⽽去。”为了避免智慧司法远离⼈民,加剧司法的霸权主义和官僚主义,司法机关需要与其他司法参与主体、社会公众展开商谈与合作,以保证智慧司法的公平正义、安全可靠。算法⿊箱所引发的偏见问题是多维度、多层⾯、多领域的,这就需要在司法活动中兼顾好私权利的保护与科技创新之间的平衡。因此,“差异和分歧的出现是正常的,关键是要针对差异和分歧建⽴有效的对话、冲突化解与分歧协商机制。”推⾏司法商谈机制,让社会公众的司法话语理性的进⼊司法场域,保障公众舆论与司法运⾏的良性互动,提⾼司法裁决的公信⼒就⼗分的必要。
司法商谈机制的本质是所有司法参与主体就司法要素、参数等相互交流观点,进⽽拓展思维视域,最终对法律事实的确定、法律规范的适⽤及司法裁决结果达成共识。这些不能完全依赖于智能技术,⽽是需要司法参与主体在司法活动中的通⼒合作,这也是司法商谈机制的意义所在。
四、结语
我们必须清醒地认识到,智能司法时代的来临,其内涵价值并不在于完全取代⼈类法官的⼯作,⽽在于更好地发现司法智慧、司法共识,并有效地使⽤它们。智能决策的内涵价值也不仅在于优化司法治理,还在于更好地保障公民的司法⼈权,实现法律⾯前⼈⼈平等。因此,智慧司法需要将私权利进⾏合理的安放,司法效率的获得绝不能以私权利的损害为代价。因为司法活动并不是僵死的规则体系的适⽤,⽽是秉承⼈⽂关怀进⾏的判断性智识活动。在推进智慧司法改⾰进程中,我们需要保持理性的思维,在欣喜地承受智能技术带来的效率、司法能⼒提升的同时,也要适度规避智能技术所带来的价值偏见、数据鸿沟等风险,以保障智慧司法的健康发展,早⽇实现司法现代化。

本文发布于:2024-09-22 02:01:11,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/683117.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:司法   算法   数据
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议