欢迎访问温州社科网!
当前位置: 您当前的位置 : 温州社科网  ->  社科普及  ->  科普知识  -> 正文科普知识

人工智能时代的司法建设

分享到:
发布时间:2017年08月10日 来源:中国社会科学报

  2016年5月18日,国家发改委、科技部、工信部、中央网信办四部门印发《“互联网+”人工智能三年行动实施方案》,结合人工智能和互联网两大技术领域。2017年4月20日,最高人民法院印发《最高人民法院关于加快建设智慧法院的意见》,指引法院管理信息系统的智能平台建设工作。伴随着这些文件的发布以及司法实践的发展,我国司法工作开始进入人工智能时代。

  实际上,碎片性的、尚未系统化的人工智能早已应用于司法工作。依照其最基本的含义——“使机器从事原本需要人类智能方可进行的工作”——案件检索系统和案件信息管理系统便是典型体现,而法律法规电子资料库更是成为全体法律人的必备产品。它们提高了司法工作效率、节约了司法资源,构成智慧法院建设的前期基础。只不过,在谈及“人工智能”这一语词的时候,绝大部分言说者和倾听者都将其和“机器人技术”杂糅在一起,进而只将具有“拟人”行为的机器作为“人工智能”的载体。这一普遍存在的观点,倾向于认为人工智能最终能够做到一切人可以做的事情,因此,在司法工作中,机器人法官对人类法官的替代,便成为一种可以预期的未来。毕竟,机器人律师、机器人教师、机器人医生都已经为人所熟知,而机器人法官所面临的技术性难题必将随着人工智能技术的发展而消解。

  “做人所能做之事”和“做人做之事”之间貌似微小的差异,却在本质上有所不同。在前者的语境中,人工智能是辅助性的,它的指向是将人从简单重复性劳动和数据计算中解脱出来,人工智能是一个客体的物,并不具有主体性。而在后者的语境中,人工智能是替代性的,它的指向不是将人从劳动中解脱出来,而是将人从劳动中排斥出去,此时的人工智能虽然不被当作一个道德上的人,但在它做特定劳动的时候,它就“是”一个“人”。如果仅从功能的角度来说,它们殊无二致,尤其是在人工智能的运算速度远高于人脑运算速度的情况下,只要算法本身不存在内在的漏洞,人工智能做某事的能力甚至会优于同等条件下人做此事的能力。可是,二者在意义层面截然不同。在前一种情况下,人工智能依附于人的行动,实施行为的决定权在人手中;而在后一种情况下,人工智能不需要考虑人的因素,因为它已经完全承担了这一事项。因此,尽管人工智能未必和“意识”相关,甚至,有极大的可能与“意识”毫无关联——“模式识别”带来的“无意识智能”已经突破了这一限定——但人类是否能够有意识地介入到“无意识智能”的领域,对于人类社会来说,意义截然相反。毕竟,在算法以及与其相关的计算能力不如人工智能的情况下,如果人的意识不能有效介入人工智能,那么,占主导地位的将是后者。2017年5月,义乌人机围棋大赛,尽管柯洁更受人瞩目,但是,人机配对赛中古力一方AlphaGo主动认输且“蓄意”乱下的行为,提醒我们关注这一意义比较的现实指向。

  欧美国家人工智能化起步较早,并且广泛应用于司法领域。但美国埃里克·卢米斯(Eric Loomis)案的进程表明,作为司法工作核心的法官,并没有清晰地认识到“做人所能做之事”和“做人做之事”之间的差异。卢米斯因偷窃枪击者抛弃的汽车而被警察误当作枪击者予以逮捕,鉴于其存在偷盗和拒捕行为,此案进入诉讼程序。基于人工智能“COMPAS”的测试,卢米斯的再犯风险极高,据此,法官裁决他服刑6年。卢米斯提起上诉,但威斯康星州最高法院支持了下级法院的裁决,并肯定了其裁定理由:人工智能“COMPAS”的风险评估是借助独立的子项和复杂的算法完成的,最终从1到10的级别评定具有中立性和客观性。这里的重点,并不在于人工智能的算法,而是法官对于人工智能的态度。毕竟,一方面,即便算法是有瑕疵的,但它可以精进,更何况,出于保护商业秘密,也无从知悉卢米斯的具体评测分析,即在这一个案上算法是否存在瑕疵。但是,在这一案件中,无论是初审法官,还是州最高法院的法官,都选择了这样一种推理路径:人工智能是无感情的,因此,它是中立而客观的,进而,它评测的结果就是中立而客观的,值得采纳。在这一措辞中,法官在两种“想象”中摇摆:一方面,人工智能是为法官所用的,它是一种辅助性工具,因此,它的结论不需要经受相对人的质证;另一方面,人工智能是作为“专家证人”的替代者存在的,它的算法比之人工询问更加具有可信度,于是,它的结论是决定性的证据。导致的结果便是,原本法官需要针对卢米斯的个案情形进行具体的判断,但他们实际上采纳了人工智能的判断却又想不承认这一点。

  这就意味着,居于判断之位的法官尽管形式上依然行使了判断的权力,但实际上并没有运用判断的权利。因为在这一判断过程中,他们拒绝了自身的判断,并没有体现出创造新知识的智识,而选择顺从于人工智能的判断。当其他人质疑这一判断时,人工智能的客观性居于前台,法官表示事实确凿,自己不需要承担任何关于事实建构的责任;当其他人质疑法官没有进行个案考量时,法官表示人工智能的结论只是一个辅助性因素,尽管是决定性的辅助性因素。于是,借助人工智能的重叠想象,法官将判断的责任归之于人工智能,并通过责任转稼的方式将自身保护起来。诚如阿伦特所言:“我们关于是非的决定将依赖于我们对同伴的选择。”尽管这些法官是有思想的,但这一思想仅仅归于活动的序列,而无法归于行动之列。只有他们自己意识到他们自我对这个问题进行了判断,但这一意识无法构成通感,因为观察他们行为的其他人认为这一判断的行动来自于人工智能,而他们实际上也乐于接受其他人的这一判断。当美国的法官作出这一选择之时,他们拒绝通过判断力将自己与当事人(即其他的人)联系起来,不再在意其他人。他们私下里便否认了判断力这种属于人类的能力,同时也就否认了法律赋予法官的重要权力。此刻,他们不再是法官,甚至,不再是一个具体的人,而仅仅是作为一个无名者而存在。

  人工智能的作用是作为判断的辅助。在这个意义上,人工智能法官确实是绝无可能的,因为,判断的权力将始终把握在法官的手中。