郑戈:如何用法律规制算法?如何用算法强化法律? ︱ 中法评(6)
认知可计算化,人脑功能最终可以用计算机模拟,这一认识论不仅被许多计算机专家所接受,而且得到来自脑科学家的佐证。主流的脑科学家相信,人脑是由一千亿个神经元构成的,神经元之间的连接方式决定了我们的所思所想,除了神经元之间的物理通讯机制(放电)和化学通讯机制(分泌递质)之外,我们找不到任何自我意识或灵魂存在的依据。既然如此,人类思考的过程最终可以用算力越来越强大的计算机来模拟和取代就不是天方夜谭,而是技术发展的必然结果。
比如,目前任教于普林斯顿大学的韩裔科学家承现峻在他影响甚大的《连接组》一书中写道:“据我所知,没有任何客观的科学证据来证明灵魂的存在。人们为什么相信灵魂的存在?我怀疑宗教是唯一的原因”,“你的身体和大脑与人造的机器并没有本质的区别。”
脑科学和计算机科学的结合一方面会使用机器/算法取代人脑的技术(人工智能)得到快速发展,另一方面也会使借助算法来影响和控制人类行为的技术侵蚀法律的领地。
最近曝光的大数据分析公司“剑桥分析”利用五千万Facebook用户的帐户信息帮助特朗普竞选团队量身定制地投放政治广告从而帮助特朗普在2016年美国总统大选获胜的新闻,便是一个“算法统治”的鲜活例子。
法律是一个相对封闭的自我指涉系统,其本身的形成经过了法律人的分析和加工,并在一定的权威结构内形成规则。因此,将法律编写成代码的过程不是一个对未经选择的大数据进行学习的过程,而是一个有赖于前期加工的过程。
大陆法系的《学说汇纂》和法律评注传统,英美法系的布拉克顿、布莱克斯通、肯特所做的判例整理和评注工作,都是前信息技术时代筚路蓝缕手工整理法律数据的典范。
法律的算法化有赖于法律人将法律知识转化为“可计算化”模块的前期努力。“授计算机以数据,够它用一毫秒;授计算机以搜索,够它用一辈子”的机器学习法则显然不能适用于法律人工智能产品的开发。“有多少人工,就有多少智能”的法则在这个领域体现得十分明显。这其实是法律人的幸运:我们不用担心自己被人工智能取代。但是,法律系统的封闭性和算法在其中得到应用的有限性也使得法律面对算法在影响人类行为方面的竞争时显得捉襟见肘,难以应对。
(一)法律算法化的前提条件
计算机可以处理的问题必须满足三个条件:
(1)这个问题必须可以用形式语言(理想状态是数学)来表述;
(2)针对这个问题必须存在一个算法,即程序化的指令集;
(3)这个算法必须是可编程的。当我们用计算机来处理“数值计算”的问题时,原问题和数值化后的问题是一致的,其间没有转义映射,也就不存在意义/信息流失。
而当我们用计算机来进行知识处理(比如将法律编写成算法)的时候,由于面对的问题非常复杂,就需要对知识进行符号化处理,然后用指称和解释的方法来保持和恢复计算结果的语义。知识本身便已经不是经验本身,而知识的符号化表示是对表示的表示,对符号的再符号化,其间流失的意义很难被完全恢复过来。但是,不经过这样的处理,法律推理和法律决策的过程就无法实现自动化/人工智能化。
在前面提到的1991年创刊的世界上第一份人工智能与法律专业期刊的创刊词中,该刊的编辑们指出了用人工智能来处理法律问题之前需要法律人做出贡献的若干方向,其中包括:
(1)对规范性概念及其与行动、意图和因果关系等常识性概念之间的相互关系进行符号化的表述;
(2)需要通过例子和/或样本来界定开放结构(即有多种解释可能性的)的概念,并且用如此界定的知识来推理;
(3)用模型来表示对抗式的论辩过程以及这一过程支持决策的方式。在此基础上,技术人员才能着手开展法律的算法化工作。
随着自然语言处理(NLP)技术的迅猛发展,如今的机器学习已经不需要人们先把知识重新表述为高度形式化的符号以供机器学习,但法律知识的模型化和标准化工作仍是开发法律人工智能产品的前提。在理想状态下,法律是用经验浸润过的逻辑,也是用逻辑规整过的经验。但现实的法律世界存在大量未经逻辑规整的经验,也存在许多未经经验浸润的逻辑。
法律的算法化其实是在倒逼法律人更加精准和体系化地表述法律知识,否则机器学习的结果可能是杂乱无章、任意武断乃至充满偏见的。
(二)法律算法的应用场景
在现代法治社会,法律的应用场景遍及社会的各个方面,从国家治理到日常纠纷解决,从立法到交通处罚,从学校到监狱。算法是被设计来完成特定任务的。其表现可以通过一定的指标来衡量,这些指标体现了人类在不同场景中的语境化价值选择。
比如,有的场景要求精确性:哪种算法能够更准确地识别出垃圾邮件,是朴素贝叶斯分类器还是支持向量机?有些场景更重视速度:哪种算法更够更快完成案件分类、排序,是插入排序法还是冒泡排序法?有些场景更强调节约资源:哪种算法能够用最小的资源投入(人力、带宽)完成同样的任务?
算法旨在优化完成特定任务的绩效,这些绩效的标准是由特定场景的目的决定的。算法和程序技术的先驱者高德纳(David E. Knuth)教授曾经说过:“不成熟的优化是所有罪恶(或至少是大部分罪恶)的根源。”所谓的不成熟,是指算法与目的不匹配。
人工智能算法至少到目前还不能自己生成目的(如果出现了有自我意识的追求自己目标的强人工智能,人类就更应当担心了),而必须服务于人类设定的目的,寻求给定目的情况下的手段优化。但在社会功能和制度功能高度分化的现代社会,法律系统中每一个子系统都有其功能决定的特定目的。
比如,美国现实主义法学理论家们主张法学的主要目的在于预测。霍姆斯写道:法学的目的是“预测公共暴力借助法院的工具性(instrumentality)而被触发的可能性。”卢埃林也告诉法学院学生,学习法律的“关键在于观察法律官员做什么,他们如何处理纠纷或者其他任何事务,以及观察他们的所作所为,从中寻找某种独特的规律性——这种规律性使人们有可能对法律官员及其他官员今后的所作所为作出预测。”
这是因为美国法学院是以培养律师为己任的,大部分法学院毕业生都会当律师,即使想当法官,也要先从律师干起。
作为律师,当然需要预测法官会如何判决。但如果说法官工作的目的也是预测自己或别的法官如何判案,则完全不符合现实。法院的判决是权威结构中的规则适用。大法官杰克逊尝言:“我们(的判决)是最终的,并不是因为我们不会犯错误;相反,我们不会犯错误,因为我们是最终的。”如果整个法律职业都去预测,“预测什么”就会成为一个问题。
实际上,法律是一个人为建构的决定论系统,法院的判决通过国家强制力的保障变得和自然规律一样不可动摇,既判力(Res judicata)就是人为拟制的自然力。
霍布斯曾一语道破:“权威,而不是真理,创造了法律(Authoritas non Veritas facit Legem)。”正是因为司法判断具有权威性,而权威需要有正当性基础,正当性来自于社会共识,直到有一天社会大众接受机器人当法官,认为算法比人类更加“无惧无私”,司法判断的算法化才有意义。
法律职业内部的角色分工也决定着算法在不同法律场景中的应用前景。比如,我国的法律人工智能事业主要是政府推动的,智慧法院、智慧检务、智慧政务都被纳入了国家的整体人工智能发展战略。但人工智能在涉及权威性法律判断的场合只能起辅助作用,不能取代人类做出自动化决策,否则便会产生谁来承担责任的问题。
在美国,人工智能在法律职业中的应用主要靠律师界在推动,法院对人工智能的应用保持着审慎的态度。上文中提到的Loomis案就从一个侧面反映了概率论的预测算法在美国刑事司法中的有限应用及其限度。而这种算法的更广阔应用场景是律师业。
(三)概率论的法律算法:以美国律师职业中的算法产品为例
(略)
(四)决定论的法律算法
哥德尔指出,一个系统不可能同时是内部逻辑一致的和完整的。法教义学和社科法学之间的争论也可以被视为追求系统内部融贯性与追求系统与外部环境/社会环境契合性的两种努力方向之间的竞争。符号主义的算法设计与法教义学的思维方式有着最明显的表面相似性,两者都试图在封闭的自我指涉内实现融贯性与确定性。
法律规则就是一个符号系统,它将规则和事实用文字/符号加以表述,并以一定的方法对符号进行处理,将事实区分为相关与无关,并进一步将相关事实进行合法/非法的编码处理。
早在机器学习出现之前,符号主义的编程方法就被用来开发法律专家系统,由法律专家提供法律概念、分类和推理方面的知识,由程序员将这些知识编写成计算机代码,供人们搜索法律知识,寻找法律问题的答案。早期的法律人工智能产品主要是在成文法和判例数据库的基础上根据术语使用频率等显著指标制作索引方便查询的系统。
有学者提醒我们注意不要夸大“人工智能”在法律领域的应用现状,指出:直到今天:“尽管信息技术在法律工作中的应用已经发生了很大变化,这些变化主要来自于通常的信息技术应用,比如数据处理、数据储存、检索和管理,再加上信息丰富、流动迅速和全球化的互联网通讯和联网能力。”也就是说,目前在司法领域领域应用的人工智能产品大多只是封闭的“专家系统”,而不是有自主学习能力的“人工智能”。
符号主义的核心理念就是“所有和智力相关的工作都可以归结为对符号的操纵”。既然所有的知识都可以用符号表示,而符号可以脱离它的基质,就可以让计算机学习各种符号,采用逆向演绎(即归纳)的方法来总结规则,然后再把规则正向适用于各种用符号表示的事实情境的可能性用决策树表示出来。
但符号主义的算法以对原始数据的符号化处理为前提,是一个封闭系统,并不能节省多少人力。实际上,多数法律人(包括法理学家)都没有受过将法律推理过程用符号逻辑表述出来的训练,更习惯于用含糊的、道德化的或有歧义的语词来表述法律概念和法律论证,而且将这视为法律有人性、有温度的体现。在符号主义的框架里面,我们无法教机器学会我们自己不会的东西。
但符号主义的算法可以帮助概念法学和分析法学的追随者们实现“耶林之梦”。耶林曾经做过一个梦,梦境中自己进入了专为造诣精深的法学家准备的天堂,在那里他看到了完美的、不沾人间烟火气的概念体系,每个人概念都分殊出若干子概念,如此层层递进,涵盖着所有可以想象的法律关系。
马克斯·韦伯也把这种基于《学说汇纂》(潘德克顿)理论体系而发展出的自恰法律系统视为形式理性法的理想状态,在其中:
(1)每一项具体的法律决定都是某一抽象的法律命题向某一具体‘事实情境’的‘适用’;
(2)在每一具体案件中,都必定有可能通过法律逻辑的方法从抽象的法律命题导出裁决;
(3)法律必须实际上是一个由法律命题构成的“没有漏
洞”(gapless)的体系,或者,至少必须被认为是这样一个没有空隙的体系;
(4)所有不能用法律术语合理地‘分析’的东西也就是法律上无关的;
以及,(5)人类的每一项社会行动都必须总是被型构为或是一种对法律命题的“适用”或“执行”、或是对它们的“违反”,因为法律体系的“没有漏洞”性(gaplessness)必定导致对所有社会行为的没有漏洞的“法律排序”(legal ordering)。
借助符号主义的算法,这样一个封闭的决定论系统可以变得越来越概念精细、逻辑融贯。在印刷术时代孤军奋战的布莱克斯通将法律问题分成110个类型,而万律(Westlaw)在互联网技术的帮助下雇用了数以百计的“抄写员”,将法律问题分成了数以万计的类型,编写成了Westlaw Digests。进一步的细分在人工智能时代变得越来越容易。
类比推理是另一种得出法律判断的重要推理方式。有法学家写道:“如果说比喻是语言的点睛之笔,类比就是法学语言中的头脑风暴(brainstorm)。”
在上面提到的《学术汇纂》中的问答中,法学家将“放开某物令其对他人造成伤害”类比于“主动拿出武器伤害他人”,从而将同样的规则适用于这两种不同的事实情境。普通法的遵循先例(stare decisis)原则的核心就是类比推理,要求找到正在审理的案件与先例之间的事实相似性,从而确定是否适用先例中的规则。
法律推理和医学推理都可以被看成是一种为了解决实际问题而展开的决疑术推理,这种推理实现并不给定大前提,而是从小前提(对问题事实的观察和描述)中寻找蛛丝马迹,然后关联到类型化的知识图谱之中,从而给出一个并不保证绝对正确却有助于解决问题的方案。
决疑术体现着“通过从一套核心的典型案例分类体系中获取知识来解决实际问题,借助范式和类推来组织论证”的思维方式。而类比推理正是智能算法的核心理念之一,类推主义是《终极算法》一书所总结出的五大算法流派之一。在给定案例数据库的基础上,算法很容易找出类似的事实情境并将其关联于相应的规则。“相似案件相似判决”是借助算法比较容易实现的目标。
符号主义和类推主义的算法都可以得出确定的决策,可以变成自主决策系统。但我们可以把这种机器决策作为参照,在此基础上由人类决策者作出可执行的决策。只要没有把机器的自主决策设定为自动执行,就不会取消人类决策者的判断权和相应的责任。
(五)遗传算法与政策/法律的虚拟试错
萨维尼指出:法律固然是一种“形式”(Gestalt),
“
“但法律存在于人民(Volk)的意识之中的那种形式不是抽象规则的形式,而是一种活的直观洞见(Anschauung),这种洞见揭示出存在于生活的有机整体中的法律构造,因此,当我们需要知道以逻辑形式表达的抽象规则的时候,我们便需要通过一个人工的过程把它从那种整体洞见中抽离出来,然后加以表述。”
这个“人工的过程”如今也可以用人工智能来实现。
进化是生物物种在应对纷繁复杂且不断变化的外部环境时通过自然选择并借助基因传递而优化自身结构的过程。生物进化是一种学习,不过是在漫长的时间和无数世代的生存考验中实现的学习。计算机可以模拟生物进化,在较短的时间内实现生物在漫长时间里的“学习”。
解决人类问题的难点在于我们不能拿人来做试验,或者说,虽然拿人做试验的事情在人类社会屡见不鲜,但人类不会认为这样做是正当的。但历史是一个已完成试验的资料库,其中有些试验是人类付出了数以千万计的生命作为惨痛代价的,除了发思古之幽情或恨古之怨忿外,我们应当能够从历史中学到些什么,方不枉昔人之牺牲。
马克·吐温说过一句十分机智的话:“历史不会重复,它只押韵。”正是因为历史不仅事件繁多,而且因果关系复杂,类似事件放在不同的外部环境中会产生迥然相异的结果,所以简单的线性思维以及同因必然同果的决定论思维不仅无法给我们正确的引导,反而会让我们误入歧途。
此外,往事已矣,留给我们的只是具体的人的记录,这些记录本身就是不完整的,越是同时代人的记录,越体现着记录者的恩怨情仇乃至政治图谋,因此会出现完全不同的事件描述和因果叙事。我们缺乏在人类事务领域理性地处理复杂性问题的能力,这主要不是因为人文学者缺乏科学训练,而是因为人类事务本身无法被化约为几个变量或几个参数。
但人工智能的出现使我们看到了新的希望,至少数字化时代之后的人类经验不再依靠少数几个同时代人的记录,而体现在海量的大数据中。整全数据分析将取代抽样分析,强大的计算能力能够处理无限量的变量。
同时,人类往往面对多个目标之间的冲突,实现一个目标的优化方案往往会损害乃至阻碍另一个目标的实现。以环境保护为例,单纯的环保主义者往往忽视了经济因素,未能充分理解经济发展必然需要对自然资源的耗费性利用,而试图在环境和经济之间达致某种平衡的人可能又忽视了环境成本或经济发展利益的不公平分配问题。
可持续发展需要综合考虑环境(Environment)、经济(Economy)和公平(Equality)这三个目标(3E)。面对这种多目标决策所蕴涵的复杂性,人类决策者往往因为计算能力有限或认知偏差而无法找出最优解。演进算法善于处理复杂性问题,如今已有将其用于在复杂情境中生成并测试规则设计的尝试。
未来法治
2016年12月,一件涉及亚马逊的人工智能家务助手Echo的新闻引起了广泛关注。在侦查一起谋杀案的过程中,阿肯色州本顿维尔(Bentonville)警方要求调取犯罪嫌疑人詹姆斯·贝茨(James Andrew Bates)家里的Echo在案发当晚录下的声音,这些音频资料储存在亚马逊的云端服务器里。
- 《中国法律评论》2018年第4期,新雨鸣秋~2018-08-09
- 用数据说话:中国大学距离世界一流还有多远?2018-08-04
- 【征稿】《中外法学》2018年夏季论坛征稿启事2018-05-18
|
|
|
|