郑戈:如何用法律规制算法?如何用算法强化法律? ︱ 中法评(5)
比如,在今年3月7日,谷歌大脑团队的克里斯·欧拉(Chris Olah)公布了一项题为“可解释性的基础构件”的研究成果,该成果解决了神经网络这种最令人难以捉摸的算法的可视化问题,谷歌将其比喻为人工神经网络的核磁共振成像(MRI)。如果说神经网络算法所处理的海量数据及其复杂运算过程会使人脑“超载”的话,这种可视化解释技术简化了相关信息,使算法的工作状态回到了“人类尺度”,能够被普通人看懂和理解。
谷歌还对这种“解释算法的算法”做了开源化处理,使其他技术人员能够在此基础上编写适用于不同算法和场景的解释性算法。
由此可见,法律进入算法不能靠立法者和规制者的单方面努力,而需要法律人与技术人员的合作。
正如李彦宏等人在《算法革命》中所指出的那样:
“
“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”
法律人可以向技术人员解释法律规则的要求,而技术人员可以设计出符合法律要求的算法。法律和技术都是非自然的“人工”造物,两者都服务于使人类生活更加美好的目的。
在人工智能时代,一种新的职业——法律知识工程师——正在诞生,这种职业是由能够用技术解决法律问题的人士和能够用法律服务技术发展并将技术套上法律缰绳的人士共同组成的。人工智能是能够在给定问题的前提下通过深度学习和强化学习寻求最优解的智能算法,它需要人类提出正确的问题,对错误问题的正确解答可能带来灾难性的后果。
法律就是用来划定问题域之边界的,它不能确保最佳问题的出现,但可以防止最邪恶问题的提出。
法律的算法
如何用算法来强化法律取决于人们对法律、法律推理和法律判断本身性质的认识,而统一的认识并不存在。因此,关于人工智能在法律领域之应用的讨论迫使人们回到基础性的法理学问题。
从世界上第一份专业的人工智能与法律期刊Artificial Intelligence and Law上所发表的论文来看,绝大多数是基于分析主义法学对法律的理解来讨论如何建模的文章。这一现象是由人工智能本身的认识论基础决定的,但它也使丰富的法理学讨论贫弱化。当我们用技术来解决人类问题的时候,意味着人类问题本身的复杂性和丰富性被简化了,这是一个普遍的问题。
人工智能的认识论基础是“认知可计算化”,在人工智能技术的几大流派中,符号主义试图用符号-逻辑演算来模拟人类大脑的认知和决策过程;连接主义(又称神经网络学派)试图通过人造神经网络的并行计算来建构大脑;而行为主义者则试图通过遗传算法进化出人工大脑。
它们的基础假设都包括:
(1)大脑是人类认知和智能活动的载体;
(2)认知和智能活动是一个物理-化学过程,其机理主要是神经元之间通过分泌化学递质和释放电子来完成的信息交流;
(3)图灵机可以模拟任何物理-化学过程;
(4)通过分析和处理真实人类世界的行为数据可以用机器来模拟人类的认知和决策,反过来,通过研究虚拟世界各种人工智能的详情可以把握真实世界人类认知和智能活动的基本结构和过程;
(5)一切认知和智能活动的复杂系统都可以通过各个组成部分的动态行为和整体交互作用来解释(整体主义的还原主义假设)。
- 《中国法律评论》2018年第4期,新雨鸣秋~2018-08-09
- 用数据说话:中国大学距离世界一流还有多远?2018-08-04
- 【征稿】《中外法学》2018年夏季论坛征稿启事2018-05-18
|
|
|
|