郑戈:如何用法律规制算法?如何用算法强化法律? ︱ 中法评(2)
问题的提出
戊戌年春节刚过,就有两则关于人工智能的新闻先后在微信朋友圈“刷屏”。一则是关于特斯拉自动驾驶汽车的,另一则是关于一款法律人工智能产品(被称为“律政界AlphaGo”)的。
自动驾驶汽车是人工智能最热门的应用领域之一,它结合了智能算法、传感器和执行器,可以说是一种有“感知”、“判断”和“执行”能力的智能产品。
其鼓吹者不仅宣称自动驾驶汽车将大大减少目前全球每年100多万的因交通事故死亡的人数,最终“将人类赶出驾驶座”,而且指出自动驾驶汽车将带来一系列生产力和生产关系方面的根本变革,比如人们可以在交通工具上工作,通勤时间不再是成本,而变成创造价值的时间,购买汽车并且让汽车大部分时间都躺在车库或停车场将被大多数人视为不明智的选择,召之即来呼之即去的自动驾驶汽车将使汽车成为24小时都在路上的共享物品,这将极大缓解交通拥堵和停车位紧张等令人头疼的城市问题。
但自动驾驶汽车真的安全吗?人们都能把自己的人身安全交托给一部由算法控制的机器吗?当这部机器导致了人身伤亡和财产损失的时候,法律责任应如何分配。这些都是特斯拉事件促使我们再三思考的问题。
2018年2月27日,央视新闻客户端报道:历时一年多的河北邯郸车主高巨斌因特斯拉的Model S自动驾驶汽车在自动驾驶状态下发生事故造成其子高雅宁死亡而起诉特斯拉公司一案有了新进展,此前一直主张“没有办法知道”发生事故时车辆是否启用了“自动驾驶(Autopilot)”的特斯拉在大量证据面前被迫承认车辆在案发时处于自动驾驶状态。
这起事故发生在2016年1月20日,是全球首起自动驾驶汽车致死事件。就在同年5月的一天,40岁的美国退伍兵、网络设备公司老板约书亚·布朗(Joshua Brown)驾驶的一辆特斯拉Model S自动驾驶汽车在佛罗里达州列维(Levy County)县的27A美国高速公路上与一辆卡车相撞,布朗当场死亡。
美国国家交通安全委员会(NTSB)的调查表明,布朗和自动驾驶系统都未能识别出这辆卡车,特斯拉直接从卡车下面穿过,车顶被掀开,布朗的头部严重受伤,直到撞到一棵树上才停下。汽车的气囊在撞上卡车时也未打开,直到撞树时才打开。
值得注意的是,这两起事故发生时,中美两国都未曾制定允许自动驾驶汽车上路的道路交通管理规则和事故责任规则。直到今天,相关的规则也仍在酝酿过程之中。
而这些事故使我们看到,智能算法操纵的汽车早已默默上路,正在与人类司机驾驶的汽车互动。事故早已先于规则出现。同时,这两起事故中丧生的司机都是退伍军人,这个特定身份或许意味着他们敢于冒险,在事故发生时他们都没有“驾驶”汽车,而是放心地把自己的安危交给智能算法。
但现实生活中大多数人都是“风险规避者”,对于不能确定是否安全的新产品,我们总是不愿意贸然去尝试。立法可以起到稳定人心的作用:虽然法律不能消除事故,但可以让人们觉得有安全保障。
这类事件引出了本文要讨论的第一个问题,即算法的法律。
我们正在进入“算法统治的时代”。越来越多的人拥有不只一种穿戴式智能设备,从智能手机、智能手环、智能眼镜到智能运动鞋、智能手套、智能服装,我们有些人生活在智能家居环境中,室内遍布着智能照明系统、智能冰箱、智能洗衣机、扫地机器人、擦窗机器人,等等。
这些设备随时随刻都在向“云端”传送着我们的各种信息,从心跳、脉搏等身体信息到消费信息、饮食习惯、活动轨迹等等。我们因此成为“物联网”时代的“量化自我”(Quantified Self)或“可测度的自我”(measurable self),我们的一举一动都留下了电子痕迹,变成可供处理、分析和利用的数据。但我们并不拥有这些数据,也无法控制这些数据,数据属于为我们提供各种服务的“大数据掌控者”。
因此,量化自我可能是一个不准确的概念,它让我们误以为我们可以借助大数据来更好地进行自我管理和自我实现。更准确的概念应该是“被强加给个人的量化身份”。
人不是数据,更不是电子痕迹的汇总,但技术正在使数据化、碎片化的得到处理和整合,形成各种各样的自动化区分、评分、排序和决策,这些活动反对来使我们的“真实自我”在社会层面变得无关紧要。
我们进入所谓“微粒社会”,我们都成为数据,并最终成为被算法所定义的人。算法权力(algorithmic power)这种新兴的权力并不把我们当成“主体”来对待,而是作为可计算、可预测、可控制的客体。
在这里,马克思和恩格斯在一百多年以前所描述的资本主义对全部社会关系的革命性改造在数字技术的帮助下以更加彻底的方式得以推进:“一切固定的僵化的关系以及与之相适应的素被尊崇的观念和见解都被消除了,一切新形成的关系等不到固定下来就陈旧了。一切等级的和固定的东西都烟消云散了,一切神圣的东西都被亵渎了。”
大数据掌控者们借助越来越智能化的算法分析和利用着我们的数据,开发着靠数据化的人类经验喂养的人工智能产品,在为我们的生活提供越来越多的便利的同时影响着我们的选择和决策,并在此过程中积累起日益膨胀的财富、技术和人力资源。
我们时常听到各种美妙的新词汇,比如共享经济,似乎我们都是这个新世界的主人,分享着它所带来的各种好处,但“共享经济其实是一种聚合经济”,它所产生的巨大利益属于聚合数据的平台或“架构”,我们都在为自己的消费付费,而我们在消费的同时也都在生产,生产着数据,但没人为我们的数据生产支付报酬,我们生产性的消费者(prosumer),“免费”使用app或其它网络服务就是我们的报酬。
由此可见,有形的自动驾驶汽车只是算法影响人类生活的一个有形的例子,而无形的智能算法已经改变了我们生产方式、消费方式和生产关系、社会关系。法律如何规制算法,解决算法所带来的主体性流失、权利损害和歧视问题?现有的立法和规制模式已经提供了一些可供参考的方案,通过比较这些方案,评析其利弊,我们可以形成一条相对清晰的思路。
第二则新闻是:专门从事法律人工智能产品开发的LawGeex公司与斯坦福、杜克和南加州大学的法学教授们合作进行了一项新的研究,让20名有经验的律师与训练好的法律智能算法竞赛,在四小时之内审查五份保密协议,找出包括保密关系、保密范围、仲裁、赔偿在内的30个法律问题点,以界定法律问题的准确和明晰程度作为得分点。人类律师平均花费92分钟完成了任务,准确率是85%,而人工智能系统仅用了26秒就完成任务,准确率高达95%。
实际上,这也不是人工智能在法律技能竞赛中第一次打败人类了。
2017年11月,剑桥大学法学院的学生们组织一次人-机法律竞赛,由112位自愿报名参赛的律师和开发法律人工智能产品的新创企业CaseCrunch的一款产品进行比赛,比赛内容是预测金融申诉专员(Financial Ombudsman)对付款保障保险(PPI)不当销售申诉实际案例的裁断,结果是人工智能产品的预测准确率高达86.6%,而人类律师的预测准确率只有62.3%。
这一类事件涉及本文要讨论的第二个问题:法律的算法,即法律人的推理和判断在多大程度上能够被算法所取代,或者说,法律职业在多大程度上能够被法律人工智能产品所取代。
这可以说是法律职业者们所关心的问题。算法能为法律做什么,取决于我们对法律思维和法律方法的理解,也取决于算法本身的发展状态。本文第三部分将重点讨论法律算法化的可能性及其限度。
信息技术革命带来了新的权力形态,导致了“算力即权力”的新现象,同时也使传统上用来抗衡国家权力的公民权利面对更隐微、更无所不在、更多元化的权力技术的侵蚀。法律是一种技艺,更是一套形塑体现人类基本价值的良好秩序的规范体系。面对新型的权力格局和权利处境,法治将向何处发展?未来的法治秩序将呈现何种面貌?这是本文最后一部分将会讨论的问题。
算法的法律
技术是导致经济-社会变革的重要变量之一,而且是不可逆转的变量。法国哲学家德布雷写道:
“
“归根到底,唯一跳出星球运转的循环意义外的革命不是政治革命而是技术革命,因为只有它们才是不复返的。有了电流后就不再用蜡烛,有了汽轮船就不再用帆船。然而有了十月革命还是回到了东正教。”
人工智能是一种正在给人类社会带来全方位的深刻变革的技术,正像所有的技术一样,它服务于特定的人类目的。但机器学习(尤其是无监督学习)结果的不可控性又使得人工智能不同于以往的技术,其中蕴涵着更大的风险和不确定性。法律应当如何规制人工智能,从而在鼓励创新的同时保护人类社会的基本价值并将风险保持在可控范围之内?
这是一个已经引起广泛讨论和立法回应的问题。
(一)创设新的法律人格
人工智能从某种意义上讲是一种能够学习、判断和决策的算法,它模仿和替代人类智能的潜质促使人们重新思考人与机器之间的关系。德国思想家卢曼指出:“电子数据处理技术已经改变了人与机器之间的关系。这种技术不能再被认为是对体力劳动的辅助,因此要求我们重新界定人与机器的关系。‘人工智能’研究体现了这种变化——甚至开始质疑将问题表述成人机关系就认知科学的目的而言是否妥当。”
对“人机关系”新形态最先作出立法回应的是欧盟。
- 《中国法律评论》2018年第4期,新雨鸣秋~2018-08-09
- 用数据说话:中国大学距离世界一流还有多远?2018-08-04
- 【征稿】《中外法学》2018年夏季论坛征稿启事2018-05-18
|
|
|
|