辽宁大学学报(哲学社会科学版>
Journal of Liaoning University {Philosophy and Social Sciences)Vol. 47 No. 4
Jul. 2019
论人工智能体的刑法定位
孙杰
(山东政法学院刑事司法学院,山东济南250014)
摘要:方兴未艾的人工智能技术逐步“飞入寻常百姓家”,但其本身社会便利与风险共生。随着人工智能 体越来越像人,对传统人类法律的秩序也带来了些许挑战。这一挑战的主要表现是,应否赋予人工智能体以法 律上的人格,使其可以承担独立的法律责任。从刑法学的视角,即能否将人工智能体视为承担刑事责任的主体。 人工智能的低层次模仿性与适用领域的非通用性注定了其无法具有人类的“主体性”,又因为其缺乏法人存在 的社会根基从而不具备拟制法律人格的社会基础。从刑事责任的本质与功能出发,作为行动主体的人工智能体 既不具备选择行动的意志自由,也不具备行为规范的理解能力,更无对刑罚的感受力,因此无法作为承担刑事 责任的主体。人工智能体的法律定位只能是“物”,刑法对于人工智能的规制策略应为重点打击滥用与恶意的设 计、研发行为,而对于过失导致的侵害则应保持克制、谦抑的品格,在鼓励人工智能发展与社会风险规制之间求 得平衡。
关键词:人工智能体;法律人格;刑事责任中图分类号:D924
文献标识码:A
文章编号:1002-3291(2019)04-0084-10
一、人工智能时代的刑法课题
人工智能(Artificial Intelligence)的概念在1956年美国达特茅斯大学的研讨会上被正式提出,这一年 也被学界公认为是人工智能学科的诞生年。所谓人工智能,一言以蔽之,即是使用电子计算机技术模拟人 类的智能。®同时作为一门学科,人工智能研究的是如何使机器(特指计算机)具有人类智能,是一门人类 智能如何在计算机上实现或再现的科学或技术。随着科学的开发与商业的刺激,人工智能技术逐渐走出 实验室而步入一般人的社会生活领域,在交通、医疗、教育、政治、经济、司法、家庭等领域随处可见:自动 驾驶汽车、无人机在不久的将来便会成为交通领域的“新成员”;智能机器人不仅可以成为医生诊疗或手 术的“好帮手”,而且可以帮助我们学习知识、打扫卫生,甚至可以陪我们度过没有爱人或朋友的周末。可 以这样讲,我们已经进人了人工智能的时代。
随着人工智能时代的到来,与之相伴随的社会风险也逐渐开始凸显,而这一风险的根源在于缺乏可 控性。当机器变得越来越智能,其逐渐具有了学习新知识、面对新情况的能力,这一点给人们带来便利的
收稿日期:2019-03-19
作者简介:孙杰,男,山东潍坊人,法学博士,山东政法学院刑事司法学院副教授,职务犯罪研究中心副主任。研究方向:
刑法学。
基金项目:本文系国家法治与法学理论研究项目“区块链技术下涉数据犯罪研究”(18SFB2018)与山东省社科规划项目
“刑事政策视野下的以刑制罪问题研究”(19DFXJ03)的阶段性研究成果,亦系山东政法学院职务犯罪研究中 心年度项目的阶段性成果。
①1956年夏季论坛中给出人工智能领域定义的提案断言道:“学习的任何方面或智能的任何其他特征可以非常确切
的描述为,可以制造一台机器来进行模拟”。参见Stuart J. Russell, Peter Norvig著,殷建平等译:《人工智能:一种现 代的方法》(第三版),清华大学出版社2013年,第851页。
第4期
孙杰:论人工智能体的刑法定位85
同时,也使得人们很难预测其下一步的行动会是什么。以在人工智能应用较为普遍的工业与交通领域为 例:2015年7月,德国大众汽车制造厂一名年轻工人正在安装和调试机器人,该机器人却突然将手伸向 他,将其摔至金属板上导致其被碾压身亡。这就是著名的“机器人杀人事件”。2016年2月,Google的无人 驾驶汽车在美国加州一处地段进行路测时,由于导航错误而反应不及,与一辆公交大巴发生擦碰,幸运 的是最终无人受伤。诸如此类的事件一方面引发了公众对于人工智能的恐慌,®另一方面也对目前的以 人类为中心的法律原则与制度提出了问题与挑战。根据我国学者的总结,人工智能对现行法律提出的 挑战体现在六个方面:机器人法律资格的民事主体问题;人工智能生成作品的著作权问题;智能系统致 人损害的侵权法问题;人类隐私保护的人格权问题;智能驾驶系统的交通法问题;机器“工人群体”的劳 动法问题〔1〕。
随着人工智能的飞速发展与广泛应用,其产生的负面作用也不断涌现:其一是人工智能技术被人类 滥用或误用而导致的社会危害;二是人工智能体借助于“机器学习”与“深度学习”技术产生了“自主”决策 而导致的社会损害。从刑法学的视角,我们始终要思考的问题是,如何用刑罚的手段对极端的侵害人类利 益的行为予以规制。对于前一种社会危害,现行的刑法规制不成问题,我们只需将人工智能体视为人类实 施侵害的手段或工具即可。问题是,对于后一种社会危害,也即人工智能体“自主”决策导致的损害我们应 该追究谁的责任?是做出行动的智能体本身还是背后的人?换言之,人工智能体应被定位为行为的“客体” 还是“主体”?不同的角色定位决定了刑法不同的规制思路。具言之,如果将人工智能体定位为“客体”,则 依然可以适用目前刑法理论上的“产品责任”予以规制,并对人工智能产品的不当设计、研发与滥用行为 在时机成熟时设置相应的罪名纳人刑法的惩治范围;反之,如果将具有一定自主学习能力的人工智能体 定位为“主体”,则势必会对我国现行的刑事法律体系进行重构,建立“自然人——
法人(单位)—
人工智
能体”的三元刑事制裁体系。相应地,从刑事责任的确认,到刑事制裁的方式,再到刑事诉讼的规则全部都 要进行重新的设计与安排〔2〕。无独有偶,此一问题在域外也面临着类似的两种规制思路的争议〔3〕。可见, 人工智能体的刑法定位问题是解决这一新课题的关键和首要任务。要回答这一问题,不仅要对人工智能 体的技术发展与工作原理予以一定的了解,对承担法律责任主体的社会基础予以考察,而且更要从刑事 责任理论的功能人手探讨责任主体的条件本文即是遵循这一思路而展开论述,本文的结论是:人工智能 体无法作为独立承担刑事责任的法律“主体”,而只能被定位为“客体”。
二、人工智能体的“非人格性”
首先需要澄清的一点是,现有观点在讨论人工智能体能否成为承担刑事责任的主体时,常常将“法律 人格问题”与“刑事责任能力问题”相混渚。如刘宪权教授主张:“发展到一定阶段的智能机器人可能超越 程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,此时的智能机器人具有辨认能力和控制 能力,因而完全可能成为行为主体承担刑事责任。”〔4]其实,成为承担刑事责任主体的前提并不是具有 “辨认和控制能力”,而是首先具有“法律人格”。法律人格先于责任能力,是前实证法的问题,而责任能力 则是建立在实证法基础之上的问题。换言之,前者是刑事立法决策问题,后者是刑事司法判断问题,二者 属于不同层面的问题,上述的观点显然是将不同层面的问题混为一谈了。其原因大概在于,我国传统刑法 理论在探讨犯罪主体这一要件时最核心的判断就是行为人是否具有刑事责任能力,以及能力的程度〔5〕。
①这一恐慌体现在两个方面:一是人工智能被大量地运用在人类需要决策的领域,且精准度远远超越人类且不断提高, 但人类却无法清楚地理解整个做出决策的过程,难以预测必然会使得难以把控和监管,因此会导致恐慌;另一方面,人类担心 电影里经常描写的那些支配乃至奴役人类的超能机器人的出现,到那一天,无疑是人类的末曰。
86
辽宁大学学报(哲学社会科学版)
2019 年
其实,承担法律责任的主体资格(即法律人格)是先于承担责任的能力的问题。只有对是否具有法律人格 的问题做出肯定的回答,才能进一步探讨责任能力的问题。
必须承认,“法律人格”不仅仅是一种客观的实体存在,更是一种社会的规范建构,是以某种实体为载 体建立在大众心理学基础之上的社会共识,并承载着一定的社会目的。换言之,能否成为某一法律主体不 仅要依靠社会大众的接受度与认可度,而且还要看是否满足一定的社会需要。因此,人工智能体能否成为 承担法律责任的主体首先取决于以下两个条件:一是人工智能体在智能水平上是否已经接近人甚至赶超 人;二是人类设计、制造人工智能体的目的为何,其中,后者更为关键。在本文看来,这两个条件目前都不 具备。另外,从满足社会需要来看,其也无法与广为接受的非自然人法律主体——“法人”相类比。下面一
一阐释。
(一)人工智能体的非人属性
需要说明的一点是,本文所称的“人工智能体”,一般说来其组成部分包含了一个传感器或其他的输 入机制、一个起控制作用的运算法则以及对外界做出回应的能力〔6〕。这三者组成了“感知一思考一行动 (回应)”的模式。并且,之所以称之为“智能”,是因为其具备一定的学习能力,不但可以利用已有的海量数 据做出决策(机器学习),而且可以在实践中收集数据并发现其规律性从而做出决策(深度学习)。®至于其 外形是否模拟成人像则在所不问。本文的观点是,人工智能体像人但不是人。理由除了人工智能体不具备 人类生命体的基本特征外,更重要的理由来自于人工智能体自身。之所以说“人工智能体像人但不是人”, 是因为人工智能体在“整体上”无法达到人类智能的水平。
其中一个原因在于,人工智能是对人类智能的模拟,但这种模拟仅仅限于较低层次的模拟,而对于较 高层次的人类智能只能“望尘莫及”。根据蔡曙山教授的观点,人类的心智和认知分为神经、心理、语言、思 维、文化五个层级,这五个层级的人类认知,是人类心智进化各阶段在人的脑与认知系统中保有的能力和 智能方式〔7〕。而人工智能就是在这五个层级上模仿人类智能,但遗憾的是,其均未能达到人类智能的水 平。越是较高层级的认知,人工智能越是逊于人类智能,特别是在高阶认知这个层级上,即在语言、思维和 文化层级上,目前人工智能是远逊于人类智能的。在一些看似简单,但需要直觉、灵感、顿悟和创造性思维 的领域,如面孔识别、直觉判断、交感交流、创新思维,人工智能的水平甚至不如一个婴儿。在文化认知领 域,更是人类智能一统天下,而人工智能则无法问津。2事实上,在高阶认知这个层级上,人工智能和人类 智能这两种智能方式是截然不同的。基于上述的原因,蔡曙山教授得出以下的论断:所谓的机器学习不过 是对人类某一认知能力的模仿,实在是没有必要觉得大惊小怪,更没有必要制造一些人为的惶恐。而且, 在可预见的未来也不会出现超过人类智能的人工智能〔8〕。
另一个原因在于,现阶段的人工智能只能称之为“专用智能”,而不能作为“通用智能”,且专用人工智 能离通用人工智能还有很长的一段路要走。“专用人工智能”就是指专司某一个特定领域工作的人工智能
① 关于“机器学习”与“深度学习”的介绍,参见[日]松尾丰著,赵函宏、高华彬译:《人工智能狂潮——机器人会超越人
类吗?》,机械工业出版社2016年,第83—108页。
②
2017年5月,由微软推出的智能机器人“小冰”出版了一本诗集《阳光失了破璃窗》,但其本身的文学性与艺术性却
不无疑问,尤其是其中有一句的表述是“多的是杀不完的人”,让人不禁倒吸一 口冷气,参见李晨赫:《人工智能小冰:在人类设 定的框架下自由飞翔》,《中国青年报》2017年6月27日,第11版。谷歌的DeepDream人工智能程序只要提供一张原图和 某位大师艺术风格的图片,就可以自动合成带有这种艺术风格的图片或作品。但是也只能说,艺术创作过程中的劳动部分被人 工智能替代了,但是成为艺术的那部分内容,人工智能不可能替代。换言之,人工智能最后就是把人的脑力给代替了,并不是把 人的创造力代替了。参见孟繁玮:《艺术创造与自由意志不能被机器取代——翟振明谈人工智能与艺术的未来》,《美术观察》
2017年第10期。
第4期
孙杰:论人工智能体的刑法定位
87
系统,而所谓的“通用人工智能\"(Artificial General Intelligence,简称AGI),就是能够像人类那样胜任各种 任务的人工智能系统。但是目前主流的AI研究所提供的产品都不属于AGI的范畴。比如,曾经因为打败 围棋世界冠军李世石和柯洁而闻名天下的AlphaGo,其本身就一个专门用于下围棋的人工智能系统。除 了用来下围棋之外,它甚至不能用来下国际象棋或中国象棋,更遑论打扑克、玩桥牌。原因在于,驱动 AlphaGo工作的“深度学习”技术本身缺乏能够自动切换工作领域的能力,即缺乏跨领域学习的能力。虽 然“深度学习”技术可以运用到其他领域中,但是这已经不是机器在学习,而是人类程序员在学习了。因 此,有学者指出,“深度学习”技术相对于传统神经元网络的这种进步,只具有有限的工程学意义,而缺乏 重大的哲学意义〔9〕。也就是说,虽然人工智能体具有了一定的学习能力,但其依然未获得如同人类一样 的“主体性”能力。
需要说明的是,本文在这里没有使用学界经常惯用的“弱人工智能(Weak AI)”与“强人工智能(Strong AI)”的说法。因为这一届分的标准是人工智能是否具有心智,即“虚拟心灵(弱AI)”与“真实心灵(强AI)” 的区别。但即使一个达到AGI的系统是否是一个“真实心灵(强AI)”本身依然是一个有待争议的哲学问 题。因此,我们不可能在这一充满争议的未决问题的基础上展开我们对“人工智能体是否具有法律人格以 及能否承担法律责任”的讨论。至于“超级人工智能(Artificial Superintelligence,即奇点®)”更是一个虚无 缥渺的概念,而且没有任何现实意义,我们可以对其进行预测与展望,这是人类的权利,但是如果将其 作为立论的基础甚至是法律制度构建的基石则如同在沙土之上建房子,必然会导致理论或制度大厦的 倒塌。
(二)人工智能体的本质是工具
那么,将人工智能体视为道德主体是否符合人类的目的?答案也是否定的。人类创制人工智能体的目 的是为了帮助人类解决自身的生理能力不足或者是满足日常的生活需要。比如,人们研制自动驾驶汽车, 是为了省去人类在驾驶汽车时的心力与劳力并提升驾驶过程的安全性与舒适性,人们发明清洁机器人是 为了省去人类打扫整理卫生的体力与精力,从而可以将时间用在更有价值的事情上。这说明了,人类对于 人工智能体的定位仅仅是为实现某一特定目的的“工具”而已,而非我们的“同类”。®
其实这个道理,我们只要对比一下人与动物的关系就可以理解了:人类词养或训练动物,除了作为 生活的食物必需品来源之外,还可以满足人类其他的需要。比如宠物可以起到情感陪护的作用,排除单 身或年老的孤独。我们也可以通过对动物的训练来完成人类的某些社会任务。比如,我们可以训练警犬 用于帮助警方侦破案件,也可以利用鸽子的特殊才能进行远距离通信一-“飞鸽传书”。在生活中,我们 处处可见“嗜狗、猫如命”的人,我们也会把“动物是我们人类的好朋友! ”这样的价值观教育给我们的下 一代。但是如果要问,他们是我们的同类吗?相信绝大部分人的回答是:“不,他们不是。”即使某些动物 权利论者一直主张,动物应具有与人相同的道德权利,因为动物也具有一定的认知能力,进而主张将动 物纳入法律规范的规制范围,作为法律的一类主体,但是到目前为止的人类立法始终未赋予动物与人
① 所谓的“奇点”,特指人工智能技术能够颠覆性改变整个人类文明的那个历史时刻点。
②
我国有学者指出:“具有辨认能力和控制能力的智能机器人不仅仅只是‘机器’而已经成为实质意义上的‘人’了,也即
可以成为刑事责任主体。既然具有辨认能力和控制能力的智能机器人可以在其独立意识、意志支配之下实施严重危害社会的 行为,我们对这种作用于社会的刑事责任主体的控制就当然应该上升到‘刑罚’的高度。从另一个角度而言,我们应当将智能机 器人理解为社会成员的一部分。”见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报》(法治论丛) 2018年第2期。这一观点最大的问题在于直接将辨认能力与控制能力等同于法律主体的必要和充分的条件了。实际上,不具 有辨认与控制能力,自然不会成为法律的主体,但即使具有辨认与控制能力也不等于其已成为法律主体。况且,人工智能体是 否具有辨认与控制能力依然是一个存有争议的问题。
88
辽宁大学学报(哲学社会科学版)2019 年
类等同的法律地位〔10〕。
(三)人工智能体不具备法人的“拟人属性”
从整个人类立法史的视角,自然人并非是唯一享有法律人格的主体。随着社会的发展法人”作为一 种与自然人并列的法律主体,逐渐得到法律制度的认可。不仅承认其可以进行各种民事交易,并承担民事 上的权利义务,而且承认可以成为犯罪主体而承当相应的刑事责任。既然法律的权利主体逐渐呈现出“没 有脸庞”的趋势,于是便有学者主张,法律能够承认单位的主体人格,那么便没有理由否认人工智能的人 格,认为智能机器人比单位更接近于法律上的人。更有学者建议人工智能体可借鉴“单位”这一主体设定 的理念,将现阶段刑法中刑事责任主体增加为自然人、单位和人工智能体。参照我国《刑法》对单位的双罚 制范型,运用有关刑法理论演绎人工智能体这一刑事主体在刑罚体系中的适用也未尝不可,只是将双罚 制处罚的责任主体运用于人工智能体与其相关的研发者、销售者或使用者这类自然人之间〔11〕。
但这一类比并不恰当,最重要的原因是,“法人”的法律人格是基于一定的社会需要而人为地“赋予” 的,是社会经济、政治发展的必然结果,在这一点上人工智能体并不具备。从民法的角度,法律制度之所以 逐渐接受法人具有独立的人格,是因为将其作为具有独立法律人格的主体对于社会发展而言具备诸多优 势。(I而从刑法的角度,法人犯罪的出现及其立法化,并不是一种简单的法律现象,而是社会结构变化在法 律上的必然反映〔12〕。并且,由于法人具有独立的财产,因而可以通过对其适用罚金进而起到剥夺再犯 能力的效果。那么,我们将人工智能体赋予法律人格,能起到促进交易的便利,合理分担风险的目的吗? 显然不能;在人工智能体尚无获得独立的财产权利的基础上,对其实施的处罚最终也会链接到自然人 主体上来完成最终的责任分配;再者,法人通过自然人的行为体现自己的主观罪过,而人工智能体自身 的行为如何体现其主观罪过,不无疑问。这些均说明了在现阶段赋予人工智能体以法律上的人格为时 尚早。相反,从法律的目的预设来看,我们对待人工智能体的立场应该是鼓励设计者与制造商设计、生 产出更符合人类需求、提供更多便利的人工智能产品,规范使用者合理使用人工智能产品,并有效地规 制、分散风险〔13〕。
因此,我们也无法通过与法人制度的类比来寻求赋予人工智能体法律人格的依据。
三、人工智能体刑事责任的功能检视
从以上的论述中,我们可以看出,无论是从人工智能的工作原理和发展水平,还是人工智能体的社会 基础,我们都不能说人工智能体具备了法律上的人格进而可以将其作为法律规制的对象。但是人工智能 体能否作为刑罚的对象,从而作为承担刑事责任的主体还需要更为具体的理由,而这些理由必须与刑事 责任的法理相结合,从承担刑事责任的根据与后果中去寻找。本文认为,不管是从刑事责任的正当性(意 志自由),还是目的性(罪责能力),抑或是后果性(法律后果),人工智能体均无法经得起检验。
(一)意志自由的检视
人是否具有意志自由,可以说是刑法理论最核心也是最为基础的争议。在历史上,古典学派与近代学 派曾因该问题而“打得不可开交”,由此形成了道义责任论与社会责任论的不同责任理论与惩罚哲学:非 决定论侧重于人在不同环境下的主观能动性而承认意志自由,而决定论则侧重于人受环境所左右的被动 性而否定意志自由。其实,关于人是否具有意志自由是一个无法证实也无法证伪的问题,因此剩下来的问 题仅仅在于,从刑法存在的意义与价值的角度,承认意志自由与否认意志自由哪一个更好〔14〕。一方面,刑
①这些优势包括:(1)有利于筹集资金;(2)有利于超越自然人的寿命限制;(3)有利于分散投资风险;(4)有利于规模化 生产。参见袁文英:《论现代公司法人制度的本体论渊源》,《兰州交通大学学报》2008年第2期。
第4期
孙杰:论人工智能体的刑法定位
89
法的存在要尊重人的尊严,即不能无视人的主体理性而仅仅将其视为惩罚的工具,这一点自启蒙运动以 来就已经得到了思想界的公认。对于现代社会而言,这已经是刑法的“底线”而非“追求”;另一方面,刑法 的存在也要满足其有效惩治与预防犯罪的社会功能,否则刑法存在的意义便荡然无存。
从上述两个角度看,显然承认人的意志自由是更为合适的。理由在于,首先,承认犯罪是行为人自身 之选择,刑罚乃是基于其自主选择而导致的“应得\"(deserved)之后果,是尊重其作为主体而非工具的存 在;其次,承认人的意志自由,使得刑罚的惩罚与预防功能更加“有的放矢”而不至于偏离方向。因为,惩罚 是一种激励措施,它可以使被惩罚者形成内心的动机,从而使其不再为恶,也可以警示其他人不要重蹈覆 辙〔15〕。据此,刑法学界普遍接受了“相对意志自由”的说法。如大冢仁教授认为:“关于成为刑法对象的人, 应当扬弃至今处于古典学派刑法学根底的作为抽象理性人的犯罪人观和近代学派刑法学所把握的作为 具体宿命人的犯罪人观,应该认识到犯罪人是具有作为相对自由主体的人格性的具体的、个别的存在。在 以这种人作为思考的基础时,可以认为行为是在行为人自由的范围内由行为人选择的东西,正是行为人 人格的主体性表现。”〔16]也因此,在现代认知科学、神经科学等学科对人的行为解释得如此精细的今天, 也没有断然地否定意志自由,也没有否定法律责任存在的意义,更没有使得现行刑事司法体系颠覆〔17〕。
可见,作为承担刑事责任基础的意志自由并非指的是人行为的作出没有任何原因(法则性),也非指 人的行为决定不受任何环境影响,而是指一种不受强制的选择可能性。据此,我们可以从选择可能性的角 度来审视人工智能体的意志自由问题。本文的立场是,人工智能体无法具有意志自由,进而也缺乏发动刑 罚的正当根据。理由在于,人工智能体的行动无法脱离(或独立)于人的控制,换言之,人工智能体对于自 身的行动没有决定权,更没有选择权!
认为人工智能体可以成为责任主体的观点往往会强调智能机器人的“独立性”或“自主性”。如刘宪权 教授认为:“人工智能产品通过学习,产生脱离程序的独立意志,具备独立思考能力。……其行为不再是设 计者或使用者行为的延伸,而是为了实现自己的意志、自主决策并自主实施的行为。”〔18〕但问题是,首先, “独立”的概念并不明确。所谓的“独立意志”是相对于谁的独立,是独立于机器的使用者,还是独立于机器 的程序设计者?人工智能体是由一系列的算法来指挥行为,算法所设计的行为完全可能是独立于使用者 的。比如,《联邦自动驾驶汽车政策》确认了美国汽车工程师协会(SAE)以“谁在什么时候做了什么”(who does what,when)为标准对自动驾驶汽车做出的六个层级的界定。这六个层级随着层级的升高,驾驶人的 任务就越少,最高的一个层级便是“自动驾驶系统可以在任何情况下像人类驾驶人一样完成所有的驾驶 任务”〔19〕。此时,我们可以说自动驾驶汽车相对于驾驶人是独立的,但如果其仅仅是按照预先设定的算法 与程序来行事,我们就不能说自动驾驶汽车独立于程序的设计者,即使设计者无法实时地对自己的“作 品”进行监管。因此,人工智能体的“意思”实际上是程序设计者的“意思\",而并非是其独立的“意思”。®
其次,所谓“通过学习而产生自己的意志、自主决策”的说法没有任何科学依据。所谓的“机器学习”是 实现人工智能的技术之一,其发展背景除了在文字识别等识别领域常年积累的基础技术之外,更多的是 依靠互联网技术所提供的海量数据。机器学习就是计算机通过对大量数据的处理,来进行对某一事情的 “是或否”的判断。比如,“猫脸识别”即是通过对猫脸的特征进行总结与提取从而找到猫的共性特征,当下 次遇到猫时,就能在瞬间将其分辨出来。据此,机器学习的关键在于“特征量”®的设计与输入,而特征量的 设计,即选取哪些数据作为特征量,这依然要靠人的大脑思维去解决。换言之,完全是由人来决定的,而非
①
我们可以考虑现实生活中常见的ATM机,程序的设计者实际上是通过编程将意思传达进ATM机之中——
“如果是
真实的银行卡,且密码正确,机器就进行相应的操作”。因此,刑法理论上便有“预设同意”的说法。参见车浩:《盗窃罪中的被害 人同意》,《法学研究》2012年第2期。
②
在输入时所使用的变量,对对象特征的定量表示。
90
机器决定的。
辽宁大学学报(哲学社会科学版)
2019 年
再次,人工智能体的行动虽具有“自动性”但不具有“主动性”,因为其并无生理上的“欲望”。毕竟,把生 命的话题撇在一边,去忧虑人工智能是否会拥有意识,这种想法是很荒诞的。从人工智能目前的发展方向 看,无论它再怎么“自动学习”、“自我改善”,都不会有“征服”的意志,不会有“利益”诉求和“权利”意识〔2〇〕。 从这一角度上说,智能机器人是无法与建立在生命体之上的生物(包括人与动物)相提并论的。
(二)责任能力的检视
在刑法理论上,“社会责任论”将责任能力定义为对刑罚的适应能力,即被科处刑罚的一种“资 格”〔21〕。这种观点从刑罚目的的角度把握责任能力的本质,有其可取之处。但是这种看法存在两个致命 的问题:一是既然是一种刑罚适应能力,那么判断其有无的时间点应该是在刑罚执行时,而非实施行为 时,这显然与我们通常的判断不符。而且,判断其能力有无的主体也不应是法官,而是刑罚执行人员;二是 这种观点完全否定人的意志自由,容易导致将人完全工具化的潜在危险。
因此,建立在相对意志自由的基础之上,责任能力应被定义为“能够理解刑法规范并实施适法行为的 能力! ” 1952年德国帝国法院将责任能力界定为:责任非难的内在根据在于人道德上的成熟,与此同时, 只要自由且道德地自我决定的能力没有受到病理等因素的影响,就认为该人具有能力决定自己实施合法 还是违法行为的意思决定,进而具有法律上负责任的能力〔22〕。据此,责任能力的本质是对行为规范的理 解能力!
那么,人工智能体是否具有对行为规范的理解能力,进而具有责任能力呢?答案也是否定的。第一,塞尔的“中文房间”思想试验,强有力地证明了人工智能不可能拥有理解力。“中文房间”的假设 如下:设想我(塞尔自己)坐在一间小屋子里,屋子的两边有两个小孔。现在有人从其中的一个小孔递给我 一些写有中文的卡片,同时我有一本操作规范,根据这些操作规范,我可以将这些卡片上的中文进行翻译 转换为另一些字符,然后将这些字符通过另一个小孔再递出去〔23〕。
根据这个思想实验,我们可以看出,虽然“我”根本不懂中文,但是“我”依然可以与房间外面的人通过 中文去交流,而且“我”可以让房间外面的人相信“我”就是一名懂中文的人。但其实“我”的所有回答不过 是根据操作规范行动的结果,而这一过程与计算机程序的运行过程极为类似〔24〕。也就是说,塞尔通过这 种“深入敌人内部”的方式论证了,人工智能只是在机械地执行程序的栗求而无法理解自身行动的意义, 即自己的行动意味着什么以及是对还是错。
第二,有人可能会觉得,如果人工智能不理解行为的意义,他是如何做出正确的行动的?我们再以战 胜围棋世界冠军的AlphaGo为例:其实,AlphaGo无非是一个具有超强计算能力的网络系统,它通过之 前搜集的海量数据与样本,计算出最佳的行动方案,然后在最短的时间内决定落子。换言之,它进行决 策的过程与人脑是相同的,只不过它的每一步都比人脑要快得多,也准得多。但是这并不能代表它准确 地理解了围棋的意义,更不能代表它可以享受围棋这一游戏带给的快乐与满足……所以李世石与其说 是输给了 AlphaGo,还不如说是输给了数学,证明其实计算机的计算能力早已甩计算能力最强的人类好 几条街而已!
第三,能否将道德伦理准则予以算法化,并进行编程输入智能机器人的“大脑”(系统)中,这样一来, 机器人不就具有了伦理是非的观念了吗?但问题在于,道德观念首先是人进行社会化的产物,没有社会的 形态就不可能有道德规范的产生,而机器人并不存在“社会”这一形态;其次是,道德观念是随着社会的发 展变化而进行不断地调整的,而输入到智能机器人系统里的被算法化的道德伦理准则却是固定的,要想 让机器人的行为始终跟上时代的步伐,就要不停地“更新、升级”系统。
因此,我们必须区分“行为主体”与“责任主体”:只要有能力实施侵害举动皆为行为主体,动物亦
第4期
孙杰:论人工智能体的刑法定位91
然;但是行为主体未必可以作为责任主体。因为,如果没有相应的能力对自己行为的是非对错予以正 确认识与评判,进而可以有效地控制自身行动动机的人,即使其行动造成了损害,也无法作为责任谴 责的对象,因为对其谴责不会达到刑罚的目的,是在做“无用功”!,对这样的人,刑罚并不是一个最优 的方式〔25〕。
(三)法律后果的检视
即使我们承认人工智能体具有独立承担刑事责任的必要,接下来的问题在于,我们选择何种刑罚措 施让其承担罪责?之所以这样说是因为我国现有的刑罚体系是针对自然人为对象而设立的,无论是作为 主刑的生命刑(死刑)、自由刑(管制、拘役、有期徒刑、无期徒刑),还是作为附加刑的财产刑(罚金、没收财 产)和资格刑(剥夺政治权利),都是针对自然人的某项利益的剥夺。其中唯一可能适用的就是财产刑,但 是在目前法律尚未赋予人工智能体独立的财产之前,对其实施的财产刑最终会转移至与人工智能体关系 密切的自然人(如设计者、编程者或使用者)身上,因此最终还是针对自然人施加处罚。
不仅如此,对人工智能体的处罚也无法实现刑罚的目的。众所周知,刑罚的目的不是对犯罪的人报应 而是预防再犯,这一预防可以分为针对已然犯罪人的特殊预防与针对未然(潜在)犯罪人的一般预防。在 特殊预防方面,由于人工智能体不具有心智与理解力,因此无法实现教育改造之效。或许我们更应该教育 的是人类如何设计与使用人工智能体而不是教育人工智能体该如何去做;在一般预防方面,对人工智能 体的处罚无法对不理解刑罚意义的潜在者形成心理上的威慑,更不可能通过刑罚促成其他人工智能体对 刑法规范的遵守。
因此,即使我们要对某一造成侵害的人工智能体施加刑罚,我们也因为无法找到适当的刑罚措施而 “束手无策”。
基于上述惩罚的难题,有学者主张,对于人工智能体的处罚不能沿用传统的刑罚措施,而应该针对人 工智能体的特殊性创制新的刑罚措施,如删除数据、修改编程、永久销毁〔26〕。但问题在于:第一,以上措施 能否称之为“刑罚”不无疑问。既然被称为“刑罚”,就要体现“罚”的本质一惩罚,即对利益的剥夺,但是 上述措施我们丝毫看不出是对谁的利益的剥夺。如同有学者论道,和人类的处罚相类比,考虑对机器人进 行“处罚”,比起法学来说,更像是科幻的主题。要想变更机器人的举止,虽然最简单的方法是更改程序,但 是,必须因为有自行学习的系统,而使得程序更改无法奏效的时候,就需要讨论能够使得机器举止发生变 化的“危险补充”。但是,为了应对这种“危险补充”,并不需要多重意义的刑罚〔27〕。
第二,上述的“永久销毁”如同人类刑罚中的“死刑”。有学者对此质疑道:“关于对AI的死刑,如果将 AI视其为与人类一样的主体,则对AI施加死刑是有违人道主义的。我们尊重人的生命权,主张废除死 刑,就同样不能对与人类具备同等地位的AI施加死刑。”〔28〕可见,主张“永久销毁”的观点表面上将人工 智能体当人,但在真正处罚的时候却没有将其当人!
第三,即使我们将上述的措施与人类的刑罚措施并列规定于刑法中,我们是否相应地在实施这一系 列的惩罚措施之前,需要经过严格的刑事追诉程序,并且赋予人工智能体如同人类一样的程序性保障(如 无罪推定、律师辩护等等)?或者我们针对人工智能体进行独立的刑事立法(包含实体与程序•),但问题是 我们是否有必要或者能否担负起如此巨大的改革成本!
四、结论
通过以上的分析与论证,本文得出以下三点结论:
第一,人工智能体的法律地位应为“物”,而非“人”,是法律行为的“客体”而非“主体”。我们万不可仅 仅因为其外观上的“类人性”与“智能性”就贸然地将其人格化,赋予其法律上的主体地位。这一做法导致
92
辽宁大学学报(哲学社会科学版)
2019 年
的后果只能是人工智能体背后的人要负更少的责任。®
第二,由于人工智能体无法成为承担刑事责任的法律主体,因此,对于现阶段人工智能体导致的侵 害,刑法的规制对象应该是人工智能体背后的人,而非人工智能体本身。一方面,将一些生产、使用人工智 能体导致侵害的行为纳入“产品责任犯罪”或“事故责任犯罪”的相应构成要件,如生产销售伪劣产品罪、 危险物品肇事罪、交通肇事罪等;另一方面,应赋予人工智能体背后的自然人(如设计者、生产者、使用者) 相应的风险防控的作为义务,违反这一作为义务则要承担相应的不作为犯罪之责。
第三,刑法应重点打击故意利用或滥用人工智能体的行为,而非过失。尤其是考虑到人工智能体的不 可控性,在未来的刑事立法中应将严重违背伦理的设计研发行为予以适当地犯罪化。而对于过失犯罪,则 应更多地保持刑法克制、谦抑的品格,在树立人工智能体的生产、使用伦理的基础上将其上升为“容许风 险”,并以“是否超越容许风险”作为评判行为人预见可能性之标准,并适当地引入“容许信赖”作为行为出 罪的正当理由。以此才能在人工智能技术的社会便利与社会风险之间寻求平衡点。
参考文献
〔1〕吴汉东.人工智能时代的制度安排与法律规制〔J〕.法律科学,2017(5).
〔2〕〔4〕〔 18〕刘宪权人工智能时代的“内忧V‘外患”与刑事责任〔J〕.东方法学,2018(1).〔3〕〔25〕〔德〕格莱斯,魏根特.赵阳,译.智能代理与刑法〔J〕.刑事法前沿.2017(10).〔5〕高铭暄,马克昌.刑法学(第七版)〔M〕•北京:高等教育出版社.2017.156.
[6]Franklin, Introduction, in: Calo/Froomkin/Kerr (eds.), Robot Law. Cheltenham, UK and Northampton, MA: Edward Elgar,
2016, pp. x, xi.
〔7〕蔡曙山.论人类认知的五个层级〔J〕.学术界,2015(12).
〔8〕蔡曙山,薛晓迪人工智能与人类智能一从认知科学五个层级的理论看人机大战〔J〕.北京大学学报(哲学社会科学版),
2016(4).
〔9〕徐英瑾.人工智能技术的未来通途刍议〔J〕.新疆师范大学学报(哲学社会科学版),2019(1).〔10〕崔拴林.动物地位问题的法学与伦理学分析〔M〕.北京:法律出版社,2012.3.
〔11〕马治国,田小楚.论人工智能体刑法适用之可能性〔J〕.华中科技大学学报(社会科学报),20丨8(2).〔12〕陈兴良.本体刑法学〔M〕.北京:商务印书馆.2001.556.
〔13〕吴习或.论人工智能的法律主体资格〔J〕.浙江社会科学.2018(6).〔14〕张明揩.刑法学(第五版)〔M〕.北京:法律出版社.2016.244-245.
〔15〕〔德〕莫里茨.石里克.人何时该负责任[A].自由意志与道德责任〔M〕.谭安奎,译.南京:江苏人民出版社.2006.59-60.〔16〕〔日〕大冢仁•刑法概说(第三版)〔M〕.冯军,译.北京:中国人民大学出版社.2003.62.〔17〕郭笑,杨波.刑事责任能力评定的神经法学观点〔J〕.证据科学,2016(1).〔19〕黄波.自动驾驶汽车交通肇事的刑法应对〔J〕.天府新论,2018(4).〔20〕翟振明,彭晓芸.强人工智能将如何改变世界?——人工智能的技术飞跃与应用伦理前瞻〔J〕.人民论坛,2016(7).
〔21〕冯军.刑事责任论〔M〕.北京:法律出版社.2017.150.
〔22〕〔瑞〕萨宾娜•格莱斯,等.陈世伟,译.若机器人致害谁将担责?——
自动驾驶汽车与刑事责任〔J〕.刑事法评论,2017(1).
〔23〕〔英〕玛格丽特.A.博登.人工智能哲学〔M〕.刘西瑞,王汉奇,译.上海:上海译文出版社.2001.73-80.〔24〕蔡曙山.哲学家如何理解人工智能——
塞尔的“中文房间”争论及其意义〔J〕.自然辩证法研究,2001(11).
〔26〕刘宪权.朱彦人工智能时代对传统刑法理论的挑战⑴.上海政法学院学报(法治论丛),2018(2).
①这一做法被称为“人形机器人陷阱”,参见[美]瑞恩•卡洛编:《人工智能与法律的对话》,陈吉栋译,上海人民出版社 2018年版,第15-19页。
第4期 孙杰:论人工智能体的刑法定位
以过失的归责间隙为中心的讨论〔J〕.东方法学,2018(3).
93
〔27〕储陈城人工智能时代刑法归责的走向—
〔28〕储陈城.人工智能可否成为刑事责任主体〔N〕.检察曰报,2018-04-19⑶.
On the Legal Status of AI from the Perspective of Criminal Law
SUN Jie
(Academy of Criminal Justice, Shandong University of Political Science and Law, Jinan 250014, China)Abstract: The burgeoning artificial intelligence technology gradually “flies into the ordinary people’s homesbut its own social convenience and risk symbiose. As AI is becoming more and more like human beings, it brings some challenges to the order of traditional human law. The main manifestation of this challenge is whether artificial intelligence should be given legal personality to enable it to assume independent legal responsibility. From the perspective of criminal jurisprudence, the challenge is whether AI can be regarded as the subject of criminal responsibility. The low -level imitation of AI and the non - universality of its applicable fields decides it not to have the “subjectivity” of human beings, and because it lacks the social basis for the existence of juridical persons, it does not have the social basis for the fictitious legal personality. From the point of view of the nature and function of criminal responsibility, artificial agent, as the main body of action, has neither the free will to choose action, nor the ability to understand the norms of conduct, nor the feeling of punishment, so it cannot be the subject of criminal responsibility. Whether from the theory of criminal law interpretation or legislation, the legal position of the AI body can only be “thing”. The criminal law's regulation strategy for the AI should focus on cracking down on abuse and malicious design, and research behavior, while the violation caused by negligence should maintain restraint, modest character, and encourage a balance between the development of AI and social risk regulation.
Key Words: artificial intelligence agent; legal personality; criminal responsibility
【责任编辑至仁】
因篇幅问题不能全部显示,请点此查看更多更全内容