互联网+人工智能全新时代的刑事风险与犯罪类型化分析

作者:高铭暄,王红 日期 : 2018-11-15



【摘要】人工智能在互联网、大数据、云计算等的共同驱动下迎来了第三次发展浪潮,并推动着传统互联网和工业物联网进一步向智能化迈进。互联网+人工智能的全新时代在深刻地改变人们的生活方式和社会秩序的同时也带来了新的技术风险与刑事风险。基于我们当下所处于并将长期处于的弱人工智能发展阶段,人工智能仍然属于“工具”和“产品”的范畴。人工智能的工具化是犯罪工具进化的必然结果,这使得部分传统犯罪的犯罪形式变得更为复杂,社会危害性扩大,由此带来了犯罪全面“智能化”的演变。人工智能产品的设计者、生产者应当履行保障产品安全的法定义务,生产不符合保障人身、财产安全的国家标准、行业标准的人工智能产品,造成严重后果的,可能触犯生产不符合安全标准产品罪。人工智能产品的生产者在知道或应当知道已经投入流通使用的缺陷人工智能产品致人损害后应当积极履行召回义务以避免危害结果的进一步扩大,否则对扩大的结果应当承担过失责任。人工智能产品的所有者、使用者应当严格遵守人工智能产品的安全操作、管理规范,未履行合理注意义务、安全管理义务,造成严重后果的,相关责任人还有可能承担相应的刑事责任。

关键词互联网+人工智能;技术风险;刑事风险;工具化;产品刑事责任

“人工智能”(Artificial Intelligence,简称AI)这一概念创造可以分为两个部分,即“人工”和“智能”,前者是指由人类制造的机器或者开发的程序系统,后者是指模拟人脑能动性的思维和智慧,简言之,即“智慧机器”。人工智能旨在研究和开发可以模拟人脑智慧的机器应用或程序系统。人工智能虽然最初是从计算机学科的范畴中分支出来的,但是现在已经成为一门广泛包括信息论、控制论、仿生学、生物学、神经科学、心理学、数学、逻辑学、经济学、语言学等多门学科在内的前沿交叉科学,其范围几乎涵盖了自然科学和社会科学的所有学科范畴,与基因工程、纳米科学并称为“二十一世纪三大尖端技术”。

一、人工智能的刑法前沿问题提出

(一)提出背景:互联网+人工智能的全新时代

1.人工智能的第三次发展浪潮

在互联网、大数据、云计算等的共同驱动下,人工智能迎来了第三次发展浪潮。2016年Google公司的Deep Mind团队研发出的Alpha Go Tools在韩国首尔举行的人机围棋大战中,以4∶1的绝对优势击败了世界围棋第一人李世石九段,吸引了全世界的目光重新聚焦在人工智能这个热门的前沿科技上。各国政府、高校、大型互联网企业纷纷加大项目政策支持和资金人才投入,以抢占人工智能技术的全球制高点。在美国白宫2016年10月发布了《为人工智能的未来做好准备》和《国家人工智能研究和发展策略规划》两份重要报告后,我国政府也于2017年7月印发了《新一代人工智能发展规划》,部署了我国人工智能国家发展战略。谷歌公司和苹果公司竞相收购最有潜力的人工智能初创企业,微软宣布投资500万美元用于地球人工智能计划,Facebook则成立了两个独立的人工智能研究实验室。中国的科技三巨头阿里巴巴集团、百度公司和腾讯科技则投以巨资分别在新加坡、美国建立人工智能应用联合研究机构和实验室,以加快推进中国的人工智能产业创新。

2.人工智能与互联网的关系

网络化、数字化和智能化是计算机互联网发展的三个阶段。从Web1.0时代的“人机互动”到Web2.0时代的“人人互动”再到Web3.0时代的“空间互动”,可以说互联网的上半场首先解决了“网络化”的问题,计算机与人、计算机与计算机、人与人之间利用Internet技术建立了相互之间的有效联系。随着网络用户规模的急剧扩张和互联网的极速发展,在线数据呈指数性爆发增长,大数据技术将在网络交互过程中获取的庞大数据信息依托云存储和分布式数据库进行管理分析和深度挖掘,实现了互联网的“数字化”。互联网、大数据为人工智能技术的应用奠定了在线平台和数据源基础,是人工智能再次崛起的三大基石之一。进入到互联网的下半场,人工智能作为主角即将登上时代的舞台。人工智能不仅使计算机信息系统升级为人工智能系统,成为智能计算机,还凭借其三大技术支撑(大数据、新算法、超级计算能力)和六大主要应用(自然语言处理、语音识别、计算机视觉、图像识别、机器人、无人驾驶汽车)将在传统互联网与工业物联网之间架构“类互联网大脑”模型。总之,人工智能技术在互联网“网络化”、“数字化”的滋养下逐渐走向成熟,反过来又反哺推动着互联网进一步向“智能化”迈进。

(二)问题的提出

1.范围的限定

人工智能根据智能水平的高低可以分为弱人工智能(Weak Artificial telligence)、强人工智能(Strong Artificial Intelligence)和超强人工智能(Super Artificial Intelligence)。弱人工智能是指具备了一定推理能力和解决特定问题能力的智能机器或者系统,由于弱人工智能的技术发展水平尚没有达到模拟人脑意识思维的程度,所以弱人工智能仍然属于“工具”的范畴,与传统的“产品”在本质上并无区别。如果说弱人工智能仅是“类人”级别的人工智能,强人工智能则属于真正意义上“人类”级别的人工智能,即强人工智能能够像人一样独立地进行认知、思考、推理、创造和解决问题等,正如电影《人工智能》中的小男孩大卫和《机械姬》里的艾娃。超强人工智能则是指人工智能已经跨过“奇点”,打破了人脑受到的维度限制,其计算和思维能力远超人类,在所有领域都比最聪明的人类大脑更智能。

显然,我们当下正处于人工智能发展的初级阶段,即弱人工智能的阶段。中国人工智能学会理事、南京大学计算机科学与技术系副主任高阳教授指出:“弱人工智能距离强人工智能还有相当漫长的一条路,我们距离图灵刻画的人工智能依然十分遥远。”因此本文仅在弱人工智能的范畴下讨论人工智能可能涉及的刑事犯罪与刑事责任问题,至于对可能产生自主意志、人格独立的强人工智能甚至是超强人工智能则不予分析评价。法律,特别是作为最严厉的、最后手段的刑法,还是应当在前沿科技的狂热中保持一些冷静和克制。

2.人工智能可能涉及的刑事犯罪问题

人工智能这一新技术革命在深刻地改变人类的生活方式和社会秩序的同时,也带来了新的法律风险与挑战。比如沙特在授予世界上首位“女性”机器人索菲亚“公民”身份后便引发了对人工智能有限法律电子人格与机器人权利的争论。对于人工智能可能涉及的刑事犯罪问题,目前刑法学界开展的研究少之又少,作为前沿中的前沿问题,仅华东政法大学法学院的刘宪权教授率先发表了《人工智能时代的“内忧”“外患”与刑事责任》和《人工智能时代的刑事风险与刑法应对》两篇新作,刘文大胆地设想了具有辨认能力和控制能力的强人工智能产品在设计和编制的程序范围外进行自主决策并实施犯罪的情形,提出了要从源头防控人工智能产品在研发和使用过程中存在的多重刑事风险的规制建议。本文也尝试着探索人工智能可能涉及的刑事犯罪与刑事责任问题,但基于我们当下所处于并将长期处于的人弱人工智能的发展阶段,认为仍然作为“工具”和“产品”属性的弱人工智能可能涉及的刑事犯罪主要存在以下两种情形:

第一,行为人利用人工智能实施其他犯罪,造成了严重危害社会的结果。在这种情形下,由于第三方行为人才是实施犯罪行为的主导者,人工智能产品仅因作为犯罪工具才直接作用于被害人,因此本文称之为“工具利用型”犯罪类型。第二,由于人工智能产品自身的缺陷,特别是智能系统的运行故障,从而导致严重危害社会的结果发生。在“产品缺陷型”犯罪类型下,虽然人工智能产品直接作用于被害人,但是由于人工智能产品作为“物”不能为此结果承担责任,因此通常情况下我们会考虑认定产品的设计者、生产者、所有者、使用者或者管理者作为危害结果的责任承担者。

二、人工智能的技术风险与刑事风险

(一)人工智能的技术风险

1.风险社会中的技术风险

自1986年德国社会学家乌尔里希·贝克(Ulrich Beck)在其著作《风险社会——通往另一种现代性》(Risk Society:Towards a New Modernity)中第一次使用“风险社会”这个表述后,“风险社会”这个词便“火”了,基于风险社会理论建构的现代社会结构模型所产生的巨大影响力已经远远超出了社会学的范畴,政治学、哲学、伦理学、心理学、法学等领域开始广泛讨论这个概念。通过该书还原风险社会中的风险景观有助于我们对风险进行准确的定位与解读。人类在早期农耕社会面临的风险主要来源于自然界,比如洪水、干旱、雷电、地震等。然而进入工业革命以后的工业社会、后工业社会,科学技术彻底改变了人类的生活方式和社会秩序。一方面,它们为人们提供了传统社会所无法想象的物质便利,将人类从自然力的奴役状态中解放出来;另一方面,它们也创造了众多新生的危险源,导致技术性风险日益扩散。除技术性风险之外,政治、经济与社会风险等制度化风险也是人类社会风险的重要组成部分,但是应当说技术性风险仍然是首要的、基础性的风险。从历史唯物主义角度分析,技术革命作为新的生产力从旧的生产关系中发展而来,反过来又推动着生产关系和上层建筑新的变革,因此所谓的政治、经济和社会风险等制度化风险其实可以视为技术性风险的泛化、延展和突变。

技术风险是以科学技术的发展为前提的,作为第一生产力的科学技术何以会引发未知性、复杂性、危害性甚至是全球性的风险呢?从人的存在这一阿基米德支点哲学考察科学技术与人类社会的关系,追问技术的本质,或许可以揭开技术风险的面纱。技术具有自然性和反自然性、人化和反人化、社会化和反社会化的本质属性,由此可以逻辑推演出技术风险的三大表现形式:第一,技术的反自然性与自然生态层面的技术风险。技术代天工以开物,往往与自然生态的自我运行相对立,例如水电站的修建阻断了鱼类的洄游造成水生态的危机,采用核裂变技术发电的核电站发生核泄露造成环境污染和辐射危害。第二,技术的反人化与人本层面的技术风险。作为工具的科学技术通常情况下都极大地改善了人们的生活,但同时也存在着“伤害倍增”的效果,最典型的就是计算机互联网的发展在增加生活便利性的同时也催生了日益猖獗的网络诈骗、网络传播虚假信息、网络侮辱诽谤、网络恐怖主义等网络犯罪。第三,技术的反社会化与社会层面的技术风险。这与泛化的制度性风险联系,例如大规模杀伤性武器(核武器、化学武器、生物武器)的使用可能会加剧贫富分化、极权主义、民族种族仇恨和极端恐怖主义等问题。由此看来,技术风险的成因除了科学技术自身的不确定性和复杂性外,最为关键的还是介入了人类的因素,人类的决策和行为作用于科学技术的运用过程之中,这才带来了技术衍生风险。从某种意义上说,技术风险是“被制造出来的风险”,即被“自身”制造出来的风险和被“人为”制造出来的风险。

2.人工智能在发展、应用过程中产生的技术风险

前不久刚刚去世的伟大物理学家、宇宙学家史蒂芬·霍金在生前的最后几年对人工智能十分关注,他曾表示:“人工智能的崛起是人类历史上最好的事情,凭借这场新的科技革命,我们或许可以挽回上一场工业革命给自然界和人类社会带来的破坏,然而人工智能在未来可能对人类生存带来毁灭性的威胁,除非我们学会如何规避、控制风险。”霍金的“人工智能威胁论”在目前的弱人工智能阶段听起来似乎有些危言耸听了,但是警惕人工智能可能产生的风险是十分必要的。

人工智能自身的风险主要是技术不足风险,即受现有技术发展水平的制约,人工智能技术自身仍然具有许多不确定性和复杂性。谷歌旗下的公司Waymo最早从2009年开始无人驾驶汽车项目的研究,为了测试无人驾驶系统的准确性还专门建立了Castle结构化测试区,通过栅栏分割设置了规模庞大的测试路口和交叉路口,然而结果证明无人驾驶汽车即便能完全掌握Castle模拟测试区所学的驾驶技能,在没有司机的情况下,仍然无法通过安全路上测试,最主要的原因还是在于发挥人类眼睛作用的多方传感器系统仍然无法对复杂多变的路况环境进行精准的感知和定位,这可能给无人驾驶汽车路上行驶的安全性带来致命性的打击。人工智能自身的风险还表现在它的反自然性。按照器官投影学说的观点,技术是人体器官的延伸,人工智能不正是机器对人类大脑的模拟吗?然而进化的同时也是退化的开始,人工智能技术可能会封闭人类的一些器官经验,造成某种程度上人类大脑或者其他器官的生物退化。

应当说人工智能技术最大的生存威胁还是在于人为制造的风险,尤其是人工智能与互联网、大数据的结合,促使人工智能的技术使用风险变得更为紧迫,由此带来的严重危害后果也更加难以防控。浙江绍兴破获的全国首例利用人工智能打码平台侵犯公民个人信息案,就是先利用人工智能技术识别图片验证码再通过撞库软件非法获取公民的个人信息。黑客杨某搭建的“快啊”打码平台运用人工智能机器深度学习训练机器,可以快速有效地识别图片验证码,轻松绕过互联网公司设置的账户安全登陆保护,给网络诈骗等网络黑产产业链提供了犯罪便利和犯罪工具。此外,霍金对人工智能的过度担忧还缘于人工智能技术向军事领域的渗透,特别是美国、俄罗斯、韩国、乌克兰、以色列等国家对“杀人机器人”的研发。大国之间展开的人工智能军备竞赛可能叩开智能化战争的大门,给人类带来毁灭性的灾难。在2017年人工智能国际会议上,上百名人工智能专家联名上书联合国,呼吁禁止在战争中使用致命的自主武器和杀人机器人,并抵制与任何国家合作研发人工智能武器的计划。

(二)人工智能的刑事风险

1.风险与危害、危险

风险社会中的风险区别于刑法规范中的危险、危害,二者不可等同视之。“风险”一词属舶来品,考究其由来,有一种说法是来源于远古时期渔民的捕鱼活动,海上的风总是会给渔民带来诸多不确定的偶然性的危险,因此“风”即意味着“险”,于是渔民在每次捕鱼之前都要祈祷神灵保佑出海风平浪静、满载而归。据能考证的词源意大利语risque本身就包含reef(暗礁)或rock(礁石)的含义,是17世纪欧洲大陆的航海术语,特指在航海中遭遇雷电、飓风等恶劣天气或者船只触礁沉没等事故。风险即未来不确定的危险,不可知、或然性是风险的特质。

然而作为刑法规范意义上的危险则是由传统概念“社会危害性”展开的,这种“危害性”包括两种情况:第一,造成实际损害(危害);第二,具有造成实际损害的现实可能性(危险)。刑法规范意义上危害必须是客观的、现实的,即实实在在造成了损害结果,但是风险社会中的风险是建构的、虚拟的。虽然贝克也强调风险的实在性,但是“它们的实在性是通过根植于前进中的工业和科学生产与研究程序的‘冲突’而喷发出来的,社会感知和结构使风险成为‘现实’”。“风险归根结底不是具体的物,它们是看不见、感觉不到的东西,它们是一种社会构想,只有当人们相信它时,它才会因此而真实有效。”正如无人驾驶汽车可能在未来使得人们逐渐失去驾驶操控汽车的能力,或者阻碍人脑和其他器官的生物进化,但是这些担忧其实都不是客观的现实状态,而仅仅是未来的一种或然性。

应当说作为可能发生危害的“风险”含义更接近刑法规范中“危险”的概念,二者都具有不确定性,即可能造成实害结果,也可能最后没有造成实害结果。风险刑法论者在“拿来主义”的风险理论语境下企图将传统刑法转向积极预防的安全轨道,这实际上是将刑法中具有规范限缩意义的危险概念外延泛化为社会学意义上的风险表现出来的过度忧虑。风险理论中所论及的技术风险,只有在满足了“侵害的现实紧迫性”这一条件下才能实现从社会学意义的风险到刑法学意义的危险的实质性跨越。“侵害的现实性”指风险可能发生的危害必须是合乎必然性的存在,或许在未出现危害结果时还不是现实的,但是根据发展的客观必然性或早或迟一定会变成现实。例如智能机器人脱离人类控制杀死科学家毁灭人类的场景只存在于科幻电影之中,事实上,智能机器人因为深度学习而产生意识思维并在自主意志的支配下实施不在人类设计和编程范围内的犯罪行为,这种风险不具有现实性。“侵害的紧迫性”是指风险可能发生侵害的危险正在逼近、非常接近、迫在眉睫或者正在发生。例如器官移植技术可能会带来非法买卖器官的风险,只有当行为人组织他人出卖人体器官,或者未经他人同意摘取其器官、摘取不满十八周岁的人的器官,又或者强迫、欺骗他人捐赠器官的,才形成对公民人身权利侵害的紧迫性危险。

总而言之,风险不等于危险,更不等于危害。在风险社会背景下分析人工智能的技术风险,最终还是为了回归到刑法的视域下讨论究竟哪些可能的风险才是具有刑法规范意义上的危险和危害。当且只有当这些风险现实地造成了损害或者具有造成损害的现实紧迫性,人工智能的刑事风险才正式拉开帷幕。

2.人工智能的刑事犯罪风险的展开

“互联网+人工智能”的全新时代,正如狄更斯所言:这是个最好的时代,也是个最坏的时代。人工智能的技术应用范围十分广泛,包括工业生产、汽车制造、通讯运输、医疗临床、教育培训、金融会计法律、个人家庭生活等各个领域。工业机器人替代流水线工人进行全自动化机械生产,无人驾驶汽车给谷歌的多个数据中心送货,达芬奇手术机器人协助医生开展高难度、更精密的手术治疗,智能律师Ross可以识别当事人的自然语言、根据自身系统的法律知识储备回答问题、提出解决方案并记录法律系统的变化,人脸识别技术应用到银行金融账户管理、铁路机场安检,甚至是大学上课签到和宿舍管理……这些人工智能真正实现了“人工智能,让生活更美好”的期许。

然凡世间物,皆有两面性。就以无人驾驶汽车为例,一方面可以减少因驾驶者错误操作或者长途疲劳驾驶所带来的交通事故,另一方面也有可能增加因自动驾驶系统发生故障或者人为入侵破坏自动驾驶系统而引发的交通事故。风险社会理论的一个重要意义是让人们重视人为制造的风险,人为制造出来的风险也正是人工智能刑事风险的主要来源。具体而言,本文认为涉及人工智能的刑事犯罪风险大致可以分为三类:

第一,直接对人工智能的智能系统实施犯罪。这是对人工智能本身实施的犯罪。人工智能的智能系统是指能够产生人类智能行为的计算机系统,所谓的智能在现阶段至少应具备自动获取信息、自动学习知识、逻辑推理演绎、应用解决问题等多方面的能力。人工智能的智能系统在本质上属于计算机信息系统的较高级别,对人工智能的智能系统实施犯罪实际上就是对计算机信息系统的犯罪。智能系统的运作过程大致可以简单地看作是“输入——输出”的流水作业,输入的是智能系统的处理对象,包括大数据和知识等,按照机器深度学习算法的方法论将存储的数据和知识通过云计算平台进行计算分析,最后输出处理结果、结论。不难发现,在人工智能的智能系统中存储了大量的数据和信息,如果这些可能涉及身份隐私、财产安全,甚至是国防军事利益的数据和信息被恶意入侵,并被破坏智能系统的犯罪分子非法获取并利用,进而实施侵犯公民个人信息、诈骗、窃取国家秘密或者其他犯罪,可能会发生严重的社会危害后果。对于行为人实施的直接针对人工智能的智能系统的犯罪,本文认为可以考虑适用刑法第二百八十五条、第二百八十六条和第二百八十七条的相关规定进行处理。

第二,利用人工智能技术实施传统犯罪。随着人工智能的飞速发展,犯罪技术也变得更高级起来,犯罪工具将与人工智能一同进化。美国国家情报局局长James R.Clapper就曾警告过关于人工智能技术的恶意使用问题,人工智能在给人们生活带来便捷的同时也扩大了在线世界的漏洞,使得网络和我们都变得更易受攻击。2003年卡耐基·梅隆大学年仅22岁的研究生路易斯·冯·安设计出了“全自动区分计算机和人类的图灵测试”方案,即我们熟知的验证码技术,以此来阻止自动程序盗取在线账户。然而除了人工智能的技术研发者,犯罪分子也一直在部署计算机视觉软件以对抗验证码技术,短短七年前黑客便颠覆了验证码技术的安全保护功能。“如果你两年没改验证码了,它就会被一些机器视觉算法操控。”美国加州大学圣迭戈分校的计算机安全员Stefan Savage表示说。

人工智能技术作为高级犯罪工具给犯罪分子带来了极大的犯罪便利。首先对于初次或者准备进入网络犯罪但是没有技术经验的潜在犯罪分子来说,可谓搭上了高科技的“顺风车”。曾经火爆地下市场的Black shades程序软件就被形象地称为“盒子里的刑事特权”,它能让完全不懂技术的犯罪分子在计算机上轻松地部署一个勒索程序或者通过鼠标点击来进行视频或者音频窃听。人工智能提供的这项技术便利可能会因此增加初次网络犯罪的几率。除此之外,人工智能技术还在一定程度上帮助消除了犯罪的障碍,降低了犯罪的难度,扩大了传统犯罪的社会危害性。例如在电信诈骗中,犯罪分子通常在耍“猜猜我是谁”的骗术中存在声音被识别、骗局穿帮的风险。谷歌公司旗下的人工智能研究部Deep Mind团队开发出的新程序可以模仿任何人的声音,并且听起来比任何语音系统生成的声音都要自然,极大地缩小了自然语言与人类语言的差距。人工智能的这项语音伪装技术在电话中就极易被犯罪分子用来伪装身份实施诈骗,并且还有助于降低诈骗失败的几率。

第三,对人工智能产品未尽安全生产、管理义务的犯罪。人工智能产品发生致人死伤的严重危害后果多发生在工业机器人和无人驾驶汽车领域。根据美国职业安全健康管理局的统计数据显示,在过去30年间大约发生了30多起与机器人相关的死亡事件。最近的一次是2015年的7月,在密歇根州的一家汽车零配件制造商厂内,维修技师万达·霍尔布鲁克在执行日常保持机器人工作秩序的职责时,突然被装配线上的机器人抓住,机器人像装载拖车悬挂装置组件一样对被害人的头部进行操作,导致被害人头骨被压碎身亡。被害人的丈夫将这家工厂和为这家工厂提供机器人配件及安装的5家机器人厂商一并诉至法庭,并在诉中表示:“机器人没有被正确设计、制造或测试,才导致安全系统和设备突发故障(未尽安全生产的责任义务);并且130区域的机器人不应当进入140区域,也不应当尝试在已经装上挂接组件的夹具内加载挂接组件(未尽安全管理的责任义务)。”工业机器人通常被用于执行高危、高强、高重复性的任务,因此如果机器人厂商设计研发、生产制造出来的机器人不能符合保障人身、财产安全的国家、行业标准,机器人的所有者、使用者或管理者在超出安全操作、管理规范外使用机器人,就有很大可能造成严重的危害后果。

由于工业机器人、无人驾驶汽车在本质上没有超出“物”的范畴,不过是植入智能系统的“智能产品”罢了,因此这些“用于销售”的工业机器人、无人驾驶汽车必须符合《产品质量法》第十三条的规定,即“对可能危及人体健康和人身、财产安全的工业产品,必须符合保障人体健康和人身、财产安全的国家标准、行业标准;未制定国家标准、行业标准的,必须符合保障人体健康和人身、财产安全的要求。”特别是工业机器人、无人驾驶汽车的硬件设备均受整个智能系统的控制,因此确保智能系统的稳定、安全是实现工业机器人、无人驾驶汽车整体安全性的关键因素。这是赋予人工智能产品的生产者安全生产义务的法律依据,如果生产者制造出来的机器人或者无人驾驶汽车不能符合保障人身、财产安全的国家标准或者行业标准,并且造成严重后果的,相关的责任人就可能触犯刑法第一百四十六条规定的生产、销售不符合安全标准的产品罪。

人工智能产品除了在生产环节可能涉及产品生产安全带来的一些刑事风险,进入到流通使用环节,由于人工智能产品具有很多新技术的不确定性和复杂性,因此作为人工智能产品的所有者、使用者或者管理者可能还需要遵循一定的安全操作、管理规定或要求,例如工业机器人被投入到工厂的生产流水线上作业,对生产负有组织、指挥或者管理职责的负责人、管理人就必须按照机器人的安全操作、管理规定以保障机器人和普通工人的生产工作安全,如果未尽安全管理义务造成严重后果的,相关负责人还可能承担其他过失责任。

三、人工智能的犯罪类型之一:“工具利用型”

历史上每一次技术革命都是工具的进化史,从石器、铁器到蒸汽机、电气化,再到计算机、互联网和人工智能,科技的发展从根本上改变了人们的生活方式。然而这种改变总是喜忧参半的,以计算机与犯罪的关系为例,在以“联”为主的Web1.0时期,计算机犯罪尚停留在将计算机信息系统作为犯罪对象的前期发展阶段,进入到以“互”为主的Web2.0时期,网络的工具化使得传统犯罪发生了网络异化,到了Web3.0时期,网络平台思维和网络犯罪空间的生成,带来了犯罪的全面网络化演变。人工智能与计算机、互联网的关系就像鱼与水的关系,一方面人工智能依托互联网平台和大数据技术兴盛而发展,另一方面又推动着传统互联网和工业物联网进一步向智能化迈进。同计算机、互联网的命运一样,人工智能也极有可能被犯罪分子工具化,所谓工具化即违背某物的用途或者违背某人的自身利益、意志,将其作为手段加以利用。人工智能的工具化是网络工具化升级进化的必然结果,由此可能会带来犯罪全面“智能化”的危险。

(一)利用人工智能的“智能”技术实施其他犯罪

2017年9月,浙江绍兴警方破获的全国首例利用人工智能侵犯公民个人信息一案便是行为人利用人工智能技术实施其他犯罪的最新适例。在该案中,非法入侵网站、利用人工智能技术识别图片验证码、制作撞库软件、非法买卖数据、实施网络诈骗组成了一条完整的互联网黑色产业链。黑客杨某搭建的“快啊”打码平台运用人工智能机器深度学习方法训练机器,让其可以自动快速地识别图片验证码,从而轻松绕过网络服务提供者设置的账户安全登陆保护。借助“快啊”打码平台提供的这项技术服务,以黄某为首的数据买卖团伙利用网站漏洞顺利侵入计算机信息系统,在非法获取了网站后台用户的注册信息后以10万组数据为一个单位卖给了制作撞库软件的团伙。吴某、魏某等撞库人员在获取数据后直接与“快啊”打码平台对接进行批量撞库匹配,将各类账户与密码匹配成功的账户信息再打包卖给网络诈骗团伙。最后以郑某为代表的诈骗团伙利用非法获取的个人信息实施各类诈骗活动。不难发现,黑客杨某利用人工智能的图像识别技术所搭建的“快啊”打码平台,为非法侵入计算机信息系统、非法获取系统数据的数据买卖团伙突破验证码的防护策略提供了犯罪工具,进而为侵犯公民个人信息和实施网络诈骗等犯罪活动提供了极大的犯罪便利。

目前,人工智能技术比较成熟的应用主要集中在语音识别、自然语言理解、图像识别、人脸识别、手写识别、语音和文字的自动转化等,由于人的语言声音、面部特征和文字笔迹均具有极强的身份性和一定的隐私性,因此如果这些技术一旦被犯罪分子与互联网平台、大数据技术相结合利用,就特别容易威胁计算机信息系统的安全,造成公民个人信息的泄露,加剧网络诈骗的严峻态势。应当说,人工智能技术在计算机、网络犯罪中的工具化不仅加快了整个互联网黑色犯罪产业链的进程,还催生了更大的社会危害后果。据办案警方透露,在“快啊”打码平台被打掉的前三个月,就已经提供验证码识别服务259亿次,被盗公民个人信息竟有10亿余组,受骗金额多达2000余万元。

行为人利用人工智能的智能技术实施犯罪是犯罪工具智能化的突出表现,这可能使得部分传统犯罪的危害性发生“量变”。对于行为人利用人工智能技术实施的与计算机、网络相关的犯罪,本文认为可以考虑适用刑法第二百八十五条、第二百八十六条、第二百八十七条之一、第二百八十七条之二的规定定罪处罚; 对于行为人利用人工智能的智能技术进而实施诈骗、盗窃、窃取国家秘密或者其他犯罪的,可以考虑适用刑法第二百八十七条的规定定罪处罚。事实上,上述案例中的杨某即是以提供侵入计算机信息系统工具罪被浙江绍兴警方予以逮捕的。

(二)故意“破坏”人工智能的智能系统实施其他犯罪

故意破坏人工智能的智能系统实施其他犯罪是指行为人首先通过远程侵入的手段对人工智能的智能系统进行删除、修改、干扰等破坏,然后再利用人工智能的不正常、不安全运行达到实施其他犯罪的目的。例如,远程侵入从事高危高强工业生产的机器人的智能系统,故意删除、修改机器人的安全生产范围,结果导致工业机器人将原本在安全生产范围之外的工人错误当作生产对象进行操作; 再如,远程侵入无人驾驶汽车的智能系统,干扰、破坏其车载传感器系统,结果导致汽车在无人驾驶的行驶过程中因传感器失灵无法精准感知行人和障碍物信息进而发生撞车、翻车等事故。在故意破坏人工智能的智能系统实施其他犯罪的复杂情形中,存在几个疑难问题予以厘清。

1.实行行为着手的认定

所谓牵连犯,是指行为人为了实施某种犯罪(本罪),其方法行为或者结果行为同时又触犯其他罪名(他罪)的犯罪形态。根据这一定义,行为人远程侵入、破坏人工智能的智能系统与实施其他犯罪之间即存在手段与目的的牵连关系。对这类手段行为与目的行为相结合的犯罪,着手的认定需要着重解决的问题就是按照哪个行为来确定。由于双重行为同属犯罪构成所要求的实行行为,而着手是实行行为的起点,因此开始实行第一行为即手段行为时就是犯罪的“着手”。当然,手段行为本身也是包括一系列具有内在联系的动作,而不只是一个动作。例如,《刑法》第二百六十三条以暴力为手段行为的抢劫案中,就可以顺序出现逼向被害人、追赶被害人、抓住被害人、殴打乃至伤害被害人等一系列动作,这些动作都是暴力手段行为的内容。行为人实施其中最初的动作即开始实行手段行为,就应认定为抢劫罪的着手。据此,行为人在实施远程入侵、删除、修改、干扰等破坏人工智能的智能系统的手段行为时即可认为是实施其他犯罪的着手。

2.故意内容的认定

以无人驾驶汽车为例,A远程侵入、破坏了B无人驾驶汽车的智能系统,导致B汽车在行驶过程中因摄像头传感器故障撞上了C,造成B重伤和C死亡的严重后果。危害结果,从广义上说即行为在客观上给某种社会关系造成危害或者可能造成危害的结果,既包括已经发生的危害结果,也包括尚未发生但可能发生的危害结果,是一切犯罪故意的认识内容。B无人驾驶汽车的智能系统被破坏既有可能发生伤害的危害结果,也有可能发生死亡的危害结果,应如何认定A在实施侵入、破坏B汽车的智能系统时主观故意的具体内容呢?即A是基于伤害的故意还是基于杀人的故意去实施破坏B汽车的智能系统的行为呢?本文认为:如果可以查明A是基于伤害的故意,却发生重伤、死亡的危害结果,则成立故意伤害(致人重伤、致人死亡)罪(结果加重犯);如果可以查明A是基于杀人的故意,却发生重伤、伤害的危害结果,则成立故意杀人罪(未遂);在无法查明的情况下,根据“存疑有利于被告人原则”,宜认定A仅有基于伤害的故意。

行为人认识到结果发生是确实的,但结果发生的行为对象不特定,即行为对象的个数以及哪个行为对象发生结果是不确定的,这是概括的故意。无人驾驶汽车作为私人交通工具进入到公共道路交通领域,其自身的不正常、不安全运行也会给不特定的其他人生命和财产安全构成一定的威胁。因此A在实施侵入、破坏B汽车的智能系统时,是应当能够预见到B汽车可能会发生翻车撞车事故,从而可能造成不特定第三人伤亡的危害结果的,因此A对任何第三人C所持的放任心态是基于概括的故意。此外,如果智能系统被破坏的无人驾驶汽车,其不正常、不安全的行驶状态足以达到危害公共安全的程度,则还可能触犯以危险方法危害公共安全罪。

(三)利用人工智能的“不智能”实施其他犯罪

利用人工智能的智能技术实施其他犯罪是利用人工智能的“智能”去犯罪,故意破坏人工智能的智能系统实施其他犯罪是破坏人工智能的“智能”去犯罪。反其道而行之,所谓利用人工智能的“不智能”实施其他犯罪是指行为人首先采取手段行为使得人工智能机器或者系统陷入错误的状态,然后再利用人工智能的错误运行(即“不智能”)去实施目的行为。

关于“机器能否被骗”这一命题曾引发了不小的争论,有的学者坚持主张“机器不能被骗,欺骗必须作用于被害人的大脑”。修正的观点则指出“机器本身并不能被骗,但是机器背后的人可能受骗,对计算机诈骗实质上是使计算机背后的人受了骗”。还有的学者认为“随着科技的发展,通过电脑的作用,机器也可以接受人所传递给它的信息并作出预期的反应,因缺乏人的灵活性,反而更容易成为欺骗的对象。”本文认为,“欺骗”所强调的是一种“陷入错误”的状态,理性自然人会因为受骗而陷入错误的认识状态,机器即便不能被骗但也会因为其他原因而陷入错误的运行状态。不可否认,人尚且还会出错,机器当然也会出错,机器出错即机器陷入了错误的系统操作运行状态。承认“机器会出错”或许可以为我们思考“机器能否被骗”这一命题提供新的方向和路径。

事实上,人工智能并不是完美的,人脸识别系统就时常出错。伦敦警方在利用人脸识别系统搜寻犯罪嫌疑人时,大约发生了35次错误的身份匹配,并导致其中一人被错误地“逮捕”。一般地,换了发型、多了眼镜、女生的彩妆、男生的胡子、面部整容、双胞胎等因素都会影响系统的识别,根据美国麻省理工学院某项研究结果还显示,肤色越暗,人脸识别系统发生的错误率越高。现在人脸识别这项人工智能技术被大规模应用在以银行、保险为代表的金融领域,国内多家银行推出“身份验证”、“刷脸取款”、“刷脸支付”的试点,开启密码与人脸同步验证,实现用户无卡取款。应当说,在人脸识别系统智能的情况下,通过客户刷脸和银行卡密码双重身份的核验可以帮助解决银行卡被盗和密码泄露带来的财产安全风险,但是如果行为人采用人脸伪装技术使得人脸识别系统陷入了错误的状态,并基于错误的运行“交付”了财产,造成了被害人的财产损失,即是利用人脸识别系统的“不智能”实施的犯罪。

四、人工智能的犯罪类型之二:“产品缺陷型”

所谓“产品缺陷”,根据我国《产品质量法》的规定,是指产品存在危及人身、他人财产安全的不合理的危险,简言之,即产品具有不合理的欠缺安全性的状态。比如无人驾驶汽车如果存在智能系统故障或者刹车离合器失灵等情况,即属于产品缺陷。缺陷人工智能产品致人死伤最为典型的案例就是机器人“杀人”事件,1978年日本广岛一家工厂的切割机器人在切割钢板时突发异常,将一名值班的工人当作钢板操作,这是世界上第一例机器人“杀人”案;1989年也是在日本的一家无人工厂里,机器人将一名维修工人强行拖入转动的机器中绞死。据粗略统计,日本已有10余名工人惨死于机器人的“手”下,致伤残的多达7000余人。

(一)产品的刑事责任

1.从产品的侵权责任到产品的刑事责任

各国的立法与实践对缺陷产品致人死伤的责任追究都经历了从民事赔偿到刑事制裁的过程。作为世界上产品责任法最完善、最发达的美国,基本上将缺陷产品致人死伤的案件作为民事侵权案件来处理,直至1980年的印第安纳州诉福特汽车公司疏忽大意杀人案(State of Indiana v.FordMotor Co.)才改变了这一固有的状况。该案中三名被害人因其驾驶的福特汽车油箱漏油而被烧死,虽然最后法院仍将该起事故认定为侵权,福特公司无罪,但是在此之后联邦与各州有关产品缺陷刑事责任的立法逐渐增多起来。德国亦将其产品责任限定于民事侵权领域,刑法对于产品的生产者与销售者所负的责任一直以来都没有给予很高的关注,后来在毛拉赫(Maurach)与施罗德(Schr-oeder)撰写的第五版《德国刑法教科书》中才明确地提到了产品刑事责任的概念,并且在20世纪90年代发生的“皮革喷雾剂案”(BSHSt.37,106)和“木材防腐剂案”(BSHSt.41,206)中,德国最高联邦法院最终判决生产企业的负责人成立过失伤害罪。日本对于缺陷产品的刑事责任追究则相对晚了许多,2000年之后发生的著名案例有三菱汽车公司隐瞒汽车质量问题致人死亡事件。当时三菱汽车公司不仅没有根据法律向国土交通省报告其生产的载重汽车离合器系统零部件质量存在问题,也没有采取将问题车辆召回检修等必要措施,最终导致一名司机因卡车离合器系统质量问题发生重大交通事故而当场死亡。事后日本警方以涉嫌“业务过失致死罪”逮捕了三菱汽车公司前总经理何添克彦等6人。

2.建立产品刑事责任的必要性

缺陷产品致人死伤事件的法律定性从民事侵权发展为刑事犯罪最直接的原因是行为的违法性程度和社会危害性超越了刑法的容忍边界。刑法作为保障法、补充法和事后法已经成为共识,“所有部门法所保护和调整的社会关系,都会同时借助刑法的保护与调整,刑法是其他部门法的保障法,是其他部门法的保障和后盾,如果将其他部门法比作第一道防线,刑法则是第二道防线”。所以当且只有当“前置法对违法行为的管控无效或违法性程度已经超出前置法的管辖,这类行为才有交由刑法接管的资格”。在缺陷产品致人死伤的责任认定中,由侵权责任向刑事责任的演变也正是行为的违法性程度和社会危害性不断累积的结果。如果说因福特汽车油箱漏油而导致三名受害人被烧死还勉强符合一般违法的程度,社会危害性较轻,法院判决福特公司承担民事侵权责任也是恰当的。那么日本三菱公司在明知其生产的载重汽车离合器系统零部件存在质量问题的情况下,仍然故意隐瞒汽车质量问题并且未采取任何召回、检修等必要措施以防止危害结果的进一步扩大。事实上,早在 1999 年由于类似质量问题就曾引发一起事故,最终导致司机发生交通事故身亡的严重社会危害后果,应当说日本三菱公司的行为性质更恶劣,给社会造成的危害后果更严重,已经具有相当程度的违法性和社会危害性。

另一方面,建立产品的刑事责任是民、刑不同责任功能互补的结果。法律责任的功能主要有三,即惩罚、救济和预防,民事责任和刑事责任作为法律责任的具体表现形式必然都秉承着这三项功能,但二者各有侧重。民事侵权责任关注已然受损的受害人,遵循“无损害则无赔偿”的一般原则,侧重对受害人损害、损失的补偿和权利的恢复救济,“损害赔偿的最高指导原则在于赔偿受害人所受之损害,俾于赔偿之结果,有如损害事故未曾发生者然”。刑事责任的主要特色则在于惩罚和预防功能。首先刑事责任突出的表现为对犯罪的惩罚,如果说民事侵权责任是通过赔偿来直接救济受害人的利益,那么刑事责任则是通过对犯罪人的刑罚惩罚来间接地保护被害人的利益。此外,刑法不仅关注已然受损的特定被害人,更着眼于未来可能受损的一般人,应当明确,国家制定刑罚、适用刑罚和执行刑法所追求的,乃是以刑法作为手段同犯罪作斗争,从而最终实现一般预防犯罪的目的。建立产品的刑事责任可以弥补民事责任在惩罚、预防功能上的薄弱和不足,对于具有相当违法性和严重社会危害性的侵权行为在定性上有必要升格为犯罪,并科以刑罚。此外,随着民众对食品、药品、汽车等与日常生活密切相关的商(产)品与日俱增的安全需要,刑法是控制风险、安抚民众不安情绪较有力的预防与威慑手段。

(二)人工智能产品的责任形式

1.生产阶段:研发生产者的保障产品安全义务与故意责任

(1)保障产品安全的义务

人工智能产品的设计者、生产者应当确保其设计、制造的产品安全、可靠,“安全性”不仅是社会公众对技术尚未成熟的人工智能产品的首要关注,也是我国《产品质量法》的法中之义。根据《产品质量法》第二十六条第一项的规定: “生产者应当对其生产的产品质量负责。产品质量应当符合下列要求:(一)不存在危及人身、财产安全的不合理的危险,有保障人体健康和人身、财产安全的国家标准、行业标准的,应当符合该标准。”由此可见,保证人工智能产品的质量安全是生产者的一项法定义务,即“保障产品安全的义务”。

判断产品是否安全存在两个标准,即“不合理危险”标准和国家、行业标准。由于目前人工智能产品制造业,比如在机器人、无人驾驶汽车等领域,均未正式制定统一的国家、行业标准,因此现阶段用来判断人工智能产品是否存在缺陷就只剩下“不合理危险”标准了。所谓“不合理的危险”,按照《美国第二次侵权法重述》第402A条的解释,是指产品的危险性超出了具有一般社会认知水平的普通消费者对产品安全性的合理预期。比如智能汽车主要是依靠摄像头和雷达配合组成的多方位传感器系统来感知车身的具体位置和外界的障碍物情况,从而实现无人驾驶的目的,如果智能汽车其中之一的摄像头传感器存在质量问题,即经常发生故障或者失灵,则属于不合理的危险。

产品存在不合理的危险或者不符合强制性的国家、行业标准即为“缺陷产品”。人工智能产品的缺陷主要体现在两个方面:第一,设计上的缺陷。产品设计是产品制造的前置阶段,任何产品都需要经过设计才能投入生产、制造。人工智能产品的设计除了包含一般产品在外观和硬件设备上的设计外,还包括最为关键的软件程序的开发和智能系统的设计。由于人工智能产品的硬件设备完全是被智能程序系统所操控的,因此人工智能产品的整体安全性在很大程度上取决于智能系统的安全性、可靠性。第二,制造上的缺陷。广义的制造包括生产、加工、装配、调试等环节,人工智能产品如果在生产、加工环节“与设计有所偏离”,即多了不该多的东西、少了不该少的东西、用了不该用的东西,即会被认定为存在缺陷。特别是人工智能产品在安装、调试等非常规操作过程中,应当特别注意由于智能系统的不稳定性可能产生的危险,事实上,机器人在安装、调试阶段就特别多发系统故障致人意外死伤事件。人工智能产品如果在测试、安装阶段被发现可能存在不合理危险,应当立即停止产品的全面流通和使用并及时报告。

(2)生产不符合安全标准的产品罪

人工智能与工业物联网的结合开启了制造业全面智能化的时代,工业机器人不仅帮助实现了工厂的无人化生产,人工智能产品还越来越多地走进了人们的家庭生活中,比如智能彩电、智能冰箱、智能空调、无人驾驶汽车等。目前人工智能产品正在如火如荼地进行研发、设计、生产和测试,有鉴于这些人工智能产品与我们的人身权利和财产权利密切相关,本文建议应当加快推进人工智能产品的国家、行业标准的制定与实施,一方面有助于保障人工智能产品的安全性,进而保护公民的人身健康和财产利益,消除社会民众对人工智能产品质量的不安感;另一方面,制定国家、行业标准可以为违反“保障产品安全义务”、生产具有不合理危险的人工智能产品成立“生产不符合安全标准的产品罪”提供主观上“明知”的依据。

我国的产品刑事责任集中规定在刑法分则第三章破坏社会主义市场经济秩序罪中的“生产、销售伪劣商品罪”一节,共有9个罪名11个法律条文,其中就有7个罪名涉及对缺陷药品、食品、医用器材、农药、兽药、化肥、种子、化妆品等特殊产品的规制,对一般产品的规制仅有第一百四十条生产、销售伪劣产品罪和第一百四十六条生产、销售不符合安全标准的产品罪。生产、销售不符合安全标准的产品罪的主观罪过形式是故意,即生产者在明知其生产的产品存在国家、行业标准的情况下还故意生产不符合保障人身、财产安全的、有违国家标准、行业标准的产品。制定人工智能产品的国家、行业标准,实际上是将设计者、生产者“保障产品安全的义务”具体化,为认定设计者、生产者是否履行这一法定义务提供衡量尺度和判断标准。如果人工智能产品的设计者、生产者设计、生产的人工智能产品不符合国家、行业标准,即违反了“保障产品安全的义务”,造成缺陷产品致人死伤等严重危害后果的,设计者、生产者即有可能触犯生产不符合安全标准的产品罪。

总之,人工智能产品的设计者、生产者应当在研发设计、生产制造人工智能产品的过程中履行法定的“保障产品安全的义务”,以保证人工智能产品在硬件设备和智能系统上的双重安全性,人工智能产品的设计者尤其还应当注意其研发的智能系统的可行性、可靠性。为了全面促进人工智能技术在智能制造业的长足、良性发展,需要尽快制定人工智能产品的国家标准或行业标准。如果人工智能产品不符合保障人身、财产安全的国家、行业标准,并且造成严重后果的,设计者、生产者即有可能触犯生产不符合安全标准的产品罪。

2.流通阶段:生产者的召回义务、所有者或使用者的安全管理义务与过失责任

(1)生产者的召回义务与过失责任

与我国刑法专章建立产品的刑事责任不同,德国和日本在其刑法典中没有专门的法律条文来规定产品的刑事责任,一般是按照故意杀人罪、故意伤害罪来处理故意的刑事产品责任,以过失杀人罪、过失伤害罪来处理过失的刑事产品责任,并且以过失的刑事产品责任更为多见,正如前文所述,在德国的皮革喷雾剂案中企业的负责人即成立过失伤害罪,日本三菱公司的前总经理等人也是成立业务过失致死罪。然而在我国并没有过失的刑事产品责任,刑法分则第三章第一节规定的“生产、销售伪劣商品罪”均为故意犯罪,司法实践中对于此类案件大多是作为民事侵权的案件来处理。因此下面不妨以德国著名的“皮革喷雾剂案”为例,深入讨论产品投入流通使用后生产者的后续召回义务以及过失责任的承担。

“皮革喷雾案”的基本案情如下:X有限责任公司是一家生产皮鞋及其他皮具护理用品的公司,其产品中包括一款作为护理剂和染料剂的皮革喷雾剂,由旗下的子公司E和S负责推销。1980年秋该公司收到了用户的投诉报告,称其在使用皮革喷雾剂后出现了咳嗽、寒颤、发热、呼吸困难等严重的健康损害,部分甚至有生命危险。公司对此进行了内部调查并改变了配方,但并未达到理想的效果。1981年5月12日,X公司主管人员就此召开了特别会议,与会人员包括S、Sch博士、R、O及公司的首席化学家B博士。B博士提出根据现有的调查并没有足够的证据证明皮革喷雾剂中存在有毒物质。据此公司的董事会做出决定,在日后的调查能够确定产品确实存在缺陷、对消费者产生危险之前不召回产品也不停止销售产品,也不采取警告行动,而只是对产品外包装上的提示进行完善。E公司和S公司的负责人在各自的主管范围内执行了董事会决议。之后,大量的消费者在使用皮革喷雾剂之后仍然出现了身体损害的情况。最后,联邦卫生健康部介入并对产品进行了召回。

一审法院直接从民法上产品的“安全确保义务”以及召回义务引申出刑法上的作为义务,认为X公司既没有生产安全的产品,也没有在损害事件发生后采取召回等必要措施以回避危害结果的扩大,因此X公司的两名董事成立过失伤害罪(不作为)。一审法院的判决招致了一些批判,“将民事义务直接拿来作为刑事义务的根据并不充分,而且还有扩大刑事责任的危险。”许乃曼教授认为生产者对于已经进入市场流通的产品不具有事实上、实质性的支配权,不能对产品施加影响,从而否认了生产者的保证人地位,生产者、销售者对于已经投入流通的产品都不具有召回的作为义务,由此引发的产品致人损害不承担伤害罪(不作为)的刑事责任。联邦最高法院则以“先行行为说”肯定了生产者的召回义务,生产者将危险产品置于流通领域的行为是一个危险的先行行为,因此X公司负有召回已经销售出去的皮革喷雾剂的作为义务。本文赞成联邦最高法院的最终判决意见,认为如果生产者已经知道或者应当知道其生产的产品可能因为缺陷发生致人损害的结果,应当采取必要的召回措施以防止损害结果的进一步扩大,从而保护其他社会民众免受缺陷产品的再次或者继续侵害; 如果生产者未履行结果回避义务,造成扩大的结果发生,生产者对扩大的危害结果至少应当承担过失责任。

人工智能产品相较于一般产品显得更为复杂与特殊,由于人工智能技术自身的不成熟与不确定性,人工智能产品的智能系统并不是完全安全、可靠的。人工智能产品的设计者、生产者不仅要在生产阶段履行保障产品安全的法定义务,在产品投入流通使用后,更是要对产品的智能系统进行跳跃式的跟踪观察,如果一旦发现产品的智能系统存在异常、故障的情形,应当立即采取警示、召回等必要的措施,以避免缺陷产品致人死伤结果的发生。人工智能产品的生产者在知道(自己发现)或应当知道(被告知)其生产的人工智能产品可能存在缺陷,仍未履行召回义务,造成危害结果的进一步扩大,对于扩大的结果生产者至少应当承担过失致人伤害、过失致人死亡的刑事责任。

(2)所有者、使用者的安全管理义务与过失责任

人工智能产品的所有者、使用者应当严格遵守人工智能产品的安全操作规范,以保障人工智能产品的安全、有序运行。由于人工智能产品的智能系统是有严格的编制程序的,未遵循人工智能产品的安全操作规范很可能会导致人工智能产品出现异常的情形,比如在前文所述的案例中,工厂将原本应当在130区域工作的机器人放置在140区域,并且让机器人尝试在已经装上挂接组件的夹具内加载挂接组件,不仅变更了机器人的安全工作区域,还变更了机器人的工作程序和工作任务,从而导致机器人突发异常,将保持机器人正常工作的工人错误操作致其死亡。因此,人工智能产品的所有者、使用者应当特别注意遵循人工智能产品的安全操作规范,如因违反安全管理义务而发生严重的危害后果应当由所有者、使用者或者管理者承担相应的过失责任。

五、余论

人工智能所带来的新问题并不高深,我们对待这些新问题也不必心生畏惧,不敢触碰。面对这一新技术对于传统刑法所提出的种种挑战,我们首要需要考虑的是人工智能与传统刑法如何对接的问题。在过去的30年里,我们在遇到新情况的时候,更多地倾向于通过立法来解决问题,典型的在应对网络犯罪、恐怖主义的问题上,通过大量增设新的罪名将预备行为正犯化、帮助行为正犯化,或者是扩大犯罪构成要件,降低犯罪门槛; 再比如通过立法对生物医疗、基因科学等新技术、新情况予以规制。应当说,我们的立法还是非常积极主动的。但是,对于人工智能、自动系统等带来的新问题,本文认为可以通过旧的刑法教义学得以解决的,就不必要再通过增设新的罪名或者刑罚来应对人工智能产生的新挑战和安全威胁。任何问题的讨论都必须基于特定的时代背景,既不能太保守落后,也不必过于超前,牢牢把握当下我们所处于并将长期处于的弱人工智能的发展阶段,才能打开人工智能刑法的理性视域。

来源《暨南学报》(哲学社会科学版)2018年第9期

作者:高铭暄 王红

(高铭暄,北京师范大学刑事法律科学研究院名誉院长、特聘教授、博士生导师,中国人民大学博士生导师。王红,北京师范大学刑事法律科学研究院。)

 


阅读量:1346 PC版链接 移动版链接