原标题:刑法如何应对人工智能带来的风险挑战
人工智能并不真正具有意识,也不具有非难的意义和适用刑罚的能力,因此人工智能本身不是刑罚适用的适格主体。但人工智能带来的诸多风险不容忽视,需要强化人工智能的制造者与使用者的规范意识,从刑法教义学上前瞻性地回答人工智能的制造者与使用者的行为与刑法中相关罪名的关系。
人工智能属于人类社会的第四次工业革命,它的快速发展开启一个以新的技术支撑新的社会结构的人类新时代。但从刑法学角度来说,人工智能带来什么样的风险挑战,刑法如何合理应对人工智能,这都需要法律人进行前瞻性思考。
人工智能进入社会生活带来的两重风险
人工智能,顾名思义,就是能够模仿、延伸、扩展人类思维、活动的技术。面对人工智能在全球的快速发展,2017年7月国务院印发的《新一代人工智能发展规划》指出,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”笔者认为,国务院发布的这一文件对人工智能的定位是准确的,人工智能在给我们带来便利、带来发展的同时,也会带来风险。
一是人工智能技术带来的风险。人工智能目前还未完全成熟,存在许多缺陷。这些缺陷不可避免地会给社会带来一定的风险和严重影响。比如,在光线条件不良的情况下,自动驾驶的汽车可能会因错误识别“减速慢行”标志牌而将人撞死或导致重大财产损失,或者自动驾驶系统故障、没有正确采集数据等原因发生故障而导致驾驶员死亡;无人机进入客机的飞行航线,造成重大安全风险;利用人工智能进行网络性军事攻击;等等。
二是人工智能制造者制造的风险。就企业生产的人工智能产品来说,不仅会使用大量数据,导致公民个人信息等隐私被泄露的风险,可能会被别有用心的人利用实施犯罪,而且可能被利用实施大规模的、极具针对性的高效攻击,构成安全隐患。这样的风险还包括企业违规制造机器人、使用者拒不销毁具有危险的机器人等。如果没有严格的控制,这种风险会辐射到经济、文化、教育等各个领域,带来严重的社会安全问题。
笔者认为,为了适应社会的发展,更好地应对人工智能时代面临的新问题、新挑战,不仅需要回答人工智能有无刑事责任能力问题,而且需要从刑法教义学上对人工智能涉及的犯罪有所解答。
人工智能不具有刑事责任能力
人工智能对刑法的挑战首先在于归责。许多人对人工智能是否具有刑事责任能力展开了讨论,有肯定论与否定论之分。
通过对人工智能发展的梳理不难发现,人工智能虽然“神奇”,但是离不开两个必需的条件:一是人工智能离不开大数据的支持。没有足够的数据作为训练样本,人工智能就无法发现自身算法的漏洞,没有机会对算法函数进行修正,产生错误就在所难免。二是人工智能离不开运算能力的提升和深度学习框架的构建。深度学习框架对于人工智能具有重要意义,它的原理是构建多层人工神经网络,借助神经生理学的知识模拟人类的神经活动,然后输入大数据进行训练、学习,根据训练得到的结果重新设置参数向正确结果拟合,最终实现模拟人脑的功能。大量的计算和固定的框架导致人工智能更擅长处理有规则性的事务,不过一旦规则改变,情况就大不一样。这对人工智能能否作为归责的主体具有重要意义。笔者认为,尽管当前还处于“弱人工智能时代”,人工智能的未来发展图景尚不能确定,但是从目前来看,人工智能仅是一种帮助人类完成那些有规则可循的重复性工作的工具,并不具有真正的意识,也就不应当具备刑事责任能力。
其一,人工智能并不真正具有意识。从研究现状来看,人工智能主要由人类预先设置好处理步骤,再通过大量计算得出不同决策的得分,根据得分的高低选择何种行为。人工智能虽然看似能够像人类一样自主决策,但是这些决策都是在设计者预先设定的算法框架下得到的,所谓的“自主性”也仅仅是不同决策间的选择,人工智能并不具有人的智能所有的通用智能,没有对刑罚的感受力和自由意志。
其二,人工智能不具有非难的意义。刑罚处罚是一种文化现象,人类社会延续至今所形成的生命刑、自由刑等之所以有效,是因为罚与被罚都能够以被感知、传递的方式来呈现,从而对被破坏的社会关系予以恢复,从而改变人们的认知,让犯罪的被害人满足报应情感,让犯罪者产生悔意,让社会民众感受到惩罚的威力、必然性等。如果惩罚不能满足这类情感需要,则处罚是没有意义的。人工智能是一种信息技术革命的产物,自身不能感知到刑事处罚的意义,惩罚机器人不如直接废弃或销毁更有社会意义。更何况,通过刑罚措施不能够消除人工智能带来的风险,也不能实现预防再犯的刑罚目的之期待。
其三,人工智能不具有适用刑罚的能力。刑罚作为一种对他人生命、自由等权益的剥夺,是否适用,必须要考虑被处罚对象的刑罚能力,这是预防犯罪的需要。这种刑罚能力与被处罚人的自由意志有关,目的在于使被处罚人认识到处罚带来的痛苦,以痛改前非,重新做人,从而消除再犯罪的危险。从自由意志角度来看,人工智能的价值性体现在工具上,它的自由意志是拟制的、虚拟的。从刑罚能力的角度来看,人工智能作为一种工具,本身并没有自由或者财产,而是设计者或者使用者的一种财产,无论是自由刑还是财产刑都不能对人工智能造成损害,刑罚真正能够发挥其震慑、惩罚犯罪的功能只有在设计者或者使用者身上才能实现。
人工智能的刑法教义学解答
既然人工智能会带来诸多风险,造成刑法所保护的法益遭受破坏或具有被破坏的危险,而人工智能本身又不是刑罚适用的适格主体,这就需要强化人工智能的制造者与使用者的规范意识,从刑法教义学上前瞻性地回答人工智能的制造者与使用者的行为与刑法中相关罪名的关系。
“企业的保证人义务”与拒不履行信息网络安全管理义务罪。企业应从人工智能技术的训练就开始遵循审慎规则,对可能产生的危险进行识别、处理,履行保证人义务,保证设计出的人工智能技术是安全、无瑕疵的。如何附加保证人义务,可以参考民法上的规则,设计的人工智能技术必须经过大量、充分的实验测试,确保不会对他人的人身或者财产安全造成损害,才可以投放市场,否则认定为未履行保证人义务;对于已经投放市场的人工智能技术,需要跟踪关注安全状况,及时召回具有缺陷的技术产品,并对已经造成的损害进行赔偿。如果不履行保证人义务,可以纳入刑法的规制范围。具体而言,不履行保证人义务致使人工智能扰乱网络秩序、影响网络安全的,可以视为企业作为人工智能服务的提供者,而未履行信息网络安全管理义务,适用刑法第286条规定的拒不履行信息网络安全管理义务罪进行定罪处罚。此外,不履行保证人义务致使他人人身或者财产遭受严重损害的,可以视为未履行危险源的管理义务,从而构成相应犯罪的不作为犯罪。
“企业的监管失灵”与非法经营罪之兜底条款的扩大解释。人工智能是一个风险与利益并存且专业性较强的行业,要从事这一行业,就要对企业的研发能力进行评估、审核,给评级合格的企业发放人工智能技术的经营许可证,禁止评级不合格的企业从事人工智能的研发工作。同时,结合事前和事后审查,建立人工智能的产品许可与监督制度。事先审查,由专业机构根据相关安全标准对人工智能中数据、算法实现的功能以及可能存在的风险进行评估,给评估合格的产品发放生产、销售许可证,保证人工智能设计上的合法性与安全性。事后审查,采取登记制度,记录人工智能技术的设计者、使用者的信息及其主要功能。改变主要算法使得功能产生实质性变化的,需要进行功能变更登记;转让人工智能技术的,需要进行使用者信息变更登记。对违背经营许可制度、产品许可与监督制度的企业,适用刑法第225条第4项非法经营罪之兜底条款定罪处罚,当然,前提是制定相关的司法解释。
“用户的数据”与侵犯公民个人信息罪。用户的数据是公民的个人信息,属于用户自身。人工智能在挖掘分析大数据时,不能忽视对公民个人信息的保护。虽然现行法律对个人信息的界定以及保护已经有了明确规定,如民法总则第111条、网络安全法第41条以及两高发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》第1条等,但目前纳入“公民个人信息”保护仅指能够识别特定自然人身份或者反映特定自然人活动情况的各种信息,包括姓名、身份证号码、联系方式、住址、账号密码、行踪轨迹等。笔者认为,对公民个人信息的保护范围应当扩大,如用户行为习惯,公民经常搜索有关金融理财的内容,于是金融理财产品的链接开始频繁出现在浏览的网页上,原因是用户的搜索记录被分析出具有理财的倾向。类似的信息被泄露虽不会对公民人身、财产安全产生威胁,但被过度分析会侵犯公民的隐私空间,使公民生活透明化。对此,应当摆脱公民人身、财产安全的限制,将个人隐私以及其他对公民生活具有重要影响的信息也纳入刑法有关公民的个人信息的保护范围。对未经允许擅自挖掘、利用用户个人信息造成严重后果的行为,可以适用刑法第253条侵犯公民个人信息罪定罪处罚。
“拒不销毁”与以危险方法危害公共安全罪。降低人工智能风险,除了规范人工智能企业的活动之外,还要关注违法使用(主要是个人)人工智能技术的现象。随着人工智能的发展,逐渐大众化是人工智能未来的趋势。当这些人工智能产品被违法使用时,就要将涉嫌违法犯罪的人工智能产品没收然后销毁。拒不销毁的,可以适用刑法第114条以及第115条以危险方法危害公共安全罪定罪处罚。这样解释的理由是:(1)从近年来发生的无人机致使飞机暂停降落、自动驾驶汽车因错误识别道路标志撞死行人等现象来看,人工智能产品具有高风险性,会对不特定多数人的人身、财产安全产生严重影响,这符合以危险方法危害公共安全罪的法益保护范围。(2)以危险方法危害公共安全罪是自然人犯罪,主体只能是自然人。与企业不同,公民个人在违法使用人工智能产品的情况下,可以成为以危险方法危害公共安全罪的主体。
(作者为南京师范大学中国法治现代化研究院教授)