若AI有“过失” Web3时代何以追责?
毫无疑问,科技的进步往往是最受人关注的。这不仅是因为科技进步本身代表着人类不断向前跃进的步伐,还因为科技进步往往会促进人类社会和时代的发展,极大地改善人类的生活。于是,AI、Web3.0、区块链、元宇宙等成了当下最为火热的话题,究其根本在于 这些概念代表着科技的进步,代表着新的科技正在被投入使用 。
这无疑是令人欣喜的,但同样也是令人担忧的。 与快速成长的科技相对的,是法律的滞后和人类认知的滞后,前者使得科技所带来的法律风险越发难以解决,后者使得科技所带来的法律风险越发难以预防 。由此,除去那些故意利用科技进行违法犯罪的情况,不得不考虑的一个问题是,如果一种科学技术在实用过程中,由于某种过失性的原因导致了风险的发生,是否都应当进行追责?
飒姐团队今日文章便以AI系统为例,为大家分析一下 新时代下科技所引发的过失犯罪的追责问题 。
一、AI与“过失犯罪”
所谓AI,即人工智能(Artificial Intelligence),根据《网络安全标准实践指南——人工智能伦理安全风险防范指引》的规定,是指 利用计算机或其控制的设备,通过感知环境、获取知识、推导演绎等方法,对人类智能的模拟、延伸或扩展 。在学界中,根据学者高铭暄、王红的观点,AI即“人工”和“智能”,前者是指由人类制造的机器或开发的程序系统,后者是指模拟人脑能动性的思维和智慧,简言之,即“智慧机器”,人工智能本身旨在研究和开发可以模拟人脑智慧的机器应用或程序系统。
而对于AI所引发的“过失犯罪”,笔者认为应当从两个视角来进行解读。
“
(一)作为技术的AI
AI本身作为一种技术,为人类所运用,因此在运用过程中,很可能存在由于相关人员的过失而导致相应风险的发生。考虑到AI行业暂时缺乏相关的法律法规进行明确的规范,因此现阶段对于该领域的规制仍然要以现有的法律体系为主,从而在过失犯罪领域,相关人员可能构成过失致人死亡罪、过失致人重伤罪以及过失以危险方法危害公共安全罪等。
同时应当注意的是, 针对不同的人群,过失犯罪的体现可能不同 。
(1)针对AI系统的所有者、使用者
对于AI的直接所有者、直接使用者而言,他们本身 应当严格遵守AI产品的安全操作规范 ,以保障AI产品的安全、有序运行。这是因为AI的智能系统是有严格的编制程序的,其启动与运行有赖于相关的操作规范,因此未遵循AI产品的安全操作规范很可能会导致AI产品出现异常的情形。 如因违反安全管理义务而过失性引发严重的危害后果,此时当然应当由所有者、使用者或者管理者承担相应的过失责任 。
(2)针对AI系统的生产者
如前所述,考虑到相关的标准尚未建立完备,因此,对于生产者而言,仍然应当从传统过失犯的角度出发,判断其有无触犯刑法。
因此,如果生产者已经知道或者应当知道其生产的产品可能因为缺陷发生致人损害的结果,应当采取必要的召回措施以防止损害结果的进一步扩大,从而保护其他社会民众免受缺陷产品的再次或者继续侵害,那么 当生产者未履行结果回避义务,造成扩大的结果发生,生产者对损害结果的扩大至少应当承担过失责任 。
(3)针对企业中所属集体的监督者、管理者
在满足责任事故类犯罪如刑法第一百三十四条规定的重大责任事故罪的构成要件的基础上, 因为使用AI而导致他人损害的行为人的监督者和管理者,需要承担监督过失或管理过失而导致的刑事责任 。
“
(二)作为产品的AI
以上是从使用AI的行为人本身存在过失从而导致损害出现的角度对涉及的过失类犯罪以及可能的责任主体进行的说明,这是作为技术的AI,是行为人手中的工具。但实际上, 由于AI目前仍然较多地具有产品属性,因而在考虑AI的过失时还得考虑作为产品的AI的过失。 这种情况下的AI所造成的损害,更多的是因为AI算法或者程序或其他设置设备上存在缺陷。事实上,在AI产品存在缺陷时,便可能导致AI系统运行故障,进而导致严重危害社会的结果发生。
而此时,一旦此种过失性因素使得AI产品构成缺陷产品,便 可以从产品缺陷的角度追究生产者或者销售者的刑事责任 。具体而言,生产或销售有缺陷的AI产品的行为可能构成第146条规定的 生产、销售不符合安全标准的产品罪 。
刑法第一百四十六条的规定,生产 不符合保障人身、财产安全的国家标准、行业标准 的电器、压力容器、易燃易爆产品或者其他不符合保障人身、财产安全的国家标准、行业标准的产品,或者销售 明知 是以上不符合保障人身、财产安全的国家标准、行业标准的产品,造成严重后果的,处五年以下有期徒刑,并处销售金额百分之五十以上二倍以下罚金;后果特别严重的,处五年以上有期徒刑,并处销售金额百分之五十以上二倍以下罚金。
虽然本罪属于 故意犯罪 ,似乎不能被归类为AI所引发的“过失犯罪”之中,但笔者认为,只要AI本身的缺陷是过失所致,而 生产者或销售者在明知的情况下仍然销售 ,那么仍然可以被认定为是AI所引发的“过失犯罪”之中。事实上,大多数高新科技的缺陷往往一开始便是因人类的认知滞后而未有发现,由此带来了一定的实际损害,尽管生产者或销售者可能并不因此承担责任,但若在其明知该缺陷之后仍然为销售,那么就应当受到刑法处罚。
因此,根据本条规定,只要行为人生产的商品或者销售的商品是不符合保障人身、财产安全的国家标准、行业标准的产品而行为人对此明知,那么生产者和销售者也会承担刑事责任。AI当然也属于其中。
综上,这就需要生产者和销售者们时刻关注AI产品领域相关的国家标准、行业标准。考虑到现在我国的国家标准和行业标准尚在制定之中,因此, 应当结合国外已经出现过的国际标准以及我国有关政策的要求,合理确定企业自身的标准 ,以此预防可能发生的犯罪结果。
二、被允许的风险
如此看来,在过失犯罪领域,似乎AI所带来的风险和以往的传统过失犯罪并无区别。但实际上,随着科技的发展, 越来越多技术上的不可预测性使得这种过失犯罪的判断极为困难 ,我们应当去思考,如何衡量这种技术上的过失,换言之, 仅在过失犯罪的领域,AI所造成的所有风险是否最后都应当进行追责?
关于这个问题的答案我们可以从被允许的风险的理论出发来解答。
所谓 被允许的风险 (或被允许的危险),是指随着科学技术的发展,社会生活中不可避免地存在的具有侵害法益的危险行为,基于其对社会的有用性,即使发生了法益侵害结果,也应当在一定范围内允许。
该理论起源于19世纪末的德国产业革命时期。在19世纪后半叶,随着科学技术的发展,工业化进程加快,德国的矿山、煤气、铁道等企业发展迅速,但同时一些技术发展带来的损害也随之而来。学者巴尔意识到,社会生活中不可避免地存在一定的危险行为。如果为了完全防止实害发生而要求采取过度的预防措施,就排除了所有企业活动的可能性,这是不合理的。因此,他提出,即使行为人懈怠了过度的预防措施,也不成立犯罪。此后,学者米里卡也提出, 与社会目的相适应的危险是“正常危险”,超出了“正常危险”的危险,才具有刑法意义 。艾克斯勒也指出,如果要求人们回避一切可能预见的损害,就会否定所有科学技术的进步。而最后确立被允许的危险的法理的是宾丁,他承认 日常性的法益侵害的不可避免性,提倡“适度的危险”概念 ,还提出了危险与不可缺少的行为的法的价值之间的比例关系。
随着讨论的不断进行,在刑法领域,被允许的风险理论最先在过失犯领域发挥了作用,由此催生出了所谓的新过失论。新过失论认为随着产业革命的发展,许多危险行为对社会的发展具有有用性与必要性; 只要行为人遵守了相关的行为规则,即使造成了法益侵害结果,也不能认定为过失犯 。
而AI系统实际上也是科技发展的产物,虽然它的过失可能会导致一定风险的发生,但是同时也需要考虑到它所代表的技术革新性以及为生活所带来的便利性。因此, 在涉及AI系统的过失犯罪上,我们应当在一定程度上允许一定风险的存在 ,从而允许AI系统、AI技术乃至于其他科技的运用,从而在实践中不断进步和完善。故而就AI的过失犯罪领域,考虑被允许的风险理论并适用新过失论是未来的一种可行的途径。
写在最后
科技的发展必然会给法律带来诸多挑战,但这并不意味法律应当予以排斥予以否定,也不意味着滞后的法律无法应对科技所带来的风险。除了尽快完善有关立法外,法律工作者在这时候真正需要去做的,是 在权衡利弊中不断完善相关的理论,并在实践中予以运用 ,让科技真正成为推动人类社会发展的良好动力。