人工智能刑事责任认定

发表时间:2021/3/16   来源:《中国科技信息》2021年1月   作者:程巧娜
[导读] 技术的发展使得人工智能已经广泛运用到社会的各行各业,各个领域都存在着人工智能。在传统的刑事法律责任认定中对人工智能是未有涉猎的,在出现人工智能致人损害的问题中,人工智能能否成为归责主体,对人工智能如何运用法律进行惩处成为应当探讨的新研究。参考其他国家的立法规定,对人工智能否成为刑法规定的独立责任主体和对人工智能如何进行惩治应当从新的视角出发,与自然人、组织等相区别,明确新的处置的标准。

江苏省徐州市江苏师范大学      程巧娜         邮编:221116

摘要:技术的发展使得人工智能已经广泛运用到社会的各行各业,各个领域都存在着人工智能。在传统的刑事法律责任认定中对人工智能是未有涉猎的,在出现人工智能致人损害的问题中,人工智能能否成为归责主体,对人工智能如何运用法律进行惩处成为应当探讨的新研究。参考其他国家的立法规定,对人工智能否成为刑法规定的独立责任主体和对人工智能如何进行惩治应当从新的视角出发,与自然人、组织等相区别,明确新的处置的标准。
关键词:人工智能  刑事责任  主体资格
        2017年,国务院发布的《新一代人工智能发展规划》中提出了国家对人工智能充满着期待,将人工智能作为国家重要战略,可见人工智能对建设创新型国家和科技型国家的重要性。然而,对于人工智能领域,我们国家还没有形成完备的政策体系和法律系统,人工智能领域的研究也未深入展开,对人工智能产生的相关责任仍以传统法律框架为主线研究解决途径,具有严重的滞后性。
        在人工智能愈加智能化的当下,人工智能不仅可以与人进行合作,例如在医疗领域中人工智能与医生的合作;有的人工智能甚至可以独立进行学习,独立完成一定事物,例如人工智能Alpha Go对阵围棋国手柯洁的三连胜,都说明了人工智能具有一定的创造性,正在逐渐超越人类,那是否表明人工智能与人在主体资格方面的差异逐渐变小,可以拥有独立的主体资格呢?在构建人工智能的法律主体资格之前,必须要从道德观念入手解决人工智能的伦理性问题,这样才能真正剖析人工智能的法律地位的存在与法律权利的范围。
        一、人工智能的法律属性认定
        道德伦理的研究是对人工智能进行法律研究的前提,在研究透彻伦理研究后,将会对法律属性的研究提供研究基础。人工智能从传统的工具性的存在到现在发展的高科技成果,主要动力就是科技的发展,人工只能依靠科技、依靠人类的智慧才具有突出的表现行为,因此,对人工智能主体资格的承认应当首先是符合社会认可的。从目前社会对人工智能的反馈来看,人工自能已经融入人们生活中,成为不可分割的一部分,有的甚至将其作为家人看待。人工智能正逐渐被人们所接受,其势必会为人工智能法律主体资格的演变提供伦理基础。
       通过对人工智能运用地总结,人工智能主要具有以下能力:1.模仿他人或者其他人工智能地行为;2.对周围事物学习反馈地能力;3.自己独立创造新事物地能力。但是与人相比,重要的区别就是人工智能没有思维能力,虽然它具有上述能力,但是上述能力的产生主要依靠其内部存在的编码,而不是自己独立做出该行为。从这个程度来看,人工智能不能与人相比较,拥有法律主体资格,“没有理性思维只是一种物,可以作为一种手段使用,有理性的生物才是人”。但是有的学者持相反的态度,认为人工智能成为法律主体资格是一种未来趋势。人之所以可以成为法律主体是因为法律的赋予,在超越编程设计范围可以独立行使意志自由的人工智能也可以依靠法律赋予主体资格。
        笔者认为对人工智能主体资格的认定应当随着人工智能的改变而有所变化,正如人的概念的内涵也发生着一定的改变。在传统的社会中人工智能只是作为一种工具的使用,人工智能本身并不具有独立行使意志的行为,因此,人工智能是不能看作具有法律主体资格的。但是随着社会的发展,人工智能逐渐步入人们的社会生活,应当看到其与传统的人工智能是有一定差距的,科技的发展使得人工智能甚至可以超越人类的智慧取得胜利,甚至可以超越人类的陪伴取得感情的信任。在这种情况下,是不是可以运用法律拟制的手段,拟制人工智能为法律主体,让人工智能拥有一定的权利行为,也承受一定的责任。
        二、人工智能刑事责任规制的完善
        人工智能因其自主能动性的不同应当设立不同标准的规则原则,同时,因人工智能还存在工具性的特性,销售者对人工智能的设计原理、操作流程等都不得而知,因此对生产者、销售者的责任也应当区别化。



        (一)明确生产者、销售者和使用者承担责任的范围
        有的人工智能并不具有自主意识,不能独立做出决定,其作出的违法行为必然是生产者、销售者的故意或者过失行为导致,生产者、销售者应当对以工具性为属性的人工智能承担主要责任,对具有自主能动性的人工智能承担次要责任。生产者对人工智能的编码、操作流程、只能水平等具有决定性的作用,相反,销售者只对人工智能的应用性能有所了解,对其内部构造完全不知,因此两者之间的责任承担应当有所区别。
        生产者因为是人工智能的创造者,因其制造的人工智能出现问题致人损害应当适用无过错责任。人工智能引起损害后往往对其自身的原因很难认证,仅以过错责任原则未免会有排除生产者责任的可能,将会造成生产者可以肆意制造能够违法犯罪的人工智能,却能以缺乏主观过错而不被追究责任的结果。因此,对生产者的责任进行明确,不仅有利于受害方的救济,也有利于加强其生产过程中的责任感。
        对于销售者而言,他们对人工智能的生产以及设计的各方面都没有介入,因此对人工智能产生的致人损害责任应当在其承担的义务范围内。若在销售者明知人工智能的用途就是用来进行违法犯罪行为的,则应当与使用者构成共同犯罪的帮助犯。
        人工智能的使用者拥有人工智能的所有权,在操控或者指使人工智能进行违法犯罪活动的,此时的人工智能属于工具,其犯罪行为应当由人工智能的拥有者承担。若人工智能在没有进行任何错误的编码脱离使用者的操控范围进行违法犯罪活动,则使用者不应承担其刑事责任。
        (二)对人工智能设立特殊的规制路径
        人工智能具有其特殊性,在通过法律拟制成人的前提下,也就是说人工只能具有一定的法律主体资格,“对一些应用性能较好的人工智能,应当加快国家法律的制定对其进行规制”,以便加强对人工智能的监管,有利于社会稳定。对于人工智能的规制,应当从从人工智能进行违法犯罪行为的内因探究,避免法律的僵化和滞后性。同时,对人工智能技术安全需要严格把控,有必要对每个产品部件以及编程进行备案登记。最后,因人工智能与人的不同,虽然不能对其作出现有的刑罚,但是可以从以下几个方面对其进行规制:1.删除人工智能的有关数据。这是指对人工智能进行违法犯罪过程中所依赖的数据进行删除,并且不得再对该人工智能恢复该数据。2.对人工智能的程序进行一定修改。对人工智能的程序进行修改是在罪行比删除数据的罪行严重的前提下,强制对其程序进行修改,使其不再具有自主能动性,剥夺其独立的法律主体资格。3.对人工智能进行销毁,相当于刑罚中的死刑。在人工智能犯下更为严重的犯罪行为时,对人工智能整体进行销毁。此规制途径从轻到重,形成了对人工智能进行惩处的刑罚阶梯,体现了刑法的罪责刑相适应原则。
        既然社会在不断发展,刑法理念就应当紧随社会的发展进行转变。在未来,当人工智能因为科学技术变得更加成熟的时候,法律必然要做出转变,对人工智能的行为予以规制。
参考文献
[1]时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018,36(06):67-75.
[2]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,35(01):3-11.
[3]王燕玲.人工智能时代的刑法问题与应对思路[J].政治与法律,2019(01):22-34.
[4]左卫民.热与冷:中国法律人工智能的再思考[J].环球法律评论,2019,41(02):53-64.
[5]马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报(社会科学版),2018,32(02):108-115.
[6]彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(02):52-62.
[7]刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018(01):40-47.
[8]刘洪华.论人工智能的法律地位[J].政治与法律,2019(01):11-21.
[* 江苏师范大学校级课题项目“医疗事故中人工智能刑事责任认定”(项目编号2020XKT115)阶段性研究成果。]*

 

 

投稿 打印文章 转寄朋友 留言编辑 收藏文章
  期刊推荐
1/1
转寄给朋友
朋友的昵称:
朋友的邮件地址:
您的昵称:
您的邮件地址:
邮件主题:
推荐理由:

写信给编辑
标题:
内容:
您的昵称:
您的邮件地址: