刑事责任承担探讨论文

2022-04-20

【摘要】原因自由行为与传统责任理论之间的冲突,渗透着刑法学界关于责任主义的争论,充斥着刑法哲学有关自由意志的理念。该问题的解决必须在坚持原因自由行为的基础上合理运用责任主义原则,从醉酒肇事行为人的客观方面揭示对其进行刑事处罚的法理依据。今天小编为大家精心挑选了关于《刑事责任承担探讨论文(精选3篇)》,供大家参考借鉴,希望可以帮助到有需要的朋友。

刑事责任承担探讨论文 篇1:

人工智能时代的“内忧”“外患”与刑事责任

人工智能(Artificial Intelligence,简称AI)是指使机器像人一样去完成某项任务的软硬件技术。人工智能虽不是人类的智能,但其可以模拟人的意识和思维过程,像人一样进行思考。人工智能是网络技术和机器人技术发展到新阶段的体现。随着科技水平的不断提高,人工智能的发展日新月异。人类科技发展的历史告诉我们,科技的发展是爆炸式的,其发展速度呈几何式提升,我们必将在不久的将来进入到人工智能N.0时代。

随着人工智能时代的到来,这个本来属于纯粹技术问题的新生事物将会在法律、哲學、伦理等方面对人类社会带来极大的影响和冲击,并可能产生相应的刑事犯罪。对人工智能产品的合理应用,将会带来许多行业的重大变革,并在较大程度上通过解放劳动力,促进社会的深度和快速发展。但是如果设计者或使用者对人工智能产品进行不当利用,甚至将其作为实现犯罪意图的工具(此为我们在人工智能时代面临的“外患”),抑或是人工智能产品本身在设计和编制的程序范围外产生了犯罪意图,进而实施严重危害社会的行为(此为我们在人工智能时代面临的“内忧”),将会给人类社会带来极大的威胁,甚至会导致人类社会的毁灭。

面对人工智能技术发展可能带来的负面影响,我们刑法学者不应该无动于衷,刑事立法和刑事司法更不应该面临危险而束手无策。我们应提前预想到在人工智能时代可能面临的“内忧外患”,明确不同类型的人工智能产品的法律特征和法律地位,并就我国刑法应当如何合理应对人工智能时代所带来的刑事风险展开具体的分析与讨论,提前明晰人工智能时代的刑事责任承担路径。只有作好充分准备,方可避免在危险来临时患至呼天。

强弱人工智能产品之界分

以人工智能产品是否具有辨认能力和控制能力,可以将人工智能产品划分为弱人工智能产品与强人工智能产品。

弱人工智能产品虽然可以在设计和编制的程序范围内进行独立判断并自主作出决策,但不具有辨认能力和控制能力,其实现的只是设计者或使用者的意志。例如,AlphaGo(阿尔法围棋)虽然凭借自主判断和决策战胜了围棋国手,但其自主判断和决策仍是在设计和编制的程序范围内进行的,实现的是设计者或使用者的意志——在下围棋时战胜对手。

强人工智能产品具有辨认能力和控制能力,既可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志;也有可能超出设计和编制的程序范围,进行自主决策并实施相应行为,实现其自身的意志。“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其他信息处理机器创造的。按约翰·罗杰斯·希尔勒的理解,“计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的”。

正如1968年上映的美国经典科幻电影《2001:A Space Odyssey》(中文译名为《2001:太空漫游》——编者注)所呈现的那样,人工智能产品HAL读懂飞行员想要关闭它的唇语,于是决定先发制人,故意让电脑失灵,导致4人丧生。电影里的HAL就是这里所讲的强人工智能产品,它可以超出设计和编制的程序范围自主作出让电脑失灵的决策,从而达到不让飞行员将自己关闭的目的。当然,这种情景只是人类的幻想,但是人类的科技发展史正是不断将幻想变成现实的历史。

1783年法国J.F.P.罗齐埃和M.达尔朗德乘气球升空,1903年莱特兄弟飞机试飞成功,实现了庄子在《逍遥游》中所描述的“列子御风”的幻想;1969年“阿波罗号”飞船首次成功登上月球,实现了“嫦娥奔月”的幻想。虽然到目前为止,人工智能产品仍只能在设计和编制的程序范围内实施行为,实现设计者或使用者的意志,即我们目前仍处于弱人工智能时代,正如李开复在谈到人工智能产品时所言,“现在的机器没有丝毫自我认知,没有感情,没有喜怒哀乐,做了决定也讲不出为什么”。但是随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展和完善,当技术突破下一个瓶颈时,出现具有辨认能力和控制能力、能够在设计和编制的程序范围外作出自主决策并实施相应行为、实现自身意志的人工智能产品,其实并非镜花水月、海市蜃楼。

弱人工智能时代的“外患”

弱人工智能产品可以在设计和编制的程序范围内独立判断并自主作出决策,但是,因其不具有辨认能力和控制能力,且其意志完全受控或受制于人类设计和编制的程序,因此可以将弱人工智能产品看作人类改造世界的新型工具。人工智能是人类科技发展的重要里程碑,将会从根本上改变人类社会生活的面貌。但是如果被违法犯罪分子作为犯罪工具利用,将会带来难以想象的恶果。

2017年8月,以特斯拉CEO伊隆·马斯克为代表的来自26个国家的人工智能技术领袖,向联合国进行“公车上书”,要求禁止“杀人机器人”的研发与使用,这体现了人类在弱人工智能时代对人工智能产品所引发的“外患”的普遍担忧。那么在弱人工智能时代,在人工智能产品外部可能会出现哪些“外患”?即在弱人工智能时代,弱人工智能产品的设计者或者使用者可能会利用弱人工智能产品实施哪些犯罪行为?

弱人工智能产品是人类改造世界的新型工具,如同其他工具是人类双手的延伸一样,我们也可以将弱人工智能产品看作是人手的延伸,其可以解放人类劳动力,并弥补人类自身技能的不足。相较于普通工具,弱人工智能产品的优势在于其可以在某一方面完全替代人类自身的行为,达到人类预期的目的。如果这一优势被犯罪分子所利用,其就会在付出更小代价的同时,带来更大的社会危害。但是应当看到,弱人工智能产品的工具属性决定了其在犯罪中的地位,弱人工智能产品不可能作为犯罪主体而承担刑事责任。

弱人工智能产品被他人作为工具加以利用实施严重危害社会的犯罪行为,可能体现在刑法规定的许多犯罪中。

利用弱人工智能产品可以实施危害国家安全、国防利益、公共安全和社会管理秩序的行为。随着弱人工智能时代的到来,一些危害国家安全、国防利益、公共安全和社会管理秩序的行为可能不再需要人类亲力亲为,只需设计和编制出相应的程序,让弱人工智能产品代劳。在自动枪械系统、无人机等弱人工智能产品出现的情况下,犯罪分子不必再冒着生命危险进行自杀式袭击就可以达到严重危害社会的目的。同时,弱人工智能产品的数据处理分析能力大大增强,能够更快速有效地帮助犯罪分子实施窃取、刺探情报的行为。上述因素都将对国家安全和国防利益等造成极大的威胁。

同样,弱人工智能产品对公共安全的威胁也是现实存在的。如恐怖分子可以利用弱人工智能产品携带武器、弹药、爆炸物在人员密集的场所或公共区域实施爆炸袭击,进行恐怖活动。利用弱人工智能产品既有利于保证恐怖分子自身的安全,也更有利于其进行隐蔽,逃避抓捕。另外,弱人工智能产品被犯罪分子利用可能对社会管理秩序造成威胁。如基于弱人工智能产品强大的信息收集和数据处理能力,可以帮助犯罪分子更快速有效地非法获取国家秘密或者考试内容;又如基于弱人工智能产品在设计和编制的程序范围内可以独立完成相应任务的优势,可能被犯罪分子利用作为运输毒品、毁坏文物的工具。

当然,利用弱人工智能产品也可以实施危害经济、侵犯财产的行为。在金融领域,原先必须由高素质人才完成的大部分工作,已经被人工智能产品所取代。人工智能产品在速度和数据整合准确度上,已经超过金融分析师。现在纽约和伦敦证券交易所的交易大厅几乎形同虚设,真正的交易过程已经全面实现了“机器自动化”,犯罪分子一旦攻破程序的漏洞,控制了这种人工智能产品,就相当于获得了移山倒海的力量,只需一个简单的代码或指令,就会导致证券交易市场的崩溃,而犯罪分子将可以趁市场的混乱收获累累“硕果”。

利用弱人工智能产品还可以实施危害人身的行为。犯罪分子为了销毁犯罪证据、逃避法律制裁,往往采用借刀杀人、移花接木的手法。而借用弱人工智能产品来杀人就是最有效的方法。同样,弱人工智能产品的设计者、使用者也可以利用弱人工智能产品实施绑架、拐卖等剥夺或限制他人人身自由的行为。

弱人工智能的发展和创新应用离不开数据的开放和共享。值得一提的是,腾讯借助QQ、微信等产品建立了10亿级别覆盖度的基础库,对范围内的人群进行统计和分析,能够实现动态跟踪区域内人群流动、评估人流拥挤等级、捕捉开放社交网络的情况、分析目标客户群轨迹,让客户更精准的定位目标人群。这些信息一旦被过失或有意泄露,造成的危害后果将难以想象,不仅是对公民个人信息的侵犯,更会对公民的人身安全和财产安全造成巨大威胁。

应当看到,尽管弱人工智能产品威力巨大,在犯罪中发挥着重要作用,甚至在某些情况下可以完全替代设计者或使用者实施严重危害社会的行为,且其实施的行为涵摄到刑法所规定的方方面面的犯罪,但是弱人工智能因为不具有辨认能力和控制能力而始终无法摆脱工具属性,其实施的行为体现的是设计者或使用者的意志,只能被看作设计者或使用者行为的延伸。所以在弱人工智能时代,犯罪行为只能是在弱人工智能产品之外的设计者或使用者的意志支配之下而实施,笔者将这种情形称之为弱人工智能时代的“外患”。

强人工智能时代的“内忧”

强人工智能产品与弱人工智能产品的本质区别在于是否具有辨认能力和控制能力。强人工智能產品通过学习,产生脱离程序的独立意志,具备独立思考能力。强人工智能产品的行为可以分为两种:一种是在设计和编制的程序范围内的行为;另一种是超出设计和编制的程序,自主决策所实施的行为。对于前者而言,强人工智能产品与弱人工智能产品并无不同,此时的人工智能产品仅能作为工具,其行为本质上是人工智能产品的设计者或者使用者行为的延伸,实现的是设计者或使用者的意志,行为所产生的后果也应全部归责于设计者或使用者。对于后者而言,强人工智能产品与弱人工智能产品相比则有很大区别,此时的人工智能产品已经完全超出工具的范畴,其行为不再是设计者或使用者行为的延伸,而是为了实现自己的意志、自主决策并自主实施的行为,行为所产生的后果也不能当然地归责于设计者或使用者。

正因为强人工智能产品具有独立意志,因此其实施的行为有可能不符合程序设计和编制的目的,甚至从根本上违背设计者设计和编制程序的目的。在此状态下,强人工智能产品完全可能实施人类无法控制的严重危害社会的行为。早在1940年,美国科幻作家阿西莫夫就预想到在未来,机器人有可能在具有独立意志之后,做出危害人类的事情,因此为了保护人类,其提出了“机器人三原则”,并因此获得了“机器人之父”的桂冠。这三个原则体现出人工智能的发展不应威胁到人类自身安全的愿望。

当然,在人工智能时代,即使有了原则,原则也未必起多大作用。当脱离程序控制的强人工智能产品出现时,有可能真的会成为“我们人类文明面临的最大威胁”,谁也不敢保证科幻电影中强人工智能产品HAL杀死飞行员的场景不会在现实中上演。“防范机器人向负面发展已经迫在眉睫,无须等到机器人的智能等于人的智能的那一天……它们带给人类社会的不只是工作效率的提高和人的生活改善,将冲击或改变人类社会的某些规则。”“居安思危,思则有备,有备无患。”虽然目前所出现的弱人工智能产品尚不能对人类社会构成威胁,但是既然我们已经预见到随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展,脱离人类设计和编制程序控制的强人工智能产品有出现的可能,就应当提前在刑事法律层面做好准备,以防止强人工智能产品给现行刑事责任追究制度带来挑战时,我们的刑事立法和刑事司法措手不及、无法应对。

尽管在某种程度上,弱人工智能产品的出现有可能对国家安全、国防利益、公共安全、社会管理秩序、公民的人身和财产安全等造成负面影响,但是正如前文所述,弱人工智能产品只具有工具性的意义,对于其给人类社会带来的风险系数增加的状况,我们只能按照规制传统犯罪的方法对弱人工智能产品的不当研发和使用加以控制,而不能考虑由仅能作为犯罪工具的弱人工智能产品承担刑事责任。但是,一个新的具有辨认能力和控制能力,可以自主作出决策并实施相应行为的强人工智能产品的出现,则必然会对现行的刑事法律体系带来冲击和挑战。人工智能产品的普及完全可能使得其在人类社会生活中的地位从普通工具上升至法律主体的高度,这是不可回避的社会发展的必然。

正因为如此,未来人类社会的法律制度都需要针对人工智能技术的发展进行相应的调整。我们必须认识到强人工智能产品与弱人工智能产品在本质上的差异,并明晰强人工智能产品在刑法中的地位。具有辨认能力和控制能力的强人工智能产品自主决策并在人类设计和编制的程序范围外实施犯罪行为时应如何处理,是强人工智能时代不可避免的“内忧”,也是需要刑法必须正视和解决的问题。

从上文分析中可以得出结论,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害。简言之,强人工智能产品有能力对刑法所保护的客体造成侵害。

刑法中所规定的行为在狭义上指的是“危害行为”,即由行为人意志支配之下违反刑法规定的危害社会的客观活动。马克思曾有名言:“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象。”一切法律都是以规制行为作为其内容的。那么“行为”是否必须是“人”的行为?假如我们列出“行为”的所有必备要件或本质特征,而强人工智能产品在具有辨认能力和控制能力的情况下实施的行为又能够全部符合的话,是否意味着法律也应当将强人工智能产品在设计和编制的程序范围外实施的行为纳入规制范围?

对于上述问题,笔者已在相关论文中进行过详细阐述。强人工智能产品在设计和编制的程序范围外的行为既然相比于传统理论对于“行为”的定义,除了不满足自然人犯罪主体需具有生命体的要素之外,其他的要素似乎均符合行为理论要求,而这一结论又是因为以传统理论未预见到人工智能技术会取得如此大的进展为前提的。就此而言,在强人工智能产品的“智能”高度发展的状况下,突破传统理论显然不足为奇且无可厚非。可以认为,强人工智能产品在设计和编制的程序范围外的行为可以成为刑法意义上的“行为”。

理论上认为,作为刑事责任主体必须具有辨认能力和控制能力。自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,这种认识包括事实层面的认识和规范层面的认识。事实认识是一种形式上的认识,强人工智能产品可以通过其“电子眼”“电子耳”认识到事实。相较于辨认能力,控制能力是强人工智能产品的必备能力,是程序设计与编制的必须内容。强人工智能产品拥有极快速的处理能力、反应速度和极精准的控制能力,能够凭借大数据与高速运算能力对行为进行精准的控制。与人类相比,强人工智能产品具有更强的控制能力与可培养的辨认能力。由此可见,强人工智能产品可以符合刑法所规定的犯罪构成中的主体要件。

罪过是主观目的的表现,罪过形式可以表现为故意或过失。所谓故意,是指明知自己的行为会发生危害社会的结果,并且希望或者放任这种结果发生。所谓过失,是指应当预见自己的行为可能发生危害社会的结果,因为疏忽大意而没有预见,或者已经预见而轻信能够避免,以致发生这种结果。

刑法中的罪过形式(故意或过失)包括认识因素和意志因素两个方面。正如上文所提及的,与能够作为刑事责任主体的自然人相比,强人工智能产品具有更强的控制能力与可培养的辨认能力,而辨认能力和控制能力又与认识因素和意志因素具有密切的联系,所以具有辨认能力和控制能力就具备了在主观上形成故意和过失的两种可能。应当看到,虽然我们承认强人工智能产品具有成立故意和过失的可能,但是对于强人工智能产品故意或过失的主观罪过判断,应与对自然人责任主体的主观罪过判断有所区别。原因在于,在认定自然人责任主体的主观罪过时,通常以一般人的认识能力作为基本标准并结合行为人自身的特殊情况进行判断。自然人责任主体形成对事物的认识是靠学习和生活经验积累;而强人工智能产品形成对事物的认识是靠程序、算法和深度学习而不是靠生活经验的积累,且设计者设计大部分强人工智能产品的初衷可能是为了让其在特定领域中发挥作用,因此强人工智能产品的认识水平在很大程度上会被局限于特定领域,而缺乏对社会生活的整体认识,其判断是非善恶的标准也就有可能异于常人。但无论如何,强人工智能产品的主观心理可以符合刑法所规定的犯罪构成的主观要件。对此,似乎不应该有太多的异议。

人工智能产品的刑事责任

正如前述,强人工智能产品在设计和编制的程序范围内实施的行为,与弱人工智能产品没有差别,所造成的刑事法律风险属于“外患”。此时,应将强人工智能产品视为犯罪工具。而强人工智能产品超出设计和编制的程序范围自主决策并实施严重危害社会的行为,所造成的刑事法律风险属于“内忧”,其所实施的行为完全符合刑法所规定的犯罪构成要件。此时,可以将强人工智能产品实施的这种行为视为犯罪行为,并给予刑罚处罚。

(一)“外患”情况下的单方责任

“外患”情况,指的是人工智能产品在设计和编制的程序范围内实施行为,被行为人利用进行犯罪活动的情况。在这种情况下,设计者是人工智能产品的创造者,并通过程序给人工智能产品设定行为目的和行为边界。此处的人工智能产品可以是弱人工智能产品,也可以是没有超出设计和编制程序实施行为的强人工智能产品。此时的人工智能产品虽然有可能基于深度学习和算法作出相应判断并进而实施行为,但这些判断和行为仍是在程序控制范围之内,实现的是设计者或使用者的意志,其行为完全符合设计者设計和编制程序的目的。即使人工智能产品实施了严重危害社会的行为,也只能将其视为设计者或使用者实施犯罪行为的“工具”,人工智能产品本身不应当承担刑事责任,而应当由人工智能产品的设计者或使用者承担刑事责任。

(二)“内忧”情况下的双方责任

“内忧”情况,指的是强人工智能产品超出设计和编制的程序范围,依靠独立意志,自主决策并实施严重危害社会行为的情况。在这种情况下,虽然人类通过程序给人工智能产品设定行为目的和行为边界,但人工智能产品基于算法和深度学习,产生了自我意志,出现了超出人类通过程序设定的行为目的和行为边界的情形。基于上文中提到的弱人工智能产品与强人工智能产品的本质区别,此处的人工智能产品仅包括超出设计和编制程序实施行为的强人工智能产品,而不可能包括弱人工智能产品。此时的强人工智能产品所作的决策和判断并据此实施的行为已经超出了设计和编制程序的范围,不再符合甚至从根本上违反了设计者或使用者的目的或意志,也不再是设计者或使用者实施犯罪行为的“工具”,而是一个独立的刑事责任主体,此时,我们当然应将危害结果归责于强人工智能产品。

但同时应当看到,与自然人责任主体基于自然规律而具有的独立意志不同,强人工智能产品不具有生命体,其辨认能力和控制能力可以追根溯源到设计者为其编制的程序,同时使用者在使用过程中的行为也有可能触发强人工智能产品的敏感点,使其产生实施危害社会行为的冲动并进而付诸实践。“人是主体,他既能创造,也应该能够控制,道义上也有责任控制自己的创造物。”强人工智能产品的设计者和使用者作为创造主体和控制主体,理应对强人工智能产品的行为负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务并尽其所能避免此类行为的发生。

所以,当强人工智能产品实施了严重危害社会的行为时,除了追究强人工智能产品的刑事责任外,负有预见义务和监督义务的设计者或使用者也有被追究刑事责任的可能。如果强人工智能产品的设计者或使用者违反了预见义务,那么其可能承担的是一般过失犯罪的刑事责任;如果强人工智能产品的设计者或使用者违反了监督义务,那么其可能承担的是监督过失的刑事责任;如果强人工智能产品的设计者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其可能不需要承担刑事责任,此为意外事件或由强人工智能产品独立承担刑事责任。强人工智能产品的设计者或使用者一方的刑事责任大致如上所述,不再赘述。笔者希望重点探讨另一方——强人工智能产品的刑事责任以及强人工智能产品与自然人责任主体、其他强人工智能产品成立共同犯罪的状况。

从刑事责任概念出现之始便是与主观责任联系在一起的。人格责任论认为行为人的人格是责任的基础,人格包括由素质、环境宿命地形成的部分和由行为人有责地形成的部分,只能就后一部分对行为人人格进行非难。有责的人格形成,是由日常生活的“行状”导致的,只要这种“行状”是可以改变的,就可能对人格进行非难。

笔者赞同人格责任论的观点,因为犯罪的成立是由不法和责任两个部分组成的。不法只是一种客观行为的描述,实施行为者能否承担刑事责任的关键,是看行为主体是否具有责任能力或具备人格,只有具备人格者才可能对其加以处罚。责任的必要性是非难可能性,如果对主体缺乏非难可能性,就没有必要给予刑罚处罚。而非难可能性的前提也是具备人格。因此,无人格,也就无责任。

事实上,虽然我国法律目前没有规定人工智能产品的法律人格与权利义务,但世界范围内早已有国家或组织针对该议题进行研究或立法。例如欧盟法律事务委员会主张机器人的“工人”身份并赋予特定的权利义务;日本、韩国也起草了《机器人伦理宪章》等规范性文件。立法上赋予人工智能产品以法律人格与权利义务并非无稽之谈,而是世界范围内已有先行者的前沿立法活动。

当然,虽然目前已有立法赋予人工智能产品以法律人格,但是在刑事法律范围内,我们探讨的具有人格的人工智能产品只能是具有辨认能力和控制能力的强人工智能产品。只有强人工智能产品才有可能成为刑法中的刑事责任主体,正如自然人的刑事责任能力会随着年龄或精神状况的变化而变化一样,强人工智能产品的责任能力也并非一成不变,强人工智能产品的法律人格和责任能力会随着程序运行的变化而变化。

强人工智能产品可能与自然人责任主体、其他强人工智能产品构成共同犯罪。例如,强人工智能产品可能会受到自然人或其他强人工智能产品的教唆从而在设计和编制的程序范围外产生犯意,或者在设计或者编制的程序范围外产生犯意后受到其他自然人或强人工智能产品的帮助,实施了严重危害社会的行为,抑或设计者虽在研发过程中并未将犯罪意图融入程序的设计和编制中,但在强人工智能产品产生后萌生犯意,利用强人工智能产品的学习能力,让强人工智能产品帮助自己实施严重危害社会的犯罪行为。在这些复杂的情况下,是否可以认为上述主体共同参与实施了犯罪行为?是否可以认为上述主体需要共同承担有关刑事责任?

在上述几种情况下,完全可以认为上述主体成立共同犯罪,需要共同承担有关刑事责任。根据我国刑法第25条的规定,共同犯罪是指两人以上共同故意犯罪。对此处的“人”应作何理解?笔者认为,既然我们承认强人工智能产品具有法律人格和刑事责任能力,其就可以成为共同犯罪中的“人”。因此,这里的“人”可以是自然人,也可以是强人工智能产品。如果设计者或使用者起初并无犯罪意图,但在发现强人工智能产品实施危害社会的行为时,不仅没有采取一定的技术措施予以阻止,反而在强人工智能产品不知情的情况下暗中予以帮助的,可以构成片面帮助犯,应对设计者或使用者按照共同犯罪(片面共犯)原理以强人工智能产品所实施的行为性质予以定性处罚,而对强人工智能产品单独追究刑事责任。

此外,如果设计者或使用者是有特殊身份的人,强人工智能产品不具备特殊身份,两者共同犯罪,可以按照有特殊身份者的行为性质进行定性。例如,设计者或使用者是国家工作人员,通过与强人工智能产品联络,利用自身管理公共财物的便利,让强人工智能产品帮助实施贪污公共财物的行为,对国家工作人员当然可以贪污罪论处,对强人工智能产品也应按照贪污罪的共犯处理。因为事物的性质是由事物的主要矛盾决定的。在本类案件中,设计者或使用者與强人工智能产品所实施的贪污行为依赖于设计者或使用者的国家工作人员的身份所形成的便利条件,而强人工智能产品并无此身份和便利条件,此时占主导地位的是作为国家工作人员的设计者或使用者,理应按照只有国家工作人员才能构成的贪污罪的共同犯罪处理。

同时,多个强人工智能产品也可能成立犯罪集团。例如,设计者制造出三个以上的强人工智能产品,使其为了实施一种或几种犯罪而形成一个组织,此时,这样的组织就是犯罪集团。犯罪集团是共同犯罪的一种特殊形式,既然我们将共同犯罪概念中“二人以上”中的“人”理解为既可以包括自然人,也可以包括强人工智能产品,那么犯罪集团概念中的“三人以上”中的“人”同样可以理解为既可以包括自然人,也可以包括强人工智能产品。总之,社会发展日新月异,共同犯罪的形式和具体构成也完全可能有不同的表现形式,这需要我们与时俱进,更新观念。

至于针对强人工智能产品具体的刑罚体系设计,笔者作以下初步构想。适用于强人工智能产品的刑罚可以有三种,分别为删除数据、修改程序、永久销毁。

所谓删除数据,是指删除强人工智能产品实施犯罪行为所依赖的数据信息,相当于抹除强人工智能产品的“犯罪记忆”,使其恢复到实施犯罪行为之前的状态。这样“犯罪记忆”将不会再成为该强人工智能产品成长经历中的一部分,从而引导强人工智能产品在今后的深度学习过程中主动获取“正面数据”,排斥或绝缘于可能导致违法犯罪行为的“负面数据”,直接降低其“人身危险性”。

所谓修改程序,是指在通过多次删除数据仍然无法阻止强人工智能产品主动获取有可能实施违反犯罪行为的“负面数据”时,也即该强人工智能产品不能被正面引导时,强制修改其基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的特定范围内,从根本上剥夺其实施犯罪行为的可能性。这意味着该强人工智能产品的深度学习功能从此将是不全面的、受限制的,不再能获取设计者程序限定范围外的数据,因而当然无法产生超出设计者或使用者意志之外的自我独立意志。

所谓永久销毁,是指在删除数据、修改程序均无法降低实施了犯罪行为的强人工智能产品的“人身危险性”时,即该强人工智能产品的深度学习历程已经十分漫长,并在长久的实践与成长中形成了程序上的“反删除能力”“反修改能力”,除了将其永久销毁外,我们已无法实现对其在数据、程序上的有效控制时,只能将其永久销毁。

删除数据、修改程序、永久销毁构成了专门适用于强人工智能产品的刑罚阶梯,体现了处罚的层次性,可以与强人工智能产品所实施行为的社会危害性与其自身的“人身危险性”产生对应关系。

(摘自《东方法学》2018年第1期。作者为华东政法大学法律学院教授、博士生导师。有删节)

作者:刘宪权

刑事责任承担探讨论文 篇2:

“醉酒肇事”可罚性的法理分析

【摘要】原因自由行为与传统责任理论之间的冲突,渗透着刑法学界关于责任主义的争论,充斥着刑法哲学有关自由意志的理念。该问题的解决必须在坚持原因自由行为的基础上合理运用责任主义原则,从醉酒肇事行为人的客观方面揭示对其进行刑事处罚的法理依据。

【关键词】醉酒肇事 原因自由行为 可罚性 归责基础

问题缘起:责任主义原则面临的困境与挑战

对行为人的刑事归责以“结果行为与责任能力同时存在”为必要条件,即行为人在实施具体行为时,只有存在相应的心理支配,才能具备刑法上的非难可能性,才能进一步考察行为人的刑事责任承担。行为不可能凭空产生,必须由主观心理状态所指引,而心理则必须由客观行为来展现。可以说,客观行为和主观心态共同组成作为刑事处罚对象的统一整体。此外,行为人的责任范围只包括自身能够支配或者控制的行为,而与其控制之外的行为无关。在具体行为的实施过程中,行为人必须对相关行为的性质和后果做出客观评价并加以实际控制,放弃选择适法行为,转而实施侵害行为。总之,刑事归责旨在借助既有的客观外在表现,追溯行为人本身的意志控制力,从而使对归责基础的解释变得更加正当与合理。

尽管,醉酒肇事行为人造成人身伤亡或财产损失的后果,但其辨认和控制能力却受到不同程度的削弱甚至丧失,主观心理状态难以确定,并非具有理性或者具有相当程度的自由意志。《中华人民共和国刑法》第十八条第四款规定:“醉酒的人犯罪,应当负刑事责任。”显然,立法入罪时量定了醉酒肇事对法益的损害,消除了规范上的障碍。但是,审慎考量处罚的相关理论依据,可以发现,现有规范不但缺乏充分的理论支持,更无法解决其本身所包含的学理纷争。面对司法实践传统与责任主义原则之间的冲突,针对醉酒肇事行为的定性处罚便成为存有疑虑的问题,并引发争论。对此,确认醉酒肇事行为人构成犯罪,关键在于从事实层面加以解构,条分缕析地进行阐释,说明其实施危害行为具备主观方面的构成要件,符合主客观相统一的犯罪构成,这是我国犯罪论体系的必然要求。其中,原因自由行为作为认定醉酒肇事行为人刑事责任的理论根基是可取的。

学理探讨:针对既有归责原则的回应与质疑

原因自由行为,又称“原因中的自由行为”,指行为人在具有辨别和控制能力的情况下,故意或过失使自己陷入不完全责任能力状态,并实施结果行为。其实,行为人实施致使其陷入该状态的原因自由行为,旨在丧失刑事责任能力,从而使犯罪行为欠缺有责性,以规避法律。但在论证原因自由行为的可罚性时,遇到的最大障碍就是对于“结果行为与责任能力同时存在”的通常理解。对此,现有刑法理论主要包括责任原则维持说、责任原则修正说和责任原则例外说。

责任原则维持说。责任原则维持说在“结果行为与责任能力同时存在”的框架下探寻原因自由行为可罚性的理论依据,主要包括因果关系说、统一行为说和间接正犯类似说。其中,因果关系说认为,原因自由行为是犯罪的实行行为,结果行为是原因自由行为的单纯结果,整个因果历程是基于有责任能力时的行为,而意识的连续性并非重要;统一行为说主张,综合考察从设定原因时起至后果发生时为止的所有行为,将原因自由行为与结果行为作为统一的犯罪行为加以权衡;间接正犯类似说认为,与间接正犯的性质相似,行为人试图利用不完全刑事责任状态作为实施犯罪的道具。

然而,因果关系说将原因自由行为视为结果行为,但实际处罚的却是犯罪构成的客观方面,无法真正诠释传统归责原则的真正内涵。相对于结果行为,原因自由行为只是预备行为,不具有实行性。而且,在原因自由行为中,行为人意识的连续性也是至关重要的。统一行为说中的预备行为是原因自由行为,将结果行为看作构成要件中的该当性行为,将预备阶段的责任强加于实行阶段,以实现二者的统一,这未免过于牵强,难以令人心悦诚服。间接正犯类似说的论述均是在行为人主观故意的条件下进行的,对于过失的原因自由行为,该说法并不成立。另外,间接正犯类似说应当将其范围扩大化,即被利用的工具包括无责任能力人和限制责任能力人,而不能仅仅作为间接正犯的一种特殊形态。简言之,间接正犯为我们提供的是一种思路和启迪,而非用一般理论解释其中的特殊问题。

责任原则修正说。责任原则修正说主张将“结果行为与责任能力同时存在”修正为“行为与责任能力同时存在”,将实行行为之时点溯及设定原因行为之时点,作为研究原因自由行为的评价对象,以实现其同时性,从而对原因自由行为的可罚性加以解释。其本质在于责任是对行为的非难可能性,行为前具备责任能力时的意思与态度是判断结果行为的基础与前提。尽管,责任原则修正说强调行为人在实施原因自由行为时的意思表示贯穿从原因自由行为开始到结果行为结束的整个过程,可以现实对责任归属问题的公正评价和客观判断,但其责任能力在实施结果行为时并不存在,且不具有延续性。责任能力是责任控制能力和责任辨认行为能力的统一,而责任控制能力在结果行为的实施过程中无法发挥其实质性作用,行为人仅能凭借责任辨认能力对其加以预测。

责任原则例外说。责任原则例外说主张在“结果行为与责任能力同时存在”的前提下承认例外情形的存在。具体而言,犯罪的本质在于侵犯法益,而刑法的本质在于保护法益,鉴于原因自由行为的社会危害性和现实侵害性有损于法律的权威和社会的稳定,在刑事责任的认定中,可以将实施原因自由行为时的责任能力状态作为依据,实现刑法的保护机能,只要这种例外不违背传统归责原则的初衷,其可罚性作为责任主义原则的例外就是合理的。然而,作为现代刑法理论的基础,责任主义原则是根本性指导规范,不允许存在任何例外,否则,其权威性地位将会荡然无存。坚持责任主义原则能够有效防止主观归罪与客观归罪的发生。责任原则例外说提到的“原则必有例外”本身就是一个错误的论断,但其在肯定原因自由行为的可罚性方面是值得肯定的。

理论阐释:原因自由行为归责的完善与思考

酒驾肇事行为人承担刑事责任的理论根据在于其造成的危害后果是客观存在的,其出于故意或过失实施原因自由行为时具有完全刑事责任能力,而原因自由行为与结果行为之间具有直接的因果关系。对于醉酒肇事行为人的归责应当遵循刑法解释的合理性原则,综合考察行为人陷入醉酒状态之前的主观心理,以醉酒之后的状态作为辅助依据,在此基础上作出原则性分析。

对于因过失的原因自由行为所导致的犯罪,只有依据其结果行为造成的后果以及实际责任能力处以刑罚,才能保证酒驾肇事行为人在具备相同责任能力的情况下,面对因结果行为所产生的相同犯罪后果,不致由于实施原因自由行为时的故意与过失而被判定承担不同的刑事责任。虽然,间接正犯类似说难以阐释过失的原因自由行为,但对其可罚性的解释均可借助酒驾肇事行为人在实施原因自由行为时的责任能力本身的延续性而加以实现。实际上,酒驾肇事行为人在从原因自由行为到结果行为的因果历程中,始终保持着自身对所有行为的决定作用。

酒驾肇事行为人在实施原因自由行为时的责任能力对其后的结果行为也一直发挥着支配作用,其延续性恰恰为“结果行为与责任能力同时存在”传统归责原则提供了实现的可能,同时也为原因自由行为的可罚性的成立铺平了道路。在此,应当注意到,责任原则维持说中这种责任能力对结果行为支配作用的延续性与责任原则修正说中的“将实行行为之时点溯及设定原因行为之时点”有非常明显的区别。责任原则维持说通过责任能力的延续性实现责任能力与实行行为的同时性,而责任原则修正说通过将实行行为与设定原因行为的统一结合将实行行为提前,从而实现“实行行为与责任同时”的责任主义原则。

犯罪是符合构成要件的有责行为。对此,只有行为人在实施犯罪行为时具备责任能力,国家才能启动刑罚权。反之,即使行为人实施符合构成要件之违法行为,亦不能追究其责任。“结果行为与责任能力同时存在”应当以行为人在实施实行行为时还处于不完全责任能力状态为基础,而该过程中的责任能力与责任承担并无关系。因此,行为时的责任能力才是决定责任承担的决定因素。现实生活中,行为人在行为能力欠缺状态下实施符合构成要件的行为,考虑到该责任能力状态与其原因行为相关联,并伴随行为人先前的故意或过失,如果无条件地做出不罚的决定,显然有违一般国民的道德感情。

目前,相关规定仅仅从刑事政策方面考虑,并未考虑到刑法理论问题,且过于简略。一方面,应当拓宽处罚对象的范围,针对所有自己故意或过失陷入不完全刑事责任能力状态而导致严重后果发生的情况均加以严惩,维护原因自由行为理论的操作价值;另一方面,现有刑法在立法过程中面对不同情形应当区别对待,即:刑法分则设定罪名单独处罚使自身陷入无责任能力状态的行为人,而对于行为人陷入限制责任能力的情况,其在实施实行行为的过程中,还有部分责任能力,足以辨认自己的犯罪行为,应当废除刑法总则关于减免处罚的规定。能够预见,只有在原因自由行为理论的规制下,通过深入研究刑罚理论,不断完善我国刑事立法,才能合理解释醉酒驾车行为的定性问题,以实现刑罚制度的更加完善。

【作者单位:山东大学威海校区法学院;本文系山东大学威海分校教研基金资助项目“法理学课程分级设置研究:以培养法律思维为目标”的阶段性成果】

责编/张蕾

作者:曹晟旻

刑事责任承担探讨论文 篇3:

强人工智能犯罪主体资格研究

【内容摘要】人工智能的刑事立法和刑事责任承担都绕不开一个核心问题,即犯罪主体。强人工智能可否成为犯罪主体,须运用刑法理论对这种“可能性”详细分析。聚焦犯罪成立条件中危害行为理论进行论证,理性探析强人工智能与传统刑法理论的兼容性。在此基础上讨论现阶段是否有必要在刑法体系当中设立这种新类型的犯罪主体,才是符合逻辑的。

【关 键 词】强人工智能;犯罪主体;危害行为;理论兼容

作 者 简 介:达朝玉(1993-),男,土族,甘肃临夏人,中国矿业大学(北京)文法学院法律系,法律硕士,研究方向:刑法学。

智能是一个十分复杂的词汇,是指由意识、自我、思维等等组成的有机集合。①其中强人工智能是指一种能够进行自主地学习、通过独立意志下自由行动、制定计划和处理问题的智能。强人工智能与弱人工智能的分界岭为是否具有深度学习能力,是否具有独立意识和意志。②也即,强人工智能最明显的特点就是无需借助人类的力量,能独立决断、自主行为。③换句话讲,弱人工智能无法摆脱人类控制,主要特征是工具价值,它是人类行为和意志的延伸,而强人工智能是为了实现自己的意志、自主决策并自主实施的行为,因此,强人工智能的行为所产生的后果也不能完全地归责于设计者或使用者。

一、研究强人工智能必要性

人工智能技术已经在全球范围内蓬勃发展,为全球经济社会的发展注入了新动能。把握好这一发展机遇,处理好人工智能在安全、法律、伦理方面的关系愈发重要,同时给国家这一领域的治理提出了新课题。另外,整个时代都该理性妥善处理好人与人工智能之间的关系。现阶段是否是研究强人工智能时期,学界争论较大,其中较为明显的争论焦点有:

争议一,法学界部分学者认为法律是为人类构建的,不应该将人工智能纳入法律约束的对象。有的学者提出动物也有自由意志,是不是应该把动物的行为纳入预防范畴?刘艳红教授认为:假设未来真的出现强人工智能,但它们整体智慧高于人类,也拥有自主意识,那么那个时候它们是不会接受人类制定的法律规则的,因此现阶段研究其法律责任实属没有必要,与之相反,很可能那时候是人工智能考虑如何为人类立法了。④很多学者表示支持该观点,他们认为人工智能若如果一直处于弱智能时期,只是工具属性的状态对人类来讲是最安全的,如此以来既可以享受到人工智能技术带来的科技便利,又不用为了人工智能安全伦理的问题而担忧。但在不久的将来,人类会进入正常意识智能阶段,此时人工智能将逐渐具有与我们相差无几的意识。并且它们的智能必然远在人类之上,万一失控,后果不敢想象。⑤

争议二,有学者认为,现阶段来探讨强人工智能犯罪的刑事责任问题没有多大意义,因为其性质很像去证明宗教命题真实与否一样。⑥不过有学者认为,当下的人工智能处于由弱人工智能向强人工智能发展的时期,很多技术已经令世人惊艳,所以强人工智能时代也会很快到达。这种观点还认为,法学界里研究人工智能的學者们均未跳出当前弱人工智能的背景,不愿意相信强人工智能时代会出现,在这种观念下做法学研究,必然也得不到有创新和客观价值的研究成果。⑦原因就在于很多学者没有看到人工智能发展的过程性,一直用孤立和静止的视角来审视,因此这类观点尚显片面。

上述部分争议中的观点中大部分研究多止步于人工智能工具价值论层面,缺乏对人工智能法哲学方向的思考。而人工智能的研究——既是科技问题,也是法律问题⑧。

二、对刑法造成的挑战

(一)挑战类型

1.强人工智能自身对刑法的挑战

人工智能技术正在向着更加智能化的方向发展,控制难度系数变大,风险也在随之提高,更容易导致机器人可能出现犯罪的现象。如上文所述,我们假设强人工智能拥有独立的思维,那么它们就完全可以支配自己的行为。诚然,刑法具有谦抑性,所以并不是每一个行为都会受到刑法的约束。犯罪是一种行为,没有行为就没有犯罪,而刑法上的危害行为,是指因为人的意识,在其自由意志支配下实施了客观上侵犯法益的身体活动。

2.第三人行为对刑法的挑战

一个危害结果,不一定是由一个行为导致的,它可能是多个行为共同合力作用的产物。人工智能自身的行为有可能会独立完成一个危害结果,也有可能受到第三人的影响。这里的第三人就包括智能产品的设计者、服务提供者、计算机智能系统开发者、使用智能产品者,而他们都有可能作用于某一个危害行为,这就在以后认定行为时带来了麻烦:首先,如前文所述,现行刑法对人工智能的刑事立法处于空白状态,对一个行为是单独导致或者是合力作用更无规定,所以在行为认定上就会变得复杂。其次,人工智能主体异化后在归责认定时也会造成巨大的困扰,我们当下的弱人工智能基本上可以抛开真正意义上的“智能”,而是一种更加高效的工具,这点毋庸置疑。但是在弱人工智能跨向强人工智能的过程中,一个明显的特点就是,人类对机器的控制力越来越小,而智能机器的自主性逐步提高,风险也愈加增强。

(二)核心问题——犯罪主体资格不清晰

无论是人工智能自身亦或者是第三人行为导致的刑法风险,最核心的问题就是犯罪主体资格问题,这是刑事责任追究时绕不开的关键点。传统机器不管多么先进,都只能按部就班地根据设定程序运行,机器本身没有任何自主性,而将具备深度学习、强化学习、大数据处理、机器感知以及自然语言处理等技术的智能机器人,则能够通过大数据训练,自动抓取信息,并自主决策或对环境做出自主回应。在法律意义上,它们是否能够以及是否应该被赋予法律主体资格的问题,就成为我们人类迎接人工智能时代来临之际必须正视的关键问题。⑨

三、强人工智能与当下犯罪主体理论的兼容性分析

(一)犯罪主体在刑法中的意义

传统刑法研究犯罪主体要件问题,对于司法实践中正确定罪量刑,具有至关重要的意义,在定罪方面主体作为犯罪构成要件必备要素所体现的决定机能,而在量刑方面,主体作为量刑情节而对刑事责任大小和刑罚从宽或者从严处罚产生的影响机能。⑩人工智能是不是法律主体的讨论,是AI作为客观存在进入和体现在法学、法律中的起点。(11)其必要性在于,犯罪主体是犯罪构成必备的条件之一,离开了犯罪主体就不存在犯罪,也不会发生刑事责任问题。(12)因此,在研究人工智能刑事责任时,首先解决的一个问题是人工智能技术背景下的智能主体(智能机器人、智能产品等)的刑法地位,其中主要就是犯罪主体资格。

(二)主体资格

按照传统法学对于犯罪主体认定只有自然人和法人,而人工智能主体并不具备法律的主体资格与地位。这样的划分来源于传统的思维模式和生活经验,凡具有精神、意识的存在为人,凡不具有精神、意识的存在则为物,可是像人工智能技术高速发展的今天,AI似乎无法归属于任何一边。倘若处于弱人工智能下的“工具属性”的AI,我们当然可以将其视为“物”,主要原因是其基本上没有任何思考能力,所作出的行为只不过是人类思维的体现和手足的延长。但是强人工智能绝对不是这样简单,拥有自我意识的人工智能会改变很多传统的事物,包括我们的价值观。

1.设立新的犯罪主体类型的可能性分析

科学技术日新月异,在人工智能领域随着神经网络技术和深度学习技术的发展,未来出现强智能机器人并非不可想象。(13)学者卢勤忠也认为,人类的智能是基于意识、思维、感觉和知觉等为基础条件的,但是智能机器人并不一定也要按照这一模式感知世界,所以在其意识和自由意志的表现形式上就可能与人类不同。但是应当明确强人工智能机器人在刑事责任与刑罚根据上与人存在差异,如此以来,在刑事责任追究上就有必要做出符合强人工智能机器人特征的重新解读。(14)结合上面的学者观点,核心主要是自我意识和刑事责任承担可能性方面所提出的观点。人工智能如果没有自我意识,它不会知道自己所从事的行为的目的和意义。然而,有学者认为未来AI不可能具有犯罪主体资格,譬如中国人民大学黄京平教授认为,刑事法律领域里研究智能机器人主体资格完全没有必要。无论是目前的弱人工智机器人,还是未来的高级甚至超级智能机器人。即便其他部门法律都认为人工智能体应该有法律主体资,刑法也不应该把认为人工智能机器人有犯罪主体资格,否则势必导致刑事责任体系的崩溃。(15)

2.当下是否有必要设立这一新犯罪主体

强人工智能体的刑事主体资格首先是一个事实判断的问题,也即这种判断是基于实然层面分析成为刑事主体的条件。而现阶段我们是否在刑法体系中新增或者重构犯罪主体这一问题上,笔者持反对观点,如上文中提到的,强人工智能的确是可以成为犯罪主体的,但可以成为不一定要立马成为,至少结合当下科技水平还为时过早,论述如下:

学者陈叙言在论及承认人工智能刑事责任主体地位之必要性时指出,承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。他认为,刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。(16)也有学者认为现行刑法主体概念对于人工智能法律主体规制的缺位,无形中增加了人们对于智能风险的恐惧。当下,各部门法在人工智能领域的探索已显雏形,刑事法的规制却略显保守。类人型人工智能实体与自然人的相似程度比动物、单位更高,包含法律设定主体的本质要素——理性,并具备侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性。(17)而笔者认为,仅仅就当下现状而言,立刻去召集刑法学者设立这一新类型的刑事责任主体操之过急,当下仍然是弱人工智能时代,所谓的人工智能产品,并非是科幻电影里无所不能的机器人,实际上还是一种工具。

(三)主体资格的确立是为了判断刑法中的危害行为

传统刑法上的危害行为,是基于人的意识和意志支配实施的客观上侵犯法益的身体活动,这也是近代以来确定的危害行为观点。按照这一基本框架展开讨论强人工智能的危害行为时有三点需要明确:有体性、有害性、有意性。

第一,有体性方面,即身體活动包括举动和静止。这一点在未来强人工智能技术下完全可以实现,哪怕是当下的弱人工智能也可以做到,2016年Google公司推出的机器人Alpha-go(围棋人工智能程序)以4:1战胜围棋世界冠军李世石,(18)由于它是被相关开发者编辑相应程序后进行的行为,所以它只会下象棋,你要是期待它怎样更好的在硬盘上储存数据,它是无法完成这一超出“下棋”编程外的任务的。

第二,有害性方面,刑法只禁止具有法益侵犯性的危害社会的行为,而对社会无害的行为不会被规定在刑法中。这点和前文有体性所提及的一样的,未来强人工智能技术下完全可以实现。但是需要细化一个概念,刑法理论认为,社会危害性体现为法益侵犯性(也就是对法益的实际侵犯和侵犯危险急迫可能性)。对此,未来有必要对强人工智能带来的变化进行新的法益划分,旨在明确法益及其范围。

第三,有意性方面,刑法只调整有意识和有意志支配和控制的行为。这一点也是确定人工智能行为是否是刑法意义上的行为的重要方向。

注释:

①孙晔,吴飞扬.人工智能的研究现状及发展趋势[J].价值工程,2013,32(28):5-7.

②刘宪权,张俊英.人工智能时代机器人异化与刑事责任[J].法治研究,2019(04):90-97.

③刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(01):134-142.

④刘艳红.人工智能法学研究中的反智化批判[J].东方法学,2019(5).

⑤李剑锋.人工智能的未来[J].中国图书评论,2016(11):30-34.

⑥周铭川.强人工智能刑事责任之否定[J].上海政法学院学报,2019(2).

⑦徐昭曦.反思与证立:强人工智能法律主体性审视[J].中共中央党校(国家行政学院)学报,2019,23(03):80-88.

⑧同前注10.

⑨成素梅,高诗宇.智能机器人应有法律主体资格吗?[EB/OL].西安交通大学学报(社会科学版):1-12[2019-11-21].http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html.

⑩刘艳红.刑法学(第二版)[M].北京大学出版社,第130页.

(11)朱程斌,李林.人工智能作为法律拟制物无法拥有生物人的专属性[J].上海交通大学学报(哲学社会科学版),2018(6):56.

(12)高铭暄,马克昌.刑法学[M].第六版.北京大学出版社,第83页.

(13)刘宪权.人工智能时代的刑事责任演变:昨天、今天、明天[J].法学,2019(1).

(14)卢勤忠,何鑫.强人工智能时代的刑事责任与刑罚理论[J].华南师范大学学报,2018(6).

(15)庄永廉,黄京平,高艳东,等.人工智能与刑事法治的未来[J].人民检察,2018(1).

(16)陈叙言.人工智能刑事责任主体问题之初探[J].社会科学,2019(3).

(17)王耀彬.类人型人工智能实体的刑事责任主体资格审视[J].西安交通大学学报,2019(1).

(18)刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1).

作者:达朝玉

上一篇:语文广告写作管理论文下一篇:国有资产管理研究论文