人工智能法律论文

2022-05-12

写论文没有思路的时候,经常查阅一些论文范文,小编为此精心准备了《人工智能法律论文(精选3篇)》,希望对大家有所帮助。摘要:我国当前的法律信息公共供给建设已遇瓶颈,面对瓶颈,应当强化法律人工智能对于接近正义的推动作用,从公民需求出发,借助人工智能在信息整合与输出方面的强大优势,优化现有公共法律服务体系,尤其是法律信息的公共供给。意大利早在21世纪初即引入新兴理论——法律本体论,对法律信息公共供给进行了相关探索。

第一篇:人工智能法律论文

人工智能产品的法律人格问题研究

摘 要:近年全球人工智能行业经历了“技术爆炸”般的飞速发展,但科学技术发展很多时候都是一把双刃剑。当下的法律体系对人工智能人格权问题的规制还存在着缺位。单从能否具备独立自主的行为能力来看,人工智能应当被赋予独立的人格权。但人工智能很难全部承担其行为所导致的结果,所以其具有的人格权又应该是有限的。为应对将来各种人工智能产品所带来的法律問题,必须明确规定人工智能的归责原则,以及加快制定人工智能的相关法律法规。

关键词:人工智能;人格权;法律人格;损害责任

一、引言

人工智能的领域涉及计算机技术、数学、信息学、伦理学、神经生物学、语言文字学、哲学等学科领域的交叉以及融合。随着相关学科和研究范围的发展,人工智能的概念与外延也在不断变化着。目前,人工智能就是指那些以软硬件的相结合来达到像人类一样处理事件的智能系统。

二、人工智能的概念、发展及其风险

(一)人工智能的概念

首先从字面上就可以将人工智能分为两个部分,即“人工”与“智能”。“人工”比较好理解,就是指通过人来操作或制造;但是对于什么是“智能”,学界对其争议就比较大了,不同的学科对它有着不同的定义比如哲学、经济学、心理学、计算机等学科都有着自己的“见解”。但是从法律角度可以这样理解:人基于自身的意志,制造或操作某些工具,从而在无人或者少人的状态下达到预期效果的系统。这其中“人工”体现了人类在其中的参与;而“智能”则体现了人在意志表达下所展现的效果性,这一特征又是其被法律调整的目的之体现。所以“人工”是“智能”的内在前提,“智能”是“人工”的外在表现。综上所述,人工智能在法律层面的定义可以这样来表述:人工智能产品就是生产并投入市场使用该系统的具体商品。

(二)人工智能的发展

人工智能的发展在近十年来可以说是突飞猛进,尤其是在无人车方面:在国外,英、美、法、德、日等多个国家都相继参与对无人驾驶技术的研发,其中以Google、Uber、Tesla、等企业处在无人驾驶系统研发的第一行列。而在国内目前无人驾驶汽车技术的研发也步入快车道,众多知名企业参与,互联网企业如:百度、腾讯等,车企参与的有上汽、比亚迪、吉利等。并且自动驾驶公交阿尔法巴已经在深圳正式投入使用。近期关于人工智能最有争议的新闻莫过于2017年10月一家名叫汉森的人工智能机器人公司所生产的人工智能机器人索菲亚(Sophia),已经正式被沙特阿拉伯授予了公民身份,这标志着全球第一个具有公民身份的人工智能产品正式出现。可见,人工智能在近年来的发展越来越快,并且涉及到各个行业。

(三)人工智能的风险

电影不只是娱乐的载体,有时候更多的是创作者思想的表达。人类对于人工智能技术的恐惧与担忧便以电影的形式体现出来:从最初1968年的科幻史上的鸿篇巨制《2001太空漫游》,再到《黑客帝国》系列,以及直接反思未来人工智能机器人和人类之间对抗的《银翼杀手》都表达出人类对人工智能技术的担忧:那就是人工智能很可能会取代人类,因为有了自我意识的人工智能较之人类这个物种来说有着压倒性的优势。人工智能几乎有永恒的生命,且人工智能系统可以储存自己的意识在任何一台电脑上,而不必像人类一样被肉体所束缚,所以死亡对于人工智能而言将不复存在。可见,当下世界的主流观点对人工智能的发展存在着较大担忧。但科技的发展是不可逆的,尽管有不久前刚刚发生的Uber公司的无人驾驶汽车在测试中与一名横穿马路的行人相撞并致其死亡这种极端的例子,但是无人驾驶汽车同样给人类带来诸多益处,比如可以直接消除每年因醉酒驾驶导致人员伤亡的损失,在提高道路安全性的同时也挽救了很多人的生命。所以我们能做的就是有在人工智能发展的路上尽可能的小心翼翼,就科学界而已,科学家们应当最大可能的保障人工智能产品的安全性,但只有这样是不够的,整个社会必须构建完善的法律监督监管体制来应对可能发生的各种状况,由此可见,对人工智能法律的完善是多么的重要,因为它肩负着安全的最后一道防线。

三、人工智能的法律人格制度缺位

所谓法律人格就是指法律认可的一种享受权利、承担义务的资格法律拟制的主体,现代法律制度主要赋予自然人和法人以法律人格。对于自然人,其权利的享有以及义务的承担一般是从出生开始到死亡结束。但对于法律所拟制的主体,其享有的人格权则需要经过严格的法律规制才能获得[1]。另外人格权是指为民事主体所固有而由法律直接赋予民事主体所享有的各种人身权利。最后,人格权还是一种专属权,即他人不得代位行使。尽管世界各国的民法体系中都对自然人及法人的法律人格做了详尽的描述及限定,但对于人工智能是否具有法律人格或者具备什么程度的法律人格依然没有明确的规定。

(一)缺乏法律伦理的支撑

古往今来,往往一项具有划时代特性的技术被研究出来后都伴随着各种争议。二十世纪从第一只克隆羊多利的诞生便因克隆技术产生了巨大的争议,因为争议过于巨大,于是在1997年联合国教科文组织便制定了《人类基因组与人权世界宣言》且明确予以规定:禁止生殖性克隆人类,随后各国也都制定了大致相同大法律严格禁止将克隆技术用于人类。当时的国际社会对于克隆人是否具有法律人格时直接予以法定,但对于人工智能,现行法律法规对是否具有人格权时却含糊不定,没有明确的规定。

(二)法律地位的模糊不清

鉴于目前对人工智能法律人格没有明确的规定,致使其法律地位也模糊不清。假如人工智能可以直接适用人权理论体系制度,那么是否就意味着人工智能的法律地位等同于人类?如果是的话,享有婚姻权的人工智能一旦与人类结婚,那带来的将是对现行法律体系以及人类伦理道德体系巨大的冲击。但是即使未来发展到了人工智能具有独立的思想,可以独立自主的学习甚至生活的地步,笔者认为也不应该赋予其相应的法律人格,因为我们人类区别于其它物种最大的地方就是是否具有独立的情感以及思想,一旦人工智能也具有了与人类同等的法律地位,那就是等于承认人工智能也成为了地球上新的物种。所以我们该如何区别人工智能法律人格与人类的法律人格,这都是目前相关法律不明确所留给我们需要弥补的地方[2]。

(三)缺乏具体的相关准则

人工智能在短期内对社会造成的影响取决于谁能够操控它,而从长远来看则是人工智能会不会愿意接受被控制。有学者实地对厦门、广州进行考察调研:目前厦门、广州俩地的人工智能产品由厦门和广州的市场监管委进行监管及其审批,但申报的类目却是玩具类,所有对人工智能相关的申报材料标准均按照相应玩具類标准来申报,并且在海关进出口项目表上也没有人工智能这一项。所以,将人工智能作为玩具来进行分类,实在无法起到对人工智能产品的有效监管。

四、人工智能的法律人格制度可行性探讨

建立完善的人工智能法律法规不仅能有效的促进人工智能产业的发展与生产,也能及时准确的对其进行监管,因此首先需要解决的一个问题就是人工智能应不应当被赋予法律人格。

(一)人工智能法律主体性质的特殊性

学界对于人工智能的性质一直没有定论。大致有三种学说:工具说、代理说、电子奴隶说。工具说认为人工智能只是一件用来为人类服务的工具而已,所以不应当具有独立的人格权。代理说认为人工智能所做出的一系列行为均只是受人类操控而已,其不具有独立的人格权,其所做出的行为导致的任何法律结果都应由其操控者来承担[3]。电子奴隶说认为人工智能及其产品就像奴隶一样不应该有任何权利,只要为人类服务就好。上述观点放在多年前还说的通,但在目前来说每种说法都有缺陷,其共同点在于:随着科技的发展人工智能将越来越具有独立的意思表示能力,独立的情感甚至思想,并且科学技术的发展都是不可逆的,无论它最终导致的结果是好是坏。而一旦人工智能具有了独立的思考能力以及行为能力,那代理说显然是不成立的,因为人工智能所做出的行为并不一定都是人类下达的指令。而一旦人工智能具有了情感,在伦理道德的框架约束下我们也不能将其视为工具、奴隶,因为一旦到了那个时候人类甚至会疑惑该不该将具有独立思考、行为、情感的人工智能视为新的物种了。所以,不能简单的对人工智能的性质下定义。笔者认为应该将人工智能定义为具有独立思考和独立行为能力的智慧工具。

(二)人工智能可以享有法律权利

未来随着我们将更多工作移交给人工智能,最后可能需要面对的是人工智能的权利问题。尽管当下有很多人提出了这个问题,但在这之前,大家最为关心的仍然是人工智能的危险性问题。阿西莫夫的“机器人学的三大法则”首次出现在1942年的短篇小说《环舞》中,它的规则如下:①机器人不得伤害人类。②机器人应当服从人的所有命令,但不能违抗第一法则。③机器人还应该保护自身的安全,但是不得与第一和第二条法则所抵触。尽管已经过去70年了,但“阿西莫夫法则”依然被该系列小说视为经典教条,甚至在电影中也广泛应用。2014年1月,谷歌正式收购DeepMind时,作为交易的一部分美国政府对其规定,谷歌必须成立人工智能伦理委员会,其目的是确保对人工智能技术的明智使用,其宗旨就是在开发利用人工智能的同时,必须严谨对待人工智能可能对人类带来的危害。

现在的科学技术条件下,人工智能已经可以像人一样管理公司以及订立合同,甚至可以根据自己的分析处理来做出决定。如此人工智能可不可以要求权利,比如赋予自己姓名、保护自己健康的权利?以及在超负荷工作的情况下可否要求休息的权利?依据斯通纳的观点,一个主体能否拥有法律权利须满足如下条件:①首先该主体可以自己主动提起法律诉讼。②司法机关在决定给予法律救济时应当考虑到相关主体的损害情况。③所实施的法律救济必须满足它的利益要求。在本质上人工智能依然是工具,但这种人工智能产品很可能价格不菲且承载着其拥有者的情感。比如陪伴失去至亲独自在家的孤寡老人的陪伴型机器人的记忆系统如果被他人损坏,那对于该老人来说就是一种损失,因为对于他来说,这个人工智能产品就像自己的亲人一样。另外法律救济满足人工智能的利益要求,比如排除妨害等都是可以适用的。由此不难看出,人工智能是满足以上关于能否作为法律权利的要求的。因此,人工智能应该被赋予权利。

(三)人工智能必须承担法律责任

1989年夏天,前苏联赫赫有名的国际象棋冠军尼古拉·古德科夫在莫斯科挑战一台名叫M2-21的超级电脑,在对弈的第六天后,尼古拉·古德科夫以3∶0的大比分战胜了这台电脑。胜利的古德科夫自然是洋洋得意,并且做起了一系列庆祝动作。但这时电脑显示屏确闪起了红灯,也就在此时古德科夫突然一声惨叫然后就倒在了金属棋盘上,并且尼古拉·古德科夫不断有青烟从身上冒起。等到医生赶到时,尼古拉·古德科夫已经死亡。在后来警方认定,M2-21电脑因为输棋而气急败坏,从而自行主动改变了程序,并向金属棋盘释放了足以将人电死的电流,故意杀害了尼古拉·古德科夫。由此可见随着人工智能技术的不断提高,其依靠自身的自主意识做出的不可预测的行为将会越来越不可控。由此导致的危害结果往往是由人类来承担,现实生活中,人类都要为自己的行为负责,更何况是作为工具的人工智能。那么如果人工智能产品犯罪呢,它该如何承担责任呢?笔者认为人工智能作为一种拥有独立意识并且可因此做出意思表示的智慧实体,首先在人工智能产品的研发上必须设计为具有可以承担责任并且可以对自己做出的行为是否正确进行验证的实体,这其中包含开发相关操作数据的全留存以便人工智能发生侵权行为后查验、尽可能的将人工智能相关数据做的透明化,使大众可以随时查询,以及尽可能的减少人工智能不可控情形的发生从而减轻相应的法律责任。

五、有限的人工智能法律人格制度建设

用法律手段来调整生命社会关系,应当是最有效、最稳定、最普遍的。我们从人工智能的特征可以看出,人工智能具有独立的自主意识并以此做出意思表示,那么它就具有法律主体资格,但这种法律主体所取得的人格权并不是完全的,因为人工智能并不能完全算是拟制的法人,所以人工智能所承担的法律后果也应该是有限的。因此在人工智能法律人格有限的基础下,我们应当制定合理且有针对性的法律制度。

(一)国外人工智能的立法借鉴

国外立法已经在人工智能具有有限法律人格的基础上对其做出了一些立法尝试。首先,人工智能方面的立法者与执法者必须使得人工智能的操作系统不能被滥用,相关法律的规定必须即有效的发展人工智能技术又要确保公民隐私得到妥善保护。欧盟各国在2016年就通过了《一般数据保护条例》,相关各国就加强了个人隐私和数据的保护,这其中就对用户画像等自动化决策做出了相关的规定,即用户有权拒绝企业对其进行画像等自动化决策,而且用于用户画像的数据不能包括用户的种族根源、政治倾向、宗教信仰、基因情况、生理表征等特殊类别的个人隐私数据。如今我们每个人都处在“大数据”的洪流中,个人数据已经具有重要的商业价值,甚至直接关系我们的人身安全,当下利用人工智能在网络上非法窃取个人隐私的案例比比皆是。人工智能系统在个人数据方面的使用必须严格遵循规范,如果滥用数据或私自窥探隐私将受到法律的惩罚。所以我们在人工智能技术的发展上,首先应该考虑的是该发展产物能否保障公民的数据和隐私不被侵犯,而不是一味地痴迷于科技发展。

(二)人工智能产品有限的责任分担机制

一方面对人工智能的法律地位进行严格的鉴定,另一方面更应该明确如果人工智能发生侵权事件时判定相应法律责任的准则。联合国教科文组织与世界科学知识与技术伦理委员会提出的解决方法是可以采取责任分担的方式,让所有参与人工智能产品的研发、生产、授权和配置过程的人来分担责任。这种制度设计的初衷,是迫使以及督促人工智能产品系统的设计者、参与者、生产者能够提前主动地履行应尽的安全性义务,使得受害者能够找到赔偿主体。另外为了保障人工智能产品发生侵权事件后是可以被相关司法机构追责的,人工智能操作系统一定要具备程序层面上可被追责的依据,以此来证明人工智能系统的运作方式是否合理合法。

(三)我国应加快制定《人工智能发展法》

机遇与挑战并存,不难看出,人工智能已经进入高速发展的道路上了,在不久的将来,人工智能技术会被利用在各行各业,甚至会出现在很多高技术行业,包括军工产业和航天领域,所以为使我国不在这场技术革命中落后于世界,我们国家急需加快人工智能相关法律法规制度的建设与完善,尤其是加快制定专门的《人工智能使用法》。授权立法者成立专门针对人工智能系统相关问题的机构来创设相对完善的人工智能责任承担规则。《人工智能发展法》的立法宗旨包含:①首先坚持以人为本的基本原则,由立法者授权建立“人工智能伦理委员会”,通过制定一系列的规则,来确保人类社会的伦理道德不受人工智能带来的破坏。②对人工智能的操作系统建立完整的监管体系,来确保人工智能从研发到生产都处在严格的监督中。③明晰发生侵权事故后各方的法律责任,恰当且及时地根据人工智能的发展前景做出法律上的调整和规范来确保人工智能的发展始终处在正确的道路上。以及确立严格的强制责任保险投保制度,确保各方利益尤其是受害者的利益能够得到及时的保障。④明晰公民个人数据及隐私得到有效保护,确保人工智能系统对网络大数据合法的使用。⑤加强对人工智能知识产权的有效保护,以明确的法律条款为支撑,使科研人员更好的开发以及获得人工智能相关领域的专利保护。⑥还应当开展国际间的人工智能开发及应用合作。尤其是人工智能的法律法规以及伦理道德相关问题的研究,来共同处理不久的将来人工智能带来的危机与挑战。⑦最后我们还应尽快制定《人工智能产品的伦理道德章程》以此作为人工智能系统及产品研发、应用的道德基础。

六、结语

展望未来,人工智能无疑将是人类在近现代以来最具开放性的创新,世界也因此开启一场关于人工智能技术的巨大变革,对于我们来说这或许不亚于第二次工业革命,又或许,变革已经开始了。人工智能革命对现有法律、社会政策和伦理道德的冲击也才刚刚开始,伴随人工智能技术的不断发展与完善,我们人类自身的知识创新也需要跟进甚至超前,理论和制度的创新尤为重要。最后,期待我们整个社会能够把握和利用好人工智能技术,因为它在带给社会便利的同时,也会促进社会的进步。笔者相信在不久的将来,科学技术的智慧之光与法律制度的理性之光,将在人工智能時代交相辉映。

参考文献:

[1]王利明.论个人信息权在人格权法中的地位[J].苏州大学学报(哲学社会科学版),2012年第7期.

[2]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018年第3期.

[3]段伟文.人工智能时代的价值审度与伦理调适[C].中国人民大学学报,2017年第6期.

作者:刘新慧

第二篇:法律人工智能的接近正义面向

摘 要:我国当前的法律信息公共供给建设已遇瓶颈,面对瓶颈,应当强化法律人工智能对于接近正义的推动作用,从公民需求出发,借助人工智能在信息整合与输出方面的强大优势,优化现有公共法律服务体系,尤其是法律信息的公共供给。意大利早在21世纪初即引入新兴理论——法律本体论,对法律信息公共供给进行了相关探索。法律本体论在信息智能化方面具有较大优势,将此方法引入公共法律信息供给,能够有效满足公民日益增长的对于法律信息的需求。

关键词:法律人工智能;接近正义;本体论;法律信息

正义是法律理论中一个经久不衰的话题,一切的法律制度都以实现正义为终极目标。通说认为,法律人工智能在提高司法效率、保障司法正义方面具有有利影响,因此,司法和人工智能的结合是我国法律人工智能发展的重点与热点。但是,人工智能的“概率正义”如何与司法要求的个案正义平衡?将本该由法官在思维中决定的事项具象化到给定的界面中,将抽象的思考具体化为一种实在的勾选,这是否是一种有利于提高司法效率的方法?这些问题的答案目前都尚存疑问。既然司法与人工智能的结合暂时未有较大突破,何不转变思路,另择切入点?正义的内涵远不止司法正义一项内容,正义也绝不单单通过司法才得以实现。实际上,人工智能对实现正义的促进作用不仅可以通过司法裁判人工智能化得以实现,也可以通过提高当事人的法律“装备”来实现。本文将以公共法律信息供给作为切入点,用以论证法律人工智能在促进接近正义方面的作用,并且借鉴意大利的相关经验,引入法律本体论的理论概念,提出我国通过创建法律本体提高法律信息供给质量的宏观构想。

一、现状:我国法律信息公共供给之问题

法律信息①供给是现代政府的一项义务,属于一国公共法律服务体系②的一部分,法律信息供给包括向公民提供法律法规信息、法律服务信息、纠纷调解信息等内容,其中,法律法规信息供给是最普遍、最基础的内容。2019年,中共中央办公厅、国务院办公厅印发《关于加快推进公共法律服务体系建设的意见》,提出到2022年基本形成覆盖城乡、便捷高效、均等普惠的现代公共法律服务体系。目前已取得的成果有:公共法律服务中心、工作站、工作室、村(居)法律顾问已经基本实现全面覆盖;12348 热线电话覆盖城乡,大部分省份实现了24小时不间断服务;中国法律服务网不断增加新功能[1] 。

但是,在成果之外,其中存在的问题更应该得到关注,具体而言,我国当前的法律信息供给建设主要包括现实与虚拟两条同步路径。在现实路径层面,主要存在的问题是专业法律服务人才不足、政府投入资金存在缺口以及公共法律服务质量存在地区差异等问题。以杭州市为例,2016年,杭州市司法局印发《杭州市公共法律服务产品目录(第一批)》,旨在形成内容丰富的公共法律服务产品供给机制,其内容涉及法律援助、法律服务、人民调解、法制宣传四大类,共27项服务项目,每一项目均明确服务对象、提供主题、服务流程等内容③。2018年,杭州市司法局又公布《杭州市公共法律服务产品标准》,以“服务主体的专业性”“服务内容的实用性”“服务管理的规范性”“服务过程的高效性”“服务态度的满意度”五大标准作为衡量公共法律服务质量的标尺④。杭州市大力推动公共法律服务体系建设,努力满足人民群众法律需求的决心与行动值得肯定,但是不得不指出,仍有部分问题存在于杭州现有的公共法律服务体系之中。

其一,随着社会的发展,群众的法律需求不断增加,这要求公共法律服务的业务种类应当随之增加或更新,但是此种以“文件”推进的行动必然要求一定的稳定性,由此造成现有服务供给无法及时跟上群众需求发展的步伐。其二,作为一种政务服务,公共法律服务体系的建设还未实现跨部门、跨地区的信息共享与交流,“信息孤岛”现象仍存。人口流动频繁、社会经济活动多样的社会对于信息共享的要求极高,其中又尤以公共服务信息的共享为重。其三,管理组织机构与人才的相对缺乏仍旧不可避免。杭州市公共法律服务中心的建设由杭州市司法局牵头,司法局相关处室、律师协会、法律援助中心、市医疗纠纷调委会等实体入驻。公共法律服务的不同平台由不同的实体负責管理,导致职责分散、效率不高。

在虚拟路径层面,存在的问题是公共法律服务建设与科技手段的结合仍处于低层次、低水平阶段,导致产出成果实效不高。利用科技创新手段提高公共法律服务水平是我国公共法律服务体系建设的重点之一,《关于加快推进公共法律服务体系建设的意见》第十八条也提出要“推动公共法律服务与科技创新手段深度融合,着力打造智慧法律服务……研发深度学习、智能交互技术,推广应用智能法律服务技术,以精准公共法律服务支撑技术与装备研究为突破,通过人群精准分类,动态评估不同人群的法律需求。研制关键系统和新型装备,研发面向亿级用户、处理海量数据的高效公共法律服务平台”。

对此,浙江省同样进行了探索,浙江省构筑了全方位网上法律咨询服务,由在线咨询、智能咨询、视频咨询三部分组成。其中,智能咨询应用IBM人工智能技术,通过自然语言识别、智能问答库、法律知识图谱等核心模块,为公众提供全天候人工智能解答⑤。但是,值得注意的是,在浙江法律服务网所提供的网上法律咨询服务中,在线咨询与视频咨询是建设的重点。也就是说,人对人的直接交流仍旧是法律咨询服务的主要方式,智能咨询只是一种补充性手段,以人力供给法律信息仍旧是一种传统的、低效的手段,就算补充性地提供所谓的智能咨询,仍旧难称其为“智慧法律服务”,也谈不上是“高效公共法律服务平台”。

二、转向:法律人工智能的接近正义面向

(一)接近正义理念

接近正义(access to justice)是指弱势主体在权利受到侵害时,为避免侵害,以合法方式,通过接近法院、律师、行政机关等组织或个人而获得相应资源以消除对其不利的因素,从而救济权利或避免权利受到侵害。平等理论是接近正义的理论基础之一,《世界人权宣言》表明,每个人都可以针对他所在的国家,提出某种有关基本权利的学说,平等理论所要解决的问题就是弱者应当像强者那样便捷、有效地接近正义[2]。接近正义是一种提倡弱者应当享有优待的理论,虽然《宪法》规定法律面前人人平等,但是现实中不可避免地存在着不平等,为了实现平等,就应当给予弱者一些优待,否则与强者相比,他们将离正义更远一些。

弱者无法接近正义的原因是系统性的,包括立法、司法、执法以及法律监督,也包括获知法律信息及非诉讼方面[3]。在诉讼中,获知信息的多少决定着当事人对诉讼的参与程度,也决定着当事人对诉讼过程、诉讼结果的接受度与认可度。所谓信息,既包括案件信息、涉案个人信息、审判信息等,也包括与本案相关的法律法规。若公民能够及时获知丰富有效的法律信息,一定程度上便能够减少法律争议的发生,从源头减少当今法院面临的案多人少的矛盾。例如,若一个公民能够以简易的方式查询到与借款合同相关的法律规定、对法律法规的解释以及一些普适性的风险提醒,就能够使公民在签订合同前、在诉讼前,充分了解可能适用的法律规定以及自身面临的风险。

既然意图发展法律人工智能,就应当在推动司法智能化建设的同时,利用人工智能壮大当事人的力量。因为,实现正义是一个互动过程,所谓互动就是指当事人与法官在互动中共同推进诉讼,共同追求正义。然而,政府在推进法律人工智能建设时,过度强调当事人与法院的对立,并未重视双方之间的合作特性。如果仅提高司法的智能化水平,当事人的法律参与水平将无法与司法的智能化水平匹配,不充分的参与带来的必定不是足以令人信服的结果。此外,在司法与当事人两方的强弱之分以外,当事人内部也存在强弱的区别。拥有较强经济实力、较强文化水平的当事人总是拥有较大的几率接近正义,反之,经济实力不强、文化水平不强的当事人则相反。因此,为了实现司法定分止争的功能,也为了保障司法公信力,有必要在建设智慧司法的同时利用人工智能帮助当事人接近正义。

(二)法律信息公共供给促进接近正义的国际共识

在国际层面,法律信息供给对于接近正义的促进作用早已成为共识。自20世纪90年代网络兴起之后,通过网络自由获取法律信息就成为了一项公民权利,该权利对于促进公民接近正义具有积极作用,对该权利的保护成为各国政府的责任。所谓“通过网络自由获取法律信息”,不仅强调公民能够以免费、简便的方式在网络上获得官方法律信息,也强调政府在保障公民通过网络有效、充分获取法律信息方面的责任。

过去,法律信息供给当时并未被认为是一种政府责任,获取法律信息也不是一种公民权利。公民获取法律信息的方式较为单一,且并非所有公民均能获得法律信息。最初,法律信息供给的方式是转印或复印,政府持有法律信息原本,公民若需要获取相关信息,则需要向政府提出申请或索取,而后便会获得法律信息的转印本。之后,随着科技的发展,出现了通过电话拨号灵活、简便获取法律信息的手段,但是此种方式并非免费提供,通过电话拨号获取法律信息的价格在100—800美金不等[4]。由此,只有法律专业人士或是经济条件优越的人才能自由地获取法律信息,而普通公民则需要付出高昂的成本才能获取法律信息。获取法律信息的困难性与高成本使公民无法及时获知相关的法律信息,当自身面临法律问题时,无法及时了解与己相关的法律信息,在诉讼中,也无法充分地“武装”自己,与对方对抗,由此导致的问题就是公民接近正义的机会极小。

1992年,康奈尔大学的两位学者创建了一个面向非法律专业人士的网络接口,使公民能够通过网络获取一些法律资料,这是世界范围内第一个面向公众的免费法律信息供给项目。更为成熟的关于通过网络供给法律信息的实践来自于澳大利亚,1999年,澳大利亚法律信息研究所与两所大学合作,建立了包括全国九个司法管辖区的判例、立法及协定等内容的数据库,构建了一个综合性的、全国普适的法律信息获取系统。截至2012年,该系统依托的数据库已超过500个。澳大利亚是第一个提出国家负有法律信息供给义务的国家。澳大利亚法律信息研究所提出,在法律信息供给中,国家负有五项义务:第一,应当供给完善的法律信息,除了法律信息本身外,也应供给对法律信息的修改及标注;第二,应当供给具有权威性、官方性的法律信息;第三,应当以最佳传播方式供给法律信息,在当前,最佳传播方式即一切计算机化、智能化的方式;第四,应当使公民以最低的成本获取法律信息;第五,应当允许第三方再利用法律信息[4]10。2002年,加拿大蒙特利爾组织了自由获取法律信息运动,起草了《自由获取法律信息宣言》(Declaration on Free Access to Law),该宣言吸收了澳大利亚法律信息研究所之主张的精神,加入自由获取法律信息运动的50多个国家均赞同该宣言⑥。

由此可见,在国际层面,获得法律信息是一项公民权利,相应地,提供法律信息是政府的义务,同时,公民能否以简便的方式获得质与量俱佳的法律信息与公民能否接近正义息息相关。

(三)人工智能与法律信息供给的高耦合度

之所以说人工智能是破题之道,原因在于人工智能与法律信息整合及输出的高耦合度。人民群众对法律信息的需求随着社会的发展逐渐提高,当下,人们需要的不再是简单的法律规定或法律服务指引,公民对获知信息的条理性与逻辑性提出了更高的要求。人工智能对于信息的强大处理能力与人民群众的需求不谋而合,这决定了将它作用于法律信息供给的巨大潜力,二者的结合使公民能够以最简易、最普遍、最专业的方式接近正义。

公共法律服务之首要宗旨就是为公民提供其所需的法律信息,从过去到现在,公民对于法律信息的需求经历了由低到高的过程,面对公民实际需求的转变,采取传统方式供给法律信息的手段不再奏效,有必要引进新兴工具,转变公共法律服务体系建设的路径。在法治水平低的时期,公民对于法律信息的需求颇低,甚至不需要知晓具体内容,仅需要被告知结果;而今,复杂的社会生活使公民不仅需要获知法律信息,人们还对法律信息的内涵、逻辑以及可知晓性等都提出了要求。其中最显著的变化在于公民对法律信息的获知由被动开始转为主动:在互联网发展程度较低的阶段,法律信息的传播途径主要为大众传播媒体,人们通过电视、广播与宣传栏被动地了解信息;如今,互联网的普及使信息传播渠道不断下沉,人们越来越易于接触或知晓法律信息。然而,尽管信息的传播途径得到了扩展,信息的质量却没有得到同步提升。信息传播渠道下沉带来的是信息爆炸,如何向民众提供清晰可用的法律信息应当成为公共法律服务体系建设的一个重点。

选择法律信息供给作为促进人工智能接近正义的切入点,主要出于人工智能对于信息整合与输出的绝对优势。在人工智能的语境下,法律信息可以被理解为数据,这些数据包括不同种类的子数据,譬如法律规定作为一种法律信息,包括法律、司法解释等子数据。人工智能与信息的结合可以产出不同的智能化成果,本文所阐述的法律信息供给智能化则是其中的一种。法律信息体量之庞杂、体系之复杂以及术语之艰涩,决定了仅凭人力来供给法律信息是不可能的事,而公民对于法律信息的需求已经越来越高,人工智能在整合信息资源、形塑信息供给逻辑以及迅捷输出信息方面的显著优势不该再被忽略,因此,人工智能应当成为新时代下完善法律信息公共供给的不二途径。

三、未来:AI助力法律信息供给之路径

(一)目前通用路径的局限

法律信息智能化供给最终要通过特定的人工智能产品得以实现,重点不在于由何产品呈现,而在于构建法律信息智能化供给的路径。当前,构建人工智能产品的通用路径为:首先预设一定的逻辑,以此逻辑搭建模型,而后向模型中的要素灌进数据,经过机器学习不断完善模型,最后将此模型定型,成为一个产品。以此路径来实现法律信息产出智能化并非不可,但该路径还存在一些不周密之处,可能导致最终成型的产品利用率不高或适用范围受限。从目前已成型的法律人工智能成果来看,“知识图谱构建——要素提取——模型训练——结果成型”的技术路线基本不变,要回答此种路线是否完备、缘何受阻的问题,就要从此路线的起始开始研究。

法律知识图谱是人工智能在法律领域开始运用的开端,知识图谱构建是指法律专家通过对法律法规、司法观点、案例数据等法律知识进行模块化处理,建立结构化法律知识库,用可视化的图谱方式描绘法律主体、客体、法律关系以及各种主观、客观要件,裁判规则的概念层次和逻辑推理关系的活动[5]。从当前法律人工智能的实践主体、应用范围来看,知识图谱构建存在的問题主要为图谱专业化程度不一以及图谱构建逻辑不定。首先,知识图谱的构建应当由法律专业人士进行,然而,法律专业人士内部不可避免地存在专业水平上的差距。具有丰富经验的法官或学者是最好的专业人士,但在现实中,参与或主导知识图谱构建的却往往不是法律专家,导致知识图谱的水平参差不齐,以水平较低的知识图谱作为逻辑参照搭建出来的模型,其科学性自然会受到质疑。其次,知识图谱的构建要遵循一定的逻辑,如果逻辑不一,那么法律人工智能产品的适用范围就会大受限制。目前的知识图谱构建多依赖于人工,这种顶层设计的工作交由人的智慧完成并无不妥,但是在法律人工智能行业还处于初级发展阶段的形势下,不同公司出品的产品可能针对不同的法律适用领域,以产品为目标而搭建的知识图谱自然也各有不同,这导致多数法律人工智能产品仅能在较小的范围内适用。分工带来的可能是高效,也可能是无效,以不严谨、不专业的逻辑搭建的产品是否能够在其选定的领域收到预想的实效是一个问题。

(二)意大利路径:法律本体论的引入

1.法律本体论

要把人工智能与以政府为主体推进的公共法律服务建设结合起来,需要破除当下人工智能设计与法理逻辑脱节的难题,同时,还要构建更为顶层的知识逻辑。引入法律本体论,将其作为推进法律信息智能化的理论工具,以其理论要求构建适用面广、可共享的知识逻辑,较之目前通行的逻辑更为科学。如前所述,我国目前的知识图谱构建存在一定缺陷,也并未探索顶层知识图谱构建,而国外对法律人工智能的研究起步早,目前已形成了丰富的理论与成果,故本文将目光转向国外,对法律本体论加以研究,同时对国外的相关实践进行评析。

本体(Ontology)原本是一个哲学概念,在《牛津大辞典》中,Ontology被定义为:形而上学的一个分支,它处理有关于存在之本质(the nature of being)的问题[6]。本体论在1986年被引入计算机领域,随后便在人工智能领域扮演着重要角色。目前学界较为认可的关于本体论的定义由学者Studer提出:本体是共享概念模型的明确的形式化规范说明[7]。Studer等学者认为,本体应当有以下特征:第一,本体应当是明确的,所谓明确,即“被引用的概念所属的上位类与在使用此概念时的限制条件应预先得到明确的定义和说明”。第二,本体是形式化的,即本体应当具有机器可读性。第三,本体是共享的,在一个本体中,知识所表达的观念、观点应当为整个群体所接收。第四,本体是概念化的,它本身就应当是一个概念体系[8]。

法律本体的研究源于人工智能技术与法律的结合,电子政务与法律信息化建设的需求也是法律本体研究的重要助推力。从HYPO系统[9]到由Haft、Jones和Wetter发展出来的法律专家系统[10],这些系统都希望以自然语言对话方式实现机器与人之间的沟通,因此,这些系统势必要架构在其他的系统上,例如自然语言解析器等,它们也都需要一个庞大的知识库作为基础。但是,由于这些系统在知识库的问题上易遇到瓶颈,这就迫使研究者们必须对这些知识库系统的基底进行更深刻的反省,人工智能领域的本体论与这一想法便不谋而合。

法律本体论的独特优势在于其共享、互操作以及重用等方面,它使法律信息的智能化输出得以实现,能够明显提升以供给信息为要旨的公共法律服务的质量。前文已述,公民对法律信息获知的要求较高,传统的法律信息供给方式并不能较好地满足公民需求,即使如杭州市在建设公共法律服务体系时强调“互联网+公共法律服务”,其具体方式仍旧是机械的、死板的,所采取的方式类似于信息电子化,而非信息智能化。而法律本体论在建构顶层知识逻辑结构方面具有强大的优势,能够系统地实现法律信息供给的智能化。基于本体构建法律知识表达逻辑的优势有:第一,法律本体以概念为基础的表达方式适合法律知识的表达。本体能够以清晰的形式化语言描述概念,通过分析概念之间的关系来覆盖领域知识。第二,本体丰富的语义信息,可以充分表达法律概念的涵义。第三,本体概念具有层级关系,与本体规则结合后即可模拟法律推理。与基于规则的推理相比,本体不受有限规则的约束,可以完成更为复杂更符合实际的推理。第四,本体与模型相分离,具有一定稳定性与独立性。法律信息具有动态性,在信息变更的情况下只需随之更新本体即可,无需调整模型。第五,法律本体可以共享。所谓共享,即知识的重用,以本体方式表达的法律知识可以在不同的项目中重用[8]34。

任何法律本体都包括概念(concept)、规则(Axiom)以及关系(relation)三个要素,这是法律本体的基本构成要素。概念也称为术语或类,概念的涵盖范围决定一个本体的应用范围。规则是一种不证自明的推理,用于定义概念并对概念指定规则进行约束。关系用以表示概念间的关系,包括整体与部分的关系、概念与实例的关系或属性关系等。

法律本体方法与目前通用的知识图谱构建路径存在一定联系,本体方法更为抽象,更能涵摄全领域知识。两个方法的起始思路都是相同的:选择某一领域内的必要实体,定义实体之间的关系,而后建立一个模型。只不过,法律本体方法从整个法律知识领域或者部门法律领域出发,而目前的知识图谱构建则抽取更为具体的某一子领域进行知識表达结构的构建。法律本体方法还注重对要素之间的关系进行定义,通过理论确定的关系,它便能够进行“智能化”的推理。二者相比,自然是更为顶层的法律本体方法适用范围更广、专业水平更高,在实践中也能取得更好的效果。

2.意大利路径

虽然我国目前还未出现以法律本体论为指导构建而成的法律本体,但是不少国家已经建立了一些法律通用本体,譬如McCarty建立的LLD本体,荷兰莱布尼茨法律中心开发的FOlaw系统、LRI-CORE法律本体以及LKIF核心本体[11],它们或应用在刑事审判领域,或应用在交通法领域,但是面向用户几乎都为具备法律专业知识的人。故本文选择以意大利的Norme in rete项目为研究对象,该项目面向的是并无法律知识的普通公民。

1999年,为了改变法律信息碎片式传播的现状,进一步标准化法律信息传播路径,意大利政府开始了Norme in rete项目,项目参与方包括众议院、参议院、司法部以及计算机科学管理局,项目名意为“Law in the net” [12]。意大利政府意识到,通过网络传播的法律信息多呈碎片化,此外,公民接触法律的渠道过窄,即使可以通过网络搜寻法律信息,没有法律知识储备的公民也很难清晰地表达自己的搜索意图,同时,公民以日常语言而非专业性词语进行的搜索往往使其难以获取正确信息。针对这一问题,意大利政府决定通过一个单一且简易的用户接口创建一个入口,使法律信息的网络搜索得以全量化、智能化,这一“入口”必须具有公共性、官方性,以此为信息的权威性与正确性背书。

通过该项目构建的本体包括可以被分为两类信息(结构性信息与功能性信息)的模块数据结构、分为两个粒度(整体与部分)的描述以及两种用以结构化信息的数据模式[12]1333。构建项目本体的大致过程为:首先,建立文本元素与其所表达的意思之间的关系;其次,探索立法者的立法意图,明确法律信息所涉及的主体、活动、行为等,而后建立这二者之间的关系;最后,定义本体中应有的实体及它们之间的关系。简单来讲,法律本体构建的过程可以分为两步:第一步应当为法律领域的语义分析,第二步即用形式化的语言来描述已被定义的概念结构及其关系。需要指明的是,构建本体所选择的上层概念应当尽可能普通,应当是能够在各个领域适用的词语,譬如主体、客体、事件等词语,除了能够在法律领域使用,也能够在其他领域使用,而若换为法律主体、法律客体、法律活动等词语,那么该本体的适用范围和共享率就会受到限制,这类专业性较强的术语应当仅在下层本体中使用。

Norme in rete项目中构建的本体首先拥有一个顶层本体,用以涵盖最基本的本体内容及其关系,比如行为、行为人等,其内部又分为“理想法律”(the ideal level of the legal)以及“现实世界”(the real level of the world/social world)两个本体层级。整个本体通过本体内容与本体层级之间的不断互动得以运作,本体层的法律就是符合法理、同时存在于现行法律规范之中的法律,它是抽象的法理规则通向现实世界的桥梁。该法律本体选择了客体、主体等概念,客体(objects of law)包括现实社会中的客观存在,主体(subjects of law)包括具有生物特征(或拟生物特征)的、真实存在的、能够以特定的意图进行法律活动的社会主体。除此之外,角色(role)、法律活动主体(agent)、事件(event)等概念也被涵盖其中,其项下又细分了许多子概念,力图使其涵盖范围尽可能地广。对于概念与概念之间的关系,该本体定义了整体与部分、互斥、属性等关系。

本文以实例展现利用法律本体构建法律检索系统的成果(图示如上)。智能法律问答是当前我国法律人工智能的开发重点之一,但是目前的问答实际上难称智能,譬如,对于“《刑事诉讼法》第十五条的内容是什么?”这样的问题,现有的问答系统能够快速输出正确答案,但是,对于更进一步的问法,如“如何知道某一犯罪是否已过追诉时效期限”?这样的问题,目前的问答系统很难给出正确答案。以本体方法构建法律信息检索系统,定义法律信息的实体及实体间的关系后,就可通过本体实现计算机内部的自动推理,犯罪作为一种行为(action),属于“现实世界”层级,而具体触犯某罪的行为则是一种事件(event),它与时间(time)概念相联系,犯罪追诉时效是一种规则(rule),它是一种在先适用(prior)的规则,即是说,追究犯罪时应首先判断它是否已过追诉时效期限,若已超过,则后续法律规则便无需适用。通过这些预先设定的概念及其关系,即使用户以日常语言的形式表述问题,机器也可以识别其中的关键,并通过推理得出答案,以上述例子来说,只要用户说出了具体的犯罪与犯罪时间,系统就可通过本体推理出确切的答案。

当然,虽然意大利政府以本体方法建立法律信息检索系统的成果颇丰,但是仍然存在需要经过进一步探索才能解决的问题。为了能够尽可能通过智能系统回答查询者的问题,需要不断优化本体要素,进一步明确定义要素之间的关系。

四、构想:以本体方法智能化法律信息供给

目光转向我国,虽然我国缺乏构建法律本体的实践,但是理论界不乏有研究者已经注意到了本体方法在法律人工智能方面的巨大潜力。黄都培针对司法实务信息中信息检索的问题,提出了对于法律信息本体框架之建构的设想,设计了一套用于研究检索原型系统的法律信息主题词表查询模板,并试制了法律信息语义检索系统模型Law-Retrieval,对其原理及结构进行了阐述,为今后的法律信息组织、标识、检索提供了可借鉴的理论和实践依据[13]。武汉大学土地资源管理专业的博士赵忠君采用基于框架的概念性本体表示方法分解土地法律条文,并在规范推理的基础上,探索了土地法律本体推理机制,最后建立实验原型系统,初步实现基于本体的土地法律查询和土地法律咨询功能。卢明纯提出基于法律本体构建法律知识库,结合使用逻辑规则实现法律推理[14]。邢启迪在通过法理学视角综合分析我国法律领域各类资源的基础上,创建了一个适合描述中国法律领域各类信息资源的法律本体——linkedlaw本体,进而为使用语义网技术组织和关联我国法律领域的各类信息资源奠定基础[15]。

本文无意探讨应当如何构建适合我国法制体系的法律本体这一问题,原因在于此工作的工程量之巨大绝非一人可完成,本文仅通过对当前法律人工智能建设和法律信息供给的概况进行分析,引出法律本体论,将其引入法律专业学者的研究视野。故本文仅对以本体方法推动我国公共法律信息供给的建设提出一些宏观设想,更为深入的问题则有待进一步研究。

首先,推进法律本体构建之研究,将其应用于法律信息智能化供给的主体应当多元化,以“政府主导,社会参与”为佳。《关于加快推进公共法律服务体系建设的意见》第二条“基本原则”提到,“坚持政府主导、社会参与,落实政府推进公共法律服务体系建设的主体责任,激发各类社会主体参与公共法律服务的积极性”。之所以强调政府主导,原因有二:第一,优化向公民供给法律信息的方式属于一国公共法律服务体系的一部分,是一国政府的义务,同时,法律信息应当具有官方性、权威性,为了保障公民能够及时有效地获得权威的法律信息,应当由政府推动开辟更优良的信息供给方式。第二,法律本体的构建是一项相当庞大的工程。它需要人工智能技术专业人士与法律专业人士共同参与,并且双方均应当对对方的专业有一定的了解,此外,这些专业人士应当属于具有较高专业水平的人员。在人工智能与法律以外,构建法律本体还需要对语义学、信息学技术有一定了解。来自官方的组织和统筹更易聚集足够的专业人士来参与项目。强调社会参与的原因在于,竞争有利于激发社会主体参与推进法律信息公共供给的积极性,有利于避免单一主体供给信息可能导致的信息垄断。前文所提到的《自由获取法律信息宣言》中就有关于避免信息垄断的表达,“自由获取法律信息的内涵之一便是公民应免受信息垄断之累,自由获取法律信息”。澳大利亚法律信息研究所也提出,“最大化的竞争可以催生不同的产品,法律信息供给的多样化最为符合公共利益” [4]6。

其次,构建法律本体的方法是多元的,具体应当采取何种方法与欲实现的目标有关,也与一国的法律体系有关。法律本体的构建可以基于案例,也可以基于法律规定,也可以两者结合运用。举例而言,荷兰莱布尼茨法律中心创建的法律功能主体(FOLaw),创建该本体的目的在于使其可以重用各个法律细分领域公用的基础内容,该本体以法律社会学为视角,以法理知识为基础,阐述了法律推理过程中各类知识之间的依赖关系。在法律功能主体的基础上构建的法律核心本体(LRI-Core)则更为具体,重用性更高,为了覆盖法律概念,它将立法、法律实践以及常识进行结合,以分属于不同层次的常识概念和典型法律概念为要素创建本体。就法律信息公共供给这一目的而言,以法律规定为基底创建法律本体应当成为不二选择,在以人工智能优化法律信息供给的语境下,更是应当重视法律法规的基础地位[16]。同时,与案例相比,法律法规的逻辑、结构更加清晰,稳定性更强,从较为清晰的法律法规入手遇到的困难或许会更少。在本体的语义选择和要素挑选方面,要从我国的法律体系出发。由于我国没有构建法律本体的经验,初次尝试势必要借鉴他国已有的成果,需要注意的是,不同法律本体的预设目标不同,采取的逻辑也不同,因此不可直接照搬现有成果,而应当对已完成的法律本体进行深入研究,探究其本体逻辑,寻找可资借鉴之处。

最后,构建法律本体并不是一种完美方法,只是一个较优选择,在本体设计过程中不可避免地会遇到阻碍。第一个阻碍在于语言,法律语言体系庞大,在本体构建的第一步,即语义分析中,需要首先明确哪些是必须的法律语言,哪些是非必须的。而后,考虑到本体的共享属性,为了让本体能够重复使用,還应当明确哪些词语是可共享使用的,哪些是不可共享使用的。这两个问题看似简单,但却恰恰是最难解答的两个问题。这需要法律专家以法学理论为指导,结合语义学的知识,协力合作,完成语义分析工作。以莱布尼茨法律研究中心构建的法律功能主体为例,它确定了各类知识的相互关系,也说明了各类知识在法律推理中所起的作用,但是其中缺乏构成法律的、抽象的、核心的概念,所以法律功能主体并未从法律本身出发进行研究,它并不是纯粹意义上的本体,更多的是一种认知框架[8]74。要使法律本体具有重用性,同时使本体能够在法律领域进行广泛使用,就需要对其进行具体化研究,具体化研究的第一步就是尽可能使本体覆盖法律概念,同时又要使这些法律概念能够与常识相对应。第二个阻碍来自法律领域存在争议的根本问题。法律知识的基本组成模块有哪些?要建立一个能被广泛应用的本体,就应当对这个问题作出解答,在法学研究领域,不同的学者可以给出不同的答案,但是在法律人工智能这一强调应用性的领域,法律专家必须对此问题给出一个确定的答案。

结语

法律人工智能在优化一国公共法律服务体系方面具有明显优势,公共法律服务与公民接近正义具有密切关系。法律信息的供给是公共法律服务的重要内容,以人工智能在信息整合和输出方面的绝对优势为踏板,实现法律信息供给的智能化是提高公共法律服务水平的不二选择。以法律本体论为理论工具,通过创建本体的方式整合法律信息,实现机器内部的推理,这是国际上法律人工智能建设的一个新趋向。创建法律本体是一项庞大的工程,过程中势必要面临许多理论与实践方面的问题,这些问题需要法律专业人士与人工智能专业人士进一步研究与探索。

注释:

①法律信息内涵丰富,从最普遍意义的公共供给角度来看,全量法律法规的供给应当是公共法律服务最为重要的内容之一,故本文所提到的“法律信息”也将在此意义上被阐述。

②公共法律服务是由行政机关统筹提供,旨在保障公民基本权利,维护社会公平正义和保障人民安居乐业所必需的法律服务。

③《关于印发<杭州市公共法律服务产品目录(第一批)>的通知》:http://sf.hangzhou.gov.cn/u/cms/www/201701/25101912uww7.pdf,杭州司法行政网,2019年8月16日访问。

④《关于印发<杭州市公共法律服务产品标准(第一批)>的通知》:http://zjjcmspublic.oss-cn-hangzhou.aliyuncs.com/jcms_files/jcms1/web149/site/attach/0/7a981f19d6194999a91ba0b2fe9e69b8.pdf,杭州政府网,2019年8月26日访问。

⑤《司法部全面推进公共法律服务体系建设》:http://www.gov.cn/xinwen/2018-07/24/content_5308764.htm中国政府网,2019年11月20日访问。

⑥Free Access to Law Movement website.

参考文献:

[1] 魏哲哲. 更好满足人民群众法律服务需求[N]. 人民日报,2019-07-19(05).

[2] 郭辉.弱者何以享有优待——接近正义的理论基础[J].南开法律评论,2015,(00):68-85.

[3] Deborah L. Rhode. Access to Justice, 69 Fordham L. Rev. 1785 (2000-2001).

[4] Graham G, Andrew M, Philip C. The Meaning of Free Access to Legal Information: A Twenty Year Evolution, 1 J. Open Access L. 1 (2013).

[5] 叶锋. 人工智能在法官裁判領域的运行机理、实践障碍和前景展望[J].上海法学研究,2019,5:20.

[6] 陈显武,陈世昌.法资讯学上法本体论研究的兴起与发展之分析——一个基本哲学概念意义之转换[J].台大法学论丛,2004,(5):1-49.

[7] Studer R, Benhamins V R, Fensel D. Knowledge Engineering, Principles and Methods[J]. Data and Knowledge Engineering, 1998, 25(1): 161-197.

[8]赵忠君. 土地法律本体构建及其推理机制研究[D].武汉:武汉大学,2011.

[9]Rissland, E L, Ashley, K D. A Case-Based System for Trade Secrets Law, in: Proceedings of the First International Conference on Artificial Intelligence and Law, 1987.60-66.

[10]Haft F, Jones R P, Wetter T. A Natural Language Based Legal Expert System for Consultation and Tutoring-The LEX Project, in: Proceedings of the First International Conference on Artificial Intelligence and Law, 1987.75-83.

[11]张妮,杨遂全,蒲亦非.国外人工智能与法律研究进展述评[J].法律方法,2014,16(2):458-480.

[12] Daniela T, Mapping a Formal Ontology onto a Legal Ontology, 52 Syracuse L. Rev. 1331 (2002).

[13]黄都培.基于本体的法律信息语义检索[J].计算机工程与应用,2008,(28):196-199.

[14]卢明纯.基于OWL本体的法律知识库原型系统的设计和实现[J].现代情报,2010,30(7):34-38.

[15]邢启迪.中国法律领域信息资源本体的创建研究[J].法律文献信息与研究,2017,(Z1):21-36.

[16] Joost B, Rinke H. Epistemology and Ontology in Core Ontologies: FOLaw and LRI-Core, Two Core.

责任编辑:左文颖

作者:李菲

第三篇:人工智能体法律主体地位的法理反思

内容摘要:人工智能技术带来的巨大风险引发了对机器人能否具备法律主体地位的追问。从法理论的角度来看,法律上的“人”一方面应当拥有享有权利和履行义务的法律资格(规范条件),另一方面实际具备享有权利和履行义务的意志能力(事实条件)。从根本上说只有生物人同时满足这两项条件,法律归根结底也是为了人类的利益。作为法学辅助概念的法人是生物人的集合,能通过“归入”的技术与生物人的行为建立起联系,也能更好地满足人类的需求。相反,动物因不具备规范性认知能力而无法完全满足事实条件,也不符合规范条件。机器人更接近于动物而不是法人,赋予其法律主体地位既不可能也不可欲,它无法、也不应当承担独立责任。在法律上为机器人行为负责的总是人类自身。

关键词:机器人 法律主体 意志能力 法律资格 独立责任

引言

人工智能技术正以迅雷不及掩耳之势席卷着我们的生活:2014年7月,百度公司启动“百度无人驾驶汽车”研发计划;2016年3月,阿尔法狗(AlphaGo)战胜围棋世界冠军李世石,次年10月击败中国棋手柯洁,仅5个月后升级版阿尔法零(AlphaGo Zero)就宣告完胜前辈阿尔法狗;2017年开始,京東和顺风快递试点无人机送货;当年5月,微软机器人小冰的诗集《阳光失了玻璃窗》出版;同年12月,深圳无人驾驶公交车上路试运行……人工智能技术对于人类生活的益处是显而易见的,但它可能带来的巨大风险也不容忽视。尽管这种风险对于正处于智能研发起步阶段的中国尚未显现,但在西方国家的实践中已被证实。例如,英国仅2005年一年就发生了77起与机器人有关的致命事故。〔1 〕在德国,2015年6月29日,一名法兰克福大众汽车工厂22岁的工人死于机器人“工友”之手。〔2 〕在美国,从2000年至2013年,外科手术机器人造成了至少144起死亡与1391起伤害。〔3 〕对此,有论者指出,对人工智能进行必要的法律规制,尤其是在故事发生后明确责任的分配十分重要。〔4 〕而在采取具体的法律应对措施之前,一个首先要解决的理论问题在于,人工智能体(简称“机器人”)能否具备法律人格,或者说能否构成独立的法律主体?这直接影响到是由机器人自身还是由其他主体来承担责任的问题。

在世界范围内,现行法律制度尚未对此有明确规定。唯有欧盟议会于2017年2月通过的一份决议中建议给予智能自主机器人以“电子人格”,〔5 〕而沙特于同年10月授予“女性”机器人索菲亚公民身份。我国尚无有关机器人法律地位的立法规定与司法实践,学界对这一主题也还缺乏系统深入的研究。〔6 〕不过,在已发表的关于人工智能带来的具体法律挑战的成果中,或多或少都不可避免地会涉及这一前提性问题。学者们的态度大体可分为三类:肯定说、否定说、中间说。肯定说认为应当赋予人工智能体以法律人格(同时明确其法律人格的有限性);〔7 〕否定说主张机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,因而尚不足以取得独立的主体地位;〔8 〕中间说则认为,从思维能力角度看,人工智能体的地位已经超越了物的概念,但从工具论角度,人工智能依然未能摆脱为人类服务的“工具”角色,所以它不是物也不是人。〔9 〕

笔者认为,在“人-物”或“法律主体-法律客体”的两分模式中,对机器人法律地位的界定只存在肯定其法律人格或否定其法律人格两种可能(无非前者扩张“人/法律主体”的外延,而后者扩张“物/法律客体”的外延)。笔者将从法理论与比较的视角出发来证立否定说。笔者并不试图在一般的意义上去讨论机器人是不是人的问题,而只限于从法律的视角去探讨机器人是否具备法律主体地位,这就需要明确法律上“人”的含义。在此基础上,我们将来阐明可与机器人相比较之两类对象,即法人与动物的法律地位。一方面,今天以公司和社会组织为代表的法人被普遍认为具备独立的法律主体地位,由此产生一种观点就认为:既然法人可以被赋予法律人格,机器人为什么不能拥有法律人格?〔10 〕另一方面,也有人主张,强人工智能机器人与动物一样都可以独立于人的指令之外凭借对环境的感知来行为,所以两者也具有法律地位上的可比性。〔11 〕由此,我们可以对机器人的法律地位进行准确定位,并给出结论。
一、法律上的“人”:法理论的视角

“人”的日常语言含义仅指生物意义的人(生物人,human),生物人有特定的生理和心理特质,有“感觉”和“意愿”。但我们对于“人”的认知不仅仅停留于生物学或者说自然科学的角度,我们还会从价值-文化意义上去看待“人”。价值-文化意义上的“人”是一种有别于其他物种的“主体”。例如,从哲学的角度看,“人”是一种具有道德意志的主体;从社会学的角度看,“人”是社会关系的主体。同样,法律上的“人”是一种法律意义上的主体,或者说具备法律人格(权利能力)的主体,这是从规范的视角出发的界定。法律上的“人”并不必然等同于或限于生物人。在特定时期,特定的生物人并不能成为法律主体,如奴隶制时代的奴隶。奴隶不具有法律人格和权利能力,因而其行为不具有法律上的意义,无法产生法律效果。而在今天,生物人之外的法人同样被各个国家普遍赋予独立的法律主体地位。所以可以说,每一类价值—文化意义上的“人”都是根据特定领域或学科标准被建构出来的产物,而法律上的“人”就是作为规范科学的法学根据自己的标准建构出来的产物。那么,法学建构法律主体的标准是什么?

法律是一种人类行为秩序,它要调整人类的行为。〔12 〕在规范的角度下,有的行为为法律所要求或禁止,有的行为则为法律所允许或授权。被法律所要求或禁止的行为在法学上被称为“义务”,而被允许或授权的行为在法律上被称为“权利”。如果被要求或禁止的行为没有得到满足,则法律会进一步规定对违背行为的制裁措施(也称“不法后果”),这在法学上被称为“责任”。责任与义务密切相关,没有义务就没有责任,但反过来不导致责任的行为也不是义务行为。所以,从法理论的角度看,法律是通过权利、义务的范畴来调整人的行为的。而法律主体,就是这些权利、义务的承载者。换个角度说,法律赋予法律主体以权利、对他们施加义务,授予他们拥有和处分特定财产的资格且让他们有权去起诉他人以实现这些资格,允许他们在违反对他人之法律义务时被他人起诉。所以,法律对“人”的界定与权利、义务相关,这意味着法律上的“人”受制于法律权利和法律义务。〔13 〕换言之,法律人格(权利能力)就意味着享有权利和履行义务的法律资格;法律主体就意味着拥有这些资格的实体。所以,“是人” 〔14 〕或“具有法律人格”就等同于对法律义务和权利的拥有。〔15 〕

法律上的资格和能力是法秩序本身所赋予的,所以哪怕是“自然人”同样也是规范建构的产物。所以,自然人并非可以撇开法律规范和法秩序而自身拥有权利和义务的生物人,而是以人类行为作为内容的权利和义务的统一。在此意义上,自然人也是法律人(法律意义上的“人”),说自然人“拥有”权利和义务也只是一种拟人化的说法。“拥有”权利和义务的自然人就是这些权利和义务的集合,它们的统一以“人”的概念被形象地表达出来。“人”就是对这种统一的拟人化。而由于这些权利和义务被法律规范所规定,所以“人”的问题最终也就是规范集合的统一问题。〔16 〕当我们说,法秩序赋予某人(生物人)以人格时,这不过是意味着,法秩序将这个人(生物人)的行为变成了权利和义务的内容。法律本身关心的是行为,法律创设的是以人类行为为内容的权利和义务,而不是“人”。“人”是描述法律的法学的产物,它是一种简化表达的辅助性概念。〔17 〕有了这个概念,有时我们就不需要一一表述出单个的权利义务,而可以将涉及同一个生物人的这些权利义务(以及作为其内容的行为)统一起来表达。就好比数学公式中的归纳公因数(对人因素),将之提炼出来就可以获得更清晰简洁的印象。

这种拟人化也使得“法律关系”这个分析任何法律案件时的初始性范畴变得可能。因为对法律人格的认可是一种相互尊重权利和强制施行对任何违背权利之行为的法律控制的手段。法律关系在内容上就是一种相互间的权利和义务关系,而相互的权利与义务必然建立的是兩个“人”(法律主体)之间的法律关系,而不可能是人或物(如动物或房子)之间的关系。人与物之间当然也可能存在有意义的关系,如我拥有一只猫,但这种关系毋宁是“物理性的关系”,而非法律关系。当然,某物的拥有者与其他人之间围绕物可能存在许多法律关系。比如,如果有人伤害了我的猫我可以主张赔偿,再如我可以将我的猫转让给我的朋友,等等。但此时的法律关系存在于我和特定或不特定的他人之间,而非我或他人与猫之间。猫在这里只是客体,只有我和他人才是法律关系的主体。同样的道理,自然人与法人之间关系也可以被还原为自然人与法人背后的每个个人之间的一个个独立的法律关系,尽管出于便利这些个人被结合为一个整体。〔18 〕所以,在萨尔蒙德看来,对法律人格更好的定义指涉的是法律关系的能力。〔19 〕这意味着法律上的“人”应当具有在法律框架内建立、维系、运作与他人之间的法律关系的能力。这也说明,被用于描述法律人格的权利和义务都属于关系性的范畴。

当然不仅如此。尽管法律上的“人”是对权利、义务以及它们所构成的法律关系的拟人化(主体化表达),但由于法律根本上是一种人类行为秩序,要调整人类的行为,所以法律规范创设的权利、义务如要在生活中得以实现,其承载者也必须具备意志能力。人类主体作出的行为是意志行为。对于意志行为既可以具有主观意义,也可以具有客观意义。当意志行为符合法律规范(或者说用法律规范来解释意志行为)时它就具有了客观意义。〔20 〕所以,一个具有法律意义之行为的产生,既要有客观的法律规范作为依据,也要有行为人的意志行为作为基础。权利和义务都是以意志行为为内容的规范性范畴,自然需要以意志行为为基础。换言之,这要求“拥有”权利和义务的人具有意志能力。一方面,权利与义务相关,它包含着针对他人的法律上可强制实施的主张,后者有义务不违反这些关系。拥有某项权利的法律主体应当有能力去追问:“他人必须为我做什么?”为此,权利的拥有者首先必须有关于自身的权利以及他人之行为义务的意识。为了迫使这种义务的实现,权利的拥有者有权动用可资利用的国家法律资源。〔21 〕其次,权利提供了一种机会,让其拥有者去做或者不做法律所允许的行为(这种行为构成了相关权利的内容)。因此,权利的存在是个法律问题,但权利的行使却要以其拥有者关于做或者不做某事的意识和选择为条件。在此意义上,自由意志就构成了作为法律权利之主体的“人”的关键要素,因为只有拥有自由意志才能践行这种权利。〔22 〕另一方面,义务被理解为法律要求为了他人的利益做或不做某事的责任,不遵守它会引起救济。一个承担某项特定义务的人要知道义务的存在、义务履行的强制性和不服从它时会引发制裁,他应当有能力去追问:“我必须为他人做什么?”〔23 〕与对权利的践行相似,履行义务也要其主体意识到相关义务的存在,并相应履行这种义务,以避免被国家施加法律制裁。不同之处在于,义务的主体没有选择的余地。相反,他必须具备的是思考不履行义务的后果以回溯性地调整自身行为的能力。我们可以称之为“反思调整”的能力。总之,创设法律人格的主要目的在于便于有组织的社会对人类行为进行规制。〔24 〕这要求法律主体能对权利、义务这类规制手段作出回应,即有能力意识到这些规制手段及其规范性意图,并作出相应的选择或反思调整。一言以蔽之,具备意志能力。只有这样才能实现法律规制的目的。

综上所述,从法理论的角度而言,成为法律上的“人”(法律主体)意味两个条件的统一,即一方面应当拥有享有权利和履行义务的法律资格;另一方面实际具备享有权利和履行义务的意志能力,即意识和选择或反思调整的能力。唯有如此才能成为受法律认可的人,而不仅仅是客体,哪怕是(单纯)受保护的客体。从性质上讲,前者属于规范条件,而后者属于事实条件。在逻辑上,事实条件构成了规范条件的前提,因为“行为如要取向于应当,则必须在自然条件下是可能的”。〔25 〕也就是说,只有具备意志能力的实体,法律才应当赋予其主体资格。但这种前提只是必要而不充分的前提,也即并非对所有具备意志能力的实体法律都必须赋予其主体资格。这取决于法政策上的考量。奴隶制时代的奴隶并非不能满足事实条件,而是未满足规范条件,是因为奴隶制时代的立法政策否定了奴隶的法律主体资格。所以,当检验某个实体能否构成法律上的“人”时,需要依次来检验事实条件和规范条件。只有当同时满足这两个条件时,才能赋予法律人格。
二、比较对象I:作为法律主体的法人

法人的典型情形是团体(如公司或社团)。从法学的视角来看,团体是由人类创设并被法律所认可、作为具有人格特征或法律主体地位的“人造人”,主要是出于便于其他人与这一组织(设立是为了追逐利益或其他目的)进行交易,以及简化其与周围世界之关系的考虑。〔26 〕在传统理论中,团体通常被定义为生物人的共同体,它被法秩序赋予权利、施加义务,后者不被视为那些作为团体之成员的生物人的权利和义务,尽管这些权利和义务与他们的利益相关。法人作为法律主体可以参加法律关系,如团体可以购买地产、租赁房屋。使用房屋(排除其成员外的其他人使用的可能)、拥有地产(使用地产并排除其成员外的其他人使用的可能)被认为是这个团体本身而非其成员的权利。当这些权利被违背时,是团体而非其具体成员向主管法院提起诉讼,而由此所引发的损害赔偿归于团体的财产、而非具体成员的个人财产。同样,支付租金、交付购买款也属于团体的义务,而非成员的义务。一旦当这些义务没有得到满足,出租人或出卖人的诉讼对象或者说承担责任的主体团体本身,而非其成员。在此,我们可以发现作为法律主体的法人具有两个方面的特征:其一,法人是具有行动能力的主体,能从事法律行为(如签订合同)、提起诉讼、履行义务(违反义务)、承担责任等;其二,法人是拥有权利、义务和责任的主体,因为法律赋予了它权利、对它施加了义务和责任。

一方面,法人是具有行动能力的主体。当两个或两个以上的个人在国家法秩序的效力领域内出于任何理由去共同追求特定目的时,他们就组成了一个共同体。这样的共同体可以是一种基于分工协作的组织,也即是团体。团体通过章程来建立自己的规范性秩序(從法理论的角度看,其实团体就是这种规范性秩序),它规定由个人来行使特定的功能,这些个人是为了实现这些功能以团体章程规定的方式所任命的,如法人代表。假如这些个人依据章程规定的方式来采取行为,那么这些行为就可以被解释为或者归为作为法人之团体的行为。在此意义上,这些个人可以被称为团体的机关。要强调的是,并不是这些个人(生物人)本身,而只是由其实施并被章程所规定的行为才归属于团体(由章程构成的共同体)。将某个人类行为归于法人,也就意味着将这一行为关联于规定它的、构成共同体的规范秩序(章程),后者由于这一归入被人格化为法人。因此,每个被章程所规定的行为都可以被归于由章程构成的共同体,而每一种规范性的、调整一群人行为的秩序都可以被人格化为行动者。一旦将团体机关所行使的功能归于团体,那么作为个人的机关的行为就相当于是团体的行为,团体就被视为了具有行动能力的主体,尽管真正发生的只是由章程规定的生物人采取了章程所规定的行为。这是一种法律上的拟制,就好比将法定代理人的法律行为归于无行为能力的被代理人一样。在法律上,团体机关与团体的关系就相当于代理人与被代理人的关系。因此,法人并不是某种实际存在物或超人式的有机体,而是一种为了简化和更直观地展示复杂法律事实而由法学建构出来的思维工具或辅助性概念。〔27 〕法人的法律人格是一种法律拟制。〔28 〕

可见,法人满足了法律主体的事实条件,只不过实际代表法人行使权利和履行义务的是它的机关。机关是这样一些生物人,在特定前提下,他或他们的意志行为在特定事项和地域范围内会对法人产生有利或不利的法律效果。〔29 〕因此,真正拥有意志能力是作为法人机关的生物人,而通过“归入”(或者说“代理-被代理”)这种法律技术他们的行为被视为法人的行为,这就使得法人成为了具有行动能力的主体。

另一方面,法人是拥有权利、义务和责任的主体。(1)法人的权利。当我们说法人有权主张其权利受到侵害,或有权因他人不履行义务而提出诉讼时,这种权利是通过章程所规定的机关来行使的。实际享有这项权利是团体的机关。将这项权利归于团体,只不过意味着对它的行使是被章程所规定的。如果与这项权利相对的是给付义务,那么就要向团体机关进行给付,因为依照章程必须由后者受领给付。当然,受领后的财产归为法人或者说全体成员的财产。如果与权利相对的是容忍义务(如容忍对某物的使用),那么也是对于依照章程有权使用它的机关负有容忍的义务。由于团体是由个人出于特定目的组成的,所以机关对权利的行使必须是为了团体成员的利益,而权利所带来的好处最终也可归于团体成员,或者说属于成员的集体权利。由这些权利带来的财产既是团体的财产,也可以说是团体成员的集体财产。〔30 〕

(2)法人的义务。法律可以命令具有意识和反思调整的个人去作为或不作为。它将某种行为规定为义务的方式是为相反的行为规定制裁。这种相反的行为是不法行为,制裁就是不法后果。避免不法行为与制裁的实体就是义务主体。法人作为义务的主体,或者说将某项义务规定为法人之义务的情形稍有不同:法律通常只规定某项行为为义务的内容,而将由哪一个人来履行这一义务交由团体章程来规定。只是法律所规定的制裁并不直接针对这一个人,而是针对团体,也就是将义务未得到履行时的责任归于团体。在不借助于“归入”这种辅助手段的前提下,义务就是个人的义务,义务是通过他的行为来履行或被违背的,但义务未得到履行时的责任则由作为团体成员的其他人以其人格和财产来承担。在此,实际上满足或违背义务的个人就被认为是团体机关,而义务就被归于作为法人的团体。同样,团体义务也可以被视为团体成员的集体义务。所以,义务能力的问题依然是个归属的问题,是一种思维操作。〔31 〕

(3)法人的责任。当团体机关的行为违反法律义务时,由此所导致的责任同样可以归于团体。但这里要进行一个区分:由于团体不是生物人,故而无法将以人身为基础的责任(如赔礼道歉、有期徒刑)归于法人,而只能将以财产为基础的责任归于法人。同时,由于团体的财产就是团体成员的集体财产,所以团体的财产责任实则是团体成员因为法律对团体所施加的义务未得到满足(由团体机关的行为表现出来)时,以其集体财产所承担的责任。所以,当我们说法人应履行义务承担责任时,一方面是指机关以其人身,另一方面是指团体或团体成员以其财产所承担的责任。当然,对法人财产的强制执行还是针对机关或者要由机关来配合实施的。不仅对于民事责任是如此,对于刑事责任也是如此。如我国《刑法》第30条和第31条就规定,公司、企业、事业单位、机关、团体实施的危害社会的行为,法律规定为单位犯罪的,应当负刑事责任。单位犯罪的,对单位判处罚金,并对其直接负责的主管人员和其他直接责任人员判处刑罚。在此,刑事责任被分作了两部分:由“直接负责的主管人员和其他直接责任人员”承担的人身责任(如有期徒刑),以及由团体或全体成员承担的财产责任(罚金)。在此,能“归入”的只能是财产责任。因而相比于自然人,法人的责任能力是有限的。

可见,就如同自然人的权利和义务一样,被归于法人的权利和义务最终同样是人类(生物人)的权利和义务,因为它们同样以特定生物人(人类)的行为为内容。既然如此,为什么在法政策上需要赋予法人以独立的法律主体地位?除了出于思维操作便利的考虑外,最主要的原因在于限定责任范围。这一点在作为法人的公司那里体现得最为明显。首先,承认公司的独立人格可以划定公司自身的财产(或者说公司出资人的集体财产)与其出资人个人财产之间的界线,因而可以避免其自身财产受到其出资人或后者的个人债权人的干涉,从而公司的债权人被赋予相对于出资人的优先地位。这被称为“实体屏蔽”。〔32 〕其次,它可以使得在公司遇到财政困难时,出资人或其个人债权人无法抽回其投资,这就使得公司成立的契约承诺对于外部世界具有了可信度。这被称为“清算保护”。〔33 〕再次,除了特殊规定(“揭开公司的面纱”)外,公司对外承担的债务通常只以出资人的出资额度为限,而无需以出资人的个人财产去为公司债务承担无限责任。〔34 〕当然,也如前所见,法人的责任在总体上也仅限于财产责任,它要将因法人机关之不法行为所导致的财产责任与其成员(包括机关)的个人财产责任区分开来。这既有利于法人的成员(承担有限的财产责任),也有利于与法人发生法律关系的其他主体(财产担保或优先受偿)。所以归根结底,让法人承担独立的财产责任依然是为了更好地服务于人类的需求。这一法政策考量满足了构成法律主体的规范条件,即应当拥有享有权利和履行义务的法律资格。


三、比较对象II:动物能否成为法律主体?

与法人不同的是,动物是一种自然生物,它既可以做出它被训练来做出的行为(条件反射),也可能依据自己的意愿来行为,后者是凭借特定的动物本能或由其他动物的不稳定行为所引起的行为偏离。〔35 〕在目前世界各国的法律中,并没有对动物之法律地位予以认可。尽管如此,一些动物保护主义者和理论家一直以来试图在“动物权利”的名义下赋予动物以与自然人一样的法律主体地位。〔36 〕动物能否成为法律上的“人”,同样取决于它能否满足法律主体的事实条件与规范条件。

动物是否满足法律主体的事实条件,端视它实际上是否具备享有权利和履行义务的意志能力。权利能力意味着自我意识和选择的能力,而义务能力意味着自我意识和反思调整的能力。不同种类的动物处于不同的进化阶段,因而在能否拥有这些能力方面很不相同。在此,以智力上最接近人类的黑猩猩为例。有科学研究表明,黑猩猩与人类分享了几乎99%的DNA。它们与人类在脑部结构和认知发展阶段上十分相似,包括交流技巧,这通过它们能够使用和理解符号语言就可以体现出来。黑猩猩同样具备自我意识,能从镜子、照片和电视中认出自己,并有能力反思自己的行为。它们显示出一种同情能力,善解其他黑猩猩的经验与情感,会模仿同类的举止。它们会对同类的不幸表示怜悯,对家族成员的死去表示悲伤。他们同样会进行社会合作,进行想象的游戏,表现出某种幽默感,等等。所以,有论者主张,正因为黑猩猩被证明能自治、具有自我意识的和自我决定,所以它们拥有人格特征,非常接近人类,因而它们应被赋予人类所享有的基本自由与平等的权利。〔37 〕在此,我们可以区分出事实性认知与规范性认知两个方面。事实性认知是对自然对象、事件及其因果联系的认知,包括对重复出现之现象的记忆和情绪性反映。应该说在这一方面,黑猩猩的确与人类相差无几,它们可以与人类一样拥有记忆和反思,拥有喜怒哀乐,具有生物学意义上的主体意识,能对外部条件的刺激作出“合适”的应对,掌握行为和现象的规律性。但是,这并不能证明它们也具有规范性认知的能力。规范性认知是对于行为与事件的意义(主观意义与客观意义)的认知。人类生活中的很多事实都属于这种具有意义的事实(制度性事实)。比如同样是某个人在不同场合签下了自己的名字,从自然事实的角度来观察,签名的动作、名字的笔画痕迹没有什么差别,但它的意义在不同的场合并不相同:它有可能意味着与他人缔结婚姻关系,有可能意味着将自己的某个财产转让给他人,有可能意味着担保自己言论的真实性,等等。

法律规范,或者说法律权利与义务所要创设出的就是這么一个规范性的世界,它相应要求法律主体具有规范性认知的能力。对规范的认知是一种对“应当”的认知。权利意味着法律上的“可以”,如我可以使用我的水杯,而不仅仅意味着事实上的“能够”,如我能够拿起我的水杯。义务意味着法律上的“应该”或“不应该”,如我应该纳税,不应该杀人,而不仅仅意味着事实的“不得不”或“不能”,如我不得不交出钱来,不能杀人(否则别人也会杀我)。人类具有规范性认知的能力,指的就是他们能认识行为的应当与否,并据此来调整自己的行为。杀人是不应当的,所以我就不去杀人。但黑猩猩并不会采取这样的认知方式,它的认识仍停留在事实性的因果联系的层次:它吃了动物饲养员拿给它的香蕉并没有受到“惩罚”(挨打),甚或受到鼓励(摸摸头),它就会认为它“能够”这么做,下次它就会再次这么做;它抢走了其他黑猩猩的香蕉受到了动物饲养员的“惩罚”(被打),它就会认为它“不能”这么做,所以下次就不去抢了。它的反思完全基于事实上的环境和后果,从而可以调整行为呈现出规律性。但规律并非规范,它无法认识到以特定行为为内容的规范的存在。而正是这1%的不同,决定了人类与黑猩猩的差别。所以,在规范性认知的层面上,即便是灵长类动物也不具备与人类一样的享有权利和履行义务的意志能力,更不用说其他动物了。

动物同样没有满足法律主体的规范条件。前已述及,法政策考量之所以赋予法人享有权利和履行义务的法律资格,既是为了便利法律思维操作的便利,更是为了划定独立责任的范围,从根本上是为了人类自己的利益。但是,正如纽约州最高法院在2015年“非人类权利项目公司诉斯坦利案”中,驳回该公司为两只黑猩猩申请人身保护令时所说的:“黑猩猩并非有资格享有人身保护令所提供之权利和保护的‘人’……因为与人类、公司和市政机构不同,动物不能承担任何法律义务,担当社会责任,或在法律上为其行为负责;无法承担任何法律责任和社会义务使得赋予黑猩猩法律权利并不合适。” 〔38 〕因此,并非外貌上或事实性认知层面的相似性,而只有享有权利和履行义务的法律资格才是法律人格的决定性要件。法律作为人类行为秩序要调整的是人类的行为,在一个人类主导的社会中,赋予动物享有权利和履行义务的法律资格,尤其是让动物承担独立责任既不可能、也不可取。动物并不拥有自己的独立“财产”(这同样是一个有规范意义的概念,尤其是货币,动物无法认知其意义),因而无法承担财产责任。〔39 〕动物也无法承担人身责任,比如让一只因打伤了人类的黑猩猩去坐牢或处以死刑,因为它并不具备人类的罪责能力(主观上的可罚性)。因为动物不具有理性思维能力,其行为不具有道德上的可谴责性。这么做从根本上无法促进人类的利益,反而可能会为相关自然人规避自身的责任提供渠道。例如当家养的宠物咬伤路人时,如果认为宠物构成法律主体,则要由宠物本身而非宠物的主人来承担民事责任。这是荒谬的。〔40 〕

当然,不承认动物的法律主体地位,不承认有所谓“动物权利”,并不意味着不应对动物进行保护。对某种对象进行保护并不一定要将这种对象拔高到主体的地位,或者说与它相关的利益上升为权利。法律即便是对特定无生命的对象也可能加以保护。例如我国《刑法》中有关“破坏公私财物”的规定,保护的就是“公私财物”这种无生命的对象,但公私财物只是被保护的客体,而不是可以自我主张予以保护的主体,“被保护”也不是公私财物的权利。同样的道理,我们不否认每种动物都在自然界中占有一定的位置,因而有其存在的价值,应予以善待和保护,但它们不可能享有与人一样的待遇或权利。〔41 〕因此,对动物的道德关怀或者加以保护并不意味着承认动物的主体地位,承认“动物福利”也不意味着承认“动物权利”,两者不可混淆。〔42 〕这一点在《德国基本法》第20a条中表达得很清晰:基于对未来世代的责任,国家在合乎宪法秩序范围内,经由立法以及依据法律及法之规定经由行政与司法保障自然生活根基与动物。在此,动物是被宪法以及合宪的立法、行政、司法所保护的对象。


四、机器人的法律地位

机器人既不完全等同于动物,也不等同于法人。一方面,机器人是人造物,而动物是自然造物。另一方面,机器人具有物理实体(特定的外观)或物理载体(特定的系统),而法人只是一种法学思维的辅助概念,没有对应的实体或载体(当然,法人“有”住所、办公场地、有作为成员的生物人等,但它们都不是法人“本身”)。那么,机器人能构成法律主体吗?

首先要区分出人工智能的三种形态,即弱人工智能、强人工智能和超人工智能。〔43 〕弱人工智能是指由人类程序员事先制定算法规则,由智能体统依照预定的规则来处理相关问题。弱人工智能的典型是用专家系统模拟法律活动中与规则相关的某些内容。〔44 〕基于规则的系统,计算机程序要做的是将复数的规则以相应的权重连接在一起。只要在输入端事先确立了这套规则系统,且根据个案情况输入参数,那么原则上就可以得出清晰的结论。与此不同,强人工智能是一种“合成智能”,它能综合应用机器学习、神经网络、大数据、认知系统、演进算法等要素,有可能突破程序员编排它做之事的局限。〔45 〕它有“深度学习”的能力,能基于数据库中给定的样本总结归纳出普遍性的特征,并以此来辨别新的样本。弱和强人工智能的运作基础都是“基于规则的逻辑”,只不过前者的规则是由人类事先规定的,而后者的规则是由智能系统根据经验样本自行“创设”的。超人工智能则已经超越了具体规则的层面,而能够在整体层面进行决策和思考、甚至评价。当追问“机器人的法律地位”时,主要指向的是强人工智能体。因为弱人工智能体就是目前的计算机系统,它明显只是人类运算的辅助工具,只能被作为客体来对待;而超人工智能体一旦出现,就意味着人类作为特殊的生物族群从地球上逐渐消失的开始,我们的道德法律秩序也将随之发生颠覆性的改变。对于目前而言,有意义的是去思考在已经露出端倪的强人工智能体的法律地位问题。〔46 〕

作为强人工智能体的机器人被认为具有五个特征:与他人交流的能力、内部知识(关于自身的知识)、外部或外部世界的知识、某种程度上的意向性(达成特定目标)和创造性。〔47 〕基于此,有的学者建议为机器人创造出“准人格” 〔48 〕或“临界地位” 〔49 〕的概念,因为它们只会享有部分的权利和义务。但正如本文一开始所说的,在法律主体资格的问题上,只有“是”或“不是”的两分式回答,而没有什么中间性的状态。即便某个实体与自然人相比只具有部分、也即是有限的权利和义务(如法人),其前提也是这一实体已具有法律主体的地位(即具备享有权利和履行义务的实际能力与规范资格)。能力或资格是“质”的问题,而权利义务的多少是“量”的问题,“質”在逻辑上优先于“量”。机器人能否构成法律主体,同样要看它是否符合法律主体的事实条件与规范条件。但两方面检验的结论都是否定的。

一方面,机器人并不具备享有权利和履行义务的意志能力。在此我们可以将机器人与法人和动物进行比较。机器人法律人格的支持者经常基于机器人与法人的相似性来予以论证。如哈勒维就认为在对法人和对人工智能体施加刑事责任的观念方面并无实质性的法律差别。公司会犯罪,机器人也有能力因过失而从事“犯罪行为”,因而机器人本身应当被惩罚,而惩罚的目标可以通过惩罚机器人来达成。总之,既然法人要服从人类的法律,那么机器人就同样要服从人类的法律。〔50 〕但持这一论点的支持者没有看到的,当我们说法人从事犯罪行为时,真正从事这一行为的只是作为法人机关(代表法人行事)的自然人,而对法人的惩罚实际上惩罚的都是法人背后的自然人(法人的机关以及/或者其他成员)。〔51 〕如果将目光扩张到整个法律而不限于刑事责任的领域,那么这可以通过两点来说明:(1)法人实际上是生物人的集合,法人的权利义务可以被还原为生物人的权利义务,但机器人不能。法人的权利是法人成员的集体权利,法人的义务是法人成员的集体义务,而法人的责任也是法人成员的共同责任(在法人财产范围内的有限责任)。但机器人并非由生物人组成,相反,它是被生物人所制造出来的。(2)法人权利义务的实际行使及责任的实际承担都由生物人来进行,作为法人机关的生物人与法人的关系是代理与被代理人的关系,但机器人并不存在代理其行为的生物人。正因为“归入”技术的存在,具有意志能力的生物人的行为可归于法人,后者才被认为具有行为能力。但人类与机器人之间并不存在一种有意志能力的主体与(实际上)无意志能力的主体之间的“代理—被代理”关系,作为强人工智能体的机器人是凭借自己的“意志”来行为的。要说它和人类之间有关系,也只可能是它的行为及其后果归属于人类,而不是反过来。在这一点上,它更接近动物。

机器人虽然是人造物,但与动物一样具有事实性认知能力。它拥有内部知识,因而具有自我意识;它在某种程度上拥有意向性和创造性,能够为达成特定目标而自行设计路径并予以执行,因而具有选择能力;对于来自人类的否定性指令能作出回应,并对自身路径进行修正,又具有反思调整的能力。尽管如此,它与动物一样并不具备规范性认知能力。强人工智能体虽然能进行深度学习,自行归纳和提炼规则,但这种“规则”并非法律和道德意义上的规范性规则,而更多只是一种规律性,一种算法。比如,在审判辅助系统中,它可能会基于海量案件,将反复出现的不同事实特征与相应的法律后果相联结,甚至提供不同事实参数的组合方式与法律后果之间的关联。〔52 〕它能够基于事实特征来识别法官要处理的案件与先前的判例是否属于同案,并由此告诉法官先前案件的法律后果。但它无法认识到事实特征的法律意义,无法从整体上对案件进行评价,更无法理解“同案同判”本身的意义。对此,有论者认为:“确立人工智能技术手段于量刑实践积极效能的同时,也必须清醒地认识其无法取代法官的客观现实。” 〔53 〕季卫东教授也提醒我们注意这个基本原则:“大数据、云计算、信息技术、人工智能都只是实现合法正义的辅助手段,切不可本末倒置,这是我们始终应该铭记的一条基本原则。” 〔54 〕

此外,与动物一样,机器人的世界是没有“应当”的世界,机器人对于是否采取特定行为的算法里,也只有“行为A→事实上的许可”“行为B→事实上的惩罚”这样的模式,并由此来调整自己的行为,一如那只吃香蕉的黑猩猩。它的行为预测完全基于因果联系,只有基于后果的作与不作的区别,而没有应当和不应当的区分。所以,机器人可能具有对环境感知并“自主”应对的能力,它们可能与灵长类动物一样有自己的“情绪”,能识别和理解符号,能进行社会合作,但它们与动物一样并不具备具有道德意义上的意志能力。权利、义务这样的概念对于机器人来说只是编程中0和1的差别。正因为如此,所以哥德尔认为,“人类的头脑要无限超越任何有限的机器的力量”。〔55 〕

另一方面,机器人也不应当拥有享有权利和履行义务的法律资格。在法人的情形中出于思维便利的考量在机器人的情形中并不存在。更关键的是,为机器人划定独立的责任范围既不可能、也不可欲。就人身责任而言,让机器人承担民事上的人身责任(如赔礼道歉)和刑事上的人身责任(如有期徒刑)都是没有意义的。或许强人工智能体能将自己的某种行为及其后果识别为“不法或犯罪行为”,从而下次会避免这一行为,但这并不会在它的主观上产生有意义的认知,即“我错了”。所以,它缺乏刑事责任能力(不法意思能力)。〔56 〕但是,法律责任制度、尤其是过错责任制度的主要目的,即在于通过惩罚和教育,达到预防违法的目的,既预防违法行为人再次违法,也起到一般预防的作用。〔57 〕而这都需要以行为人的主观规范性认知为中介才能达成。但很显然,对于机器人而言是无法起到教育和预防的目的的。〔58 〕就财产责任而言,由于机器人并不自始就拥有自己的财产,所以理论上可能有三种方式:第一种是由机器人的所有人,或者/以及机器人的生产者(如果损害由设计瑕疵带来)和使用者(如果损害由使用不当带来)来承担,也就是以这些自然人的财产来担保对受害人进行赔偿。〔59 〕但此时机器人与相关自然人的关系就是工具与操作者、客体与主体的关系,没有赋予机器人法律主体地位的可能和必要。第二种是由以上自然人单独或共同设立赔偿基金,对于机器人致损的受害人在基金范围内予以赔偿。由于限定了赔偿的范围,生产者、所有者、使用者就可能部分免除了溢出部分的责任。但考虑到为促进机器人产业的发展,社会可以容忍这种“部分免责”的制度设计。然而,这种情况下仍无必要赋予机器人以主体地位,因为这相当于是成立了一个基金法人,承担财产责任的主体是这个基金法人(实际上是其背后的成员)。第三种是对机器人适用强制保险机制,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。但这同样不需要赋予机器人主体地位,因为这就类似于针对机动车或宠物的强制险,承担责任的整个社会的成员(分散风险)。责任的主体依然是自然人,而不是作为客体的机器人(或机动车、宠物)。当然,第二种和第三种方式也可能结合起来,即用赔偿基金来对强制险未予覆盖的损害进行赔偿。采取上述何种措施,取决于立法者的法政策考量。但无论是哪种情况,承担赔偿责任的主体最终都始终是自然人,而非机器人。只要机器人还是人造物,它背后的自然人或法人就仍需要为它的行为负责,除非机器人本身可以从其操作中获利。所以,对于法律责任而言,机器人依然可以正当地被作为“产品”来对待。〔60 〕
结语

法律是一种人类秩序,调整的是人类的行为。法律主体作为法学上的一个重要范畴,是由法学为简化对复数行为以及以其为内容之权利义务的规定而建构出的概念工具,但它要以实际享有权利和履行义务的意志能力为基础。所以籠统地说,权利和义务的能力(实际能力与规范性能力)是被法律用来决定是否赋予某实体以法律主体地位的唯一特征。而归根结底,只有生物意义上人才具有这种能力,即同时满足法律主体的事实条件与规范条件。因为包括法律主体在内的一切法律制度设计,从根本上说都以(生物)人的行为为基础,都是为了(生物)人的利益。法人这一辅助性概念通过“归入”这一法学技术与生物意义上的人的行为建立起联系,它的存在也是为了更好地满足人类的需求,因此同样被赋予法律人格。但机器人无法在这一意义上与法人等量齐观,它更接近具有自我意识的动物,两者都被视为财产、工具或法律的客体,而非主体。所以,机器人只能被作为工具,在法律上为机器人的行为负责、因而为确保它们在法律的界限内活动负责的总是人类。〔61 〕称机器人为道德行动者(也包括法律行动者)不仅是错的,也是对我们自身责任的逃避。〔62 〕

作者:冯洁

上一篇:中国建筑特征论文下一篇:铁道运输毕业论文