专题研究
论人工智能的民法定位[1]
景荻[2]
内容提要:伴随大数据、计算能力、深度学习等智能科技的迅猛发展,人工智能时代正在到来。在带来巨大社会价值的同时,人工智能也引发了一系列民法挑战,首要的就是准确界定其法律地位。无论是从民事主体的历史演变来看,还是从人工智能本身的智能特征出发,抑或是从社会发展的现实需要考量,人工智能都有成为民事主体的可能性与正当性。对于满足智能、物理载体、登记、资产要件的人工智能,法律应当赋予其电子人这一新型独立的法律主体地位。在此基础上,区分作为主体的人工智能和作为客体的人工智能,妥当构建人工智能责任承担、财产归属等法律规则。同时,为了最大限度地保障人工智能造福于人类社会,规避可能产生的消极风险,还应当从监管机构、伦理规范、警示接管、执照许可、信息披露等方面配套相关监管机制。
关键词:人工智能 法律人格 电子人 法律规则 监管机制
一 人工智能时代正在到来
1956年,麦卡锡等人在美国达特茅斯学院首次明确提出“Artificial Intelligence”这一概念,正式拉开了人工智能研究的序幕。[3]在随后60年里,人工智能技术的发展经历了20世纪50~60年代以及80年代的浪潮期,也经历过70~80年代的沉寂期。[4]近年来,随着数据爆发式的增长、计算能力的大幅提升以及深度学习算法的发展和成熟,我们再次迎来人工智能的新一轮浪潮。[5]
关于什么是人工智能,至今并未有统一定论,因为定义“智能”本身就是非常困难的一件事情。[6]根据人工智能权威学者Stuart J.Russell和Peter Norving的考察,有关人工智能的定义起码有四种路径:像人一样思考;像人一样行动;合理地思考;合理地行动。其中,前两种定义根据与人类表现的逼真度来衡量,而后两种定义则依靠合理性的理想变量来衡量。[7]根据维基百科的定义,“人工智能就是机器展现出的智能”,只要机器具有某种或某些“智能”的特征或表现,就可称之为“人工智能”。大英百科全书则认为,人工智能是数字计算机或者数字计算机控制的机器人在执行智能生物体才有的一些任务上的能力。而根据我国2018年发布的《人工智能标准化白皮书》,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。[8]显然,有关人工智能的定义并未形成普遍共识。对此,我们可以从以下方面来理解人工智能:其一,从产生上看,人工智能是人工设计的产物,不同于自然意义上的智慧生物;其二,从技术特征上看,人工智能能够模拟人类的智能,通过人类给定的数据或自己创造的数据进行自我学习,并独立于人类的干预自主作出决定,这使得人工智能不同于一般意义上的工具;其三,从形式上看,人工智能可能以软件代码的应用系统形式存在(如Siri),也可能获得物理载体(如自动驾驶汽车、工业机器人等)[9];其四,从智能程度来看,人工智能可以分为强人工智能与弱人工智能,强人工智能能够匹敌甚至超过人类智能,像人类一样解决所有问题,并且能够在任何社交场合中与他人进行交流,而弱人工智能仅仅能够再现人类智能的某些方面。[10]就目前人工智能技术发展现状来看,强人工智能仍属科幻。
当前,各国都在抢占人工智能产业发展的高地。2016年10月,美国白宫发布《国家人工智能研究和发展战略计划》,成为全球首份国家层面的人工智能发展战略计划。同月,美国总统行政办公室与美国国家科学与技术委员会联合发布《为人工智能的未来做好准备》的报告,美国150多名研究专家共同完成了《2016美国机器人发展路线图——从互联网到机器人》,为美国人工智能的战略发展提供了顶层指导。[11]欧盟对人工智能的关注更早一些,2013年就提出了为期10年的“人脑计划”。此外,欧盟委员会与欧洲机器人协会合作完成了“SPARC”计划,成为世界上最大的民间资助机器人创新计划。而在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2017年2月16日,欧洲议会投票通过向欧盟委员会提出开发机器人与人工智能与民事法律规范的建议,就人工智能的法律地位以及法律责任等问题提出了框架性安排。[12]此外,日本也一直很重视人工智能产业的发展。2014年9月,日本政府就成立了“机器人革命实现委员会”,讨论与“机器人革命”相关的技术进步、监管改革以及机器人技术的全球化标准等具体举措。2015年1月,日本经济产业省将委员会讨论的成果进行汇编,编制发布了《日本机器人战略:愿景、战略、计划行动》。与此同时,我国也高度重视人工智能这一发展机遇。2017年7月20日,国务院发布《新一代人工智能发展规划》,明确指出要“制定促进人工智能发展的法律法规和伦理规范……开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”。2018年1月18日,国家标准化管理委员会工业二部和工信部科技司发布《人工智能标准化白皮书》(2018版),研究制定了能够适应和引导人工智能产业发展的标准体系,并呼吁社会各界共同加强人工智能领域的技术研究、产业投入、标准建设与服务应用,共同推动人工智能及其产业发展。
毫无疑问,人工智能时代正在到来,其蕴含的能量、影响力和历史意义丝毫不亚于前三次工业革命,具有极大的社会价值。[13]与此同时,人工智能也将对我们现有法律体系提出前所未有的挑战。例如,一方面,有研究显示,自动驾驶汽车可以减少95%以上的交通事故,帮助儿童、老年人、盲人等群体获得移动便利,缓解交通拥堵,提高时间利用效率等。[14]但另一方面,自动驾驶汽车却并不能保证绝对安全,有关自动驾驶汽车卷入交通事故的报告可谓屡见不鲜。例如,谷歌公司自2009年推出自动驾驶汽车以来,其间发生了近30起交通事故。对此,谷歌方面宣称并未造成任何重大伤亡,且仅对两起交通事故承担部分责任。[15]而另一家汽车公司特斯拉则没有这么幸运,迄今已发生多起严重伤亡事故。2016年5月,在美国佛罗里达州中部的一段高速公路上,一辆特斯拉自动驾驶汽车与迎面而来的白色货柜车相撞,最终导致年仅40岁的布朗先生不治身亡。[16]对此,人们在质疑自动驾驶汽车等人工智能技术成熟度的同时,其也引发责任承担的法律难题。[17]再比如,人工智能能够模拟人类智慧,撰写小说、新闻报道,绘画、作曲等,极大丰富了人类的精神和物质财富[18],但也提出了人工智能创作作品的知识产权归属的法律难题。[19]显然,人工智能想要迅速落地,除了要解决诸多技术难题之外,还需要应对一系列法律挑战。其中,人工智能的法律定位至关重要,成为人工智能责任承担、财产归属等法律规则构建的前提基础。
事实上,关于人工智能能否取得法律人格的讨论由来已久。早在“人工智能”概念诞生之前,各种科幻小说就幻想过机器人具备自主意识进而想成为人、取代人的故事。近年来,大数据、深度学习等技术让人工智能变得更加聪明,在围棋、计算、识图等领域已经远远超越人类,甚至展现出发明机器人语言的天赋。[20]毫无疑问,人工智能在复制人脑的道路上走得越来越远。据报道,当前人工智能的人工神经网络所拥有的神经元比蜜蜂和蟑螂等生物还要多,而且数量还在不断增加。而最大型的项目旨在创造更多的生物合成算法,目的是要复制人类大脑的运作方式,而不只是简单地模仿我们的记忆方式。[21]许多专家都预测,2045年将是奇点到来之际,届时人工智能将在智能层面全面超过人类。[22]而实践中,早在2010年11月,日本一个海豹宠物机器人帕罗(Paro)就获得了户籍,帕罗的发明人在户口簿上的身份是父亲。[23]2016年2月,美国国家公路交通安全管理局(NHTSA)表示,谷歌自动驾驶系统可以被视为“驾驶者”(driver)。[24]2016年5月,欧盟法律事务委员会提交了一项动议,建议赋予最先进的自动化机器人“电子人”(electronic persons)的身份。[25]2017年10月25日,沙特政府更是授予机器人索菲亚(Sophia)公民身份,使其成为全球首位取得公民身份的机器人。[26]对此,我们暂且不论沙特这一举动是否存在宣传噱头等其他目的,但它所引发的一系列法律挑战是不可回避的。既然索菲亚取得了公民身份,那么她能否享有公民的一系列权利呢?如果索菲亚造成他人损害该如何处理?人类伤害索菲亚又该如何应对?索菲亚能否拥有自己的财产?又能否自主缔结合同?……显然,这一系列法律问题都将随着人工智能被赋予法律主体地位而来。[27]故此,本文针对人工智能的民法定位问题展开探讨,以期为人工智能的法律规制提供一些借鉴。
二 人工智能法律地位之辨析
(一)现有学说之梳理
有关人工智能法律地位的争论由来已久,观点可谓层出不穷。[28]对此,我们可以简要归纳如下。
第一,动物说。有学者认为,人工智能与动物十分相似,它们都具有某种自主行动的能力。[29]饲养的动物一般被视为财产,所有人需要对它们造成的损失承担责任;反过来,对于饲养的动物遭受的损害通常也被视为财产损失。在动物造成他人损害的情形中,动物本身的意图往往是不重要的,所有人的意图才是法律需要关注的重点。当然,在某些情形下,动物本身的意图可能会违背所有人的意图。对此,我们需要区分饲养动物和野生动物,前者可以减轻所有人的责任,而后者通常不会。基于此,人工智能应当参照动物,适用上述法律规则。对于标准出厂的机器人,我们可以将其视为饲养的动物,它们大多数情况下是十分安全的,因而相关主体承担的注意义务更轻;而对于经过高度改造、自定义编程或实验性质的机器人,我们应当将其视为野生动物,它们对于公众的威胁更大,相关主体需要承担的责任更重。[30]对此,来自伦敦大学认知神经科学的帕特里克·哈格德(Patrick Haggard)教授明确说道:“每一个机器人的背后都应该有一个负责任的人,就像狗的主人需要对饲养的狗负责任一样,这是机器人学的一个重要原则。”[31]此外,为了防止人工智能受到人类虐待,有学者也主张参照动物保护的方式,禁止人们对人工智能实施暴力行为。[32]
第二,奴隶说。有学者认为,尽管人工智能的智能程度非常高,但其也只能被视为客体(人类创造的对象),最多被视为会说话的物(但不是主体),就像古罗马时期的奴隶一样。[33]在罗马法中,如果奴隶损坏了他人的财产,他们的主人需要对此承担赔偿责任。而考虑到奴隶有自己的意志,因而对于逃跑的奴隶所造成的损失,主人通常无须承担赔偿责任。当然,奴隶作为不同于一般物体的财产,法律禁止包括主人在内的人对其实施无端伤害,但即使发生这种伤害,通常也仅被视为财产损失,而非殴打、谋杀等罪行。[34]简而言之,此种观点认为人工智能理当被视为奴隶,人类拥有人工智能是再正确不过的事情。[35]
第三,一般客体说。有学者认为,尽管人工智能具备一定的智能,但人工智能生成的目的行为,与人类有目的、有意识的行为性质完全不同。同时,人工智能没有自身积累的知识,其拥有的知识也多是特定领域内的,并且是人为提供输入的。尽管人工智能能够模拟和扩展人类的部分智能,展现出相当智性,但它们并没有人之心性和灵性,这与具有“人类智慧”的自然人和自然人集合体是无法等同视之的。[36]故此,人工智能只能被视为客体或工具,不能像自然人和法人那样获得法律人格成为主体。
第四,道德客体说。来自爱尔兰国立大学的法学教授约翰·丹纳赫(John Danaher)认为,“我不认为赋予人工智能法律人格是一件正确的事,至少现在还不是。我的猜测是,在可预见的未来,这种做法主要是为了推卸人类的责任,来掩盖一些反社会活动”。对此,约翰·丹纳赫教授进一步说道,“在决定是否赋予某实体法律人格的事情上,我们应该追问以下两个子问题:一是这个实体是否应该被当作道德主体(moral agent)来对待,它应该对自己的行为负责吗;二是这个实体是否应该被当作道德客体(moral patient)来对待,从而受到法律保护,免受某些干扰以及对其完整性的侵害。我的观点是,人工智能不应该被当作道德主体,至少暂时不会。但我认为,在某些情况下,它们应该被视为道德客体。这意味着我们可能要对人工智能负责,不能破坏或者侵犯它们的完整性”。[37]换言之,此种观点主张将人工智能视为道德客体,人们理当善待它们,但不承认其具有主体地位。
第五,代理人说。随着交易型机器人越来越多参与市场交易,传统合同法理论仅将人工智能视为缔约工具的理论逐渐受到质疑。对此,有学者主张将人工智能界定为人类的代理人,相关交易适用代理规则。[38]2017年10月16日,爱沙尼亚政府公布人工智能法案,采纳了这一观点,主张赋予人工智能法律地位,使其成为人类的代理人,并对人工智能的事故责任问题做了规定。法案提出,作为人类的代理人,人工智能拥有代理权,但最终的法律权利、义务都由被代理人承担,这种法律定位介于独立法律人格(如公司)和无法律地位的财产之间。[39]
第六,有限人格说。有学者认为,对于人工智能的性质,学界一直有不同争论。考虑到人工智能本身高度的智慧属性以及独立自主的决策能力,将其视为传统的工具或代理人都不合适。相反,赋予人工智能有限法律人格,将其视为具有智慧工具性质又可为独立意识表示的特殊主体,赋予其有限的权利义务更加妥当。同时,该学者还明确指出,即使人工智能发展到具有自我意志的程度,其与人类也存在根本性的不同。鉴于人工智能的独特法律定位,应当适用特殊的法律规制标准。[40]
第七,参照公司说。有学者认为,法律既然能够给予公司法律人格,当然可以给予人工智能法律人格。[41]《人类简史》和《未来简史》的作者尤瓦尔·赫拉利(Yuval Harari)说道,“在今天,公司拥有合法的权利而且被视为法人,但大多数动物却没有获得此等待遇。尽管公司并没有意识,没有人格,没有体验幸福和痛苦的能力,而动物却是有意识的实体。同样,无论人工智能是否发展出意识,都可以有经济、政治和法律上的理由赋予它们人格和权利,就像今天的公司可以获得法律人格和权利一样”。[42]此外,有学者也指出,鉴于机器人不同于生物学意义上的“人”,我们可以参照法人,将机器人“拟制”为法律主体,不再去纠结它们是否存在意识,强制性地要求人们之间达成“机器人拥有权利”的基本共识,以便降低人们在机器人应用上的谈判成本。[43]
第八,电子人说。2017年2月16日,欧盟议会投票表决通过一份包括一些具体立法建议的决议,建议赋予人工智能“电子人”(electronic persons)的法律身份。在欧盟看来,随着人工智能自主程度越来越高,它们被视为工具的可能性越来越小。而在责任承担方面,传统规则很可能并不合适,所以需要新的规则来应对。对此,赋予人工智能法律人格,可以让人工智能为自己的行为承担全部或者部分责任。[44]
(二)人工智能作为法律主体之证成
上述观点基本涵盖了有关人工智能法律地位的不同看法。依据是否同意赋予人工智能法律人格,我们大致可以将其分为反对说和赞同说,前者包括奴隶说、动物说、一般客体说和道德客体说,后者则包括代理人说、有限人格说、参照公司说以及电子人说。对此,笔者认为,人工智能具有获得法律人格的可能性和正当性。
第一,从历史来看,法律主体具有开放性。约翰·奇普曼·格雷(John Chipman Gray)曾经说道,“在有关法律的著作中,乃至日常交谈中的那样,人(person)这个词的意思主要是指生物人(human being),但法律技术化的‘人(person)’的含义则是法律权利与义务的承担者”。[45]法律需要将现实中的人转化为法律意义上的人,由此使得生活中现实存在、各具特性的个人,在法律上以统一的标准人、制度人的方式出现。法律赋予现实生活中的人以法律人格,使其能够参与实际的法律活动,并享有权利、履行义务和承担责任。[46]换言之,法律意义上的人与现实生活中的人并非完全一致。[47]恰恰相反,法律相较其他社会科学的高明之处在于:它能使人非人,也能使非人成人。[48]对此,民事主体范围的演变历史可以很好地佐证这一点。早在罗马法时期,并非所有的生物人都被视为法律意义上的人,奴隶就被视为主人的财产,沦为法律客体。[49]随着近代资产阶级革命和启蒙运动的到来,所有的生物人都获得平等的法律主体地位,成为具有平等法律人格的自然人,社会生活中的生物人与法律意义上的自然人获得了一致,人可非人的时代正式结束。与此同时,组织体发展迅猛,在社会生活中扮演着不可或缺的重要角色,于是法律发挥其拟制的力量,赋予特定的组织体以法律人格,使其成为与自然人并列的法律主体。如果说第一阶段“人可非人”到第二阶段“人皆为人”的过渡更多的是一种道德伦理的考量,即人人平等价值的宣扬,那么从第二阶段到第三阶段“非人可人”的进化,则更多的是出于社会现实的需要。[50]对此,正如后现代主义者所认为的那样,主体性是一种推理的结果,而不是超验的、非历史的、固定不变的、客观的地位。[51]近年来,一些国家更是不断扩大法律主体的范围,如新西兰赋予河流法律人格、印度赋予瀑布法律人格、厄瓜多尔赋予环境法律人格等。[52]由此观之,民事主体并不必然等同于生物意义上的人,其本身具备流动性和开放性。[53]如果我们仅仅因为人工智能并非人类这一物种,就粗暴地否认赋予其法律人格的可能,那么这与那些因为并非自己族类进而否定其他种族人权的观点一样荒唐。[54]随着人工智能越来越多地参与人类社会生活,其理当具备成为法律主体的可能性。
第二,意识并不能成为阻碍人工智能取得法律人格的理由。有学者认为,人工智能不具备人之心性与灵性,人工智能的运算过程也非有意识的过程,故而法律不应赋予人工智能以法律人格。[55]对此,我们认为,意识并不能成为否定人工智能取得法律人格的依据。其一,并非所有的生物人都具有意识。例如,无脑婴儿、重度昏迷患者、植物人等就是如此,但我们依然认为他们具有法律人格,是无可争议的法律主体。其二,意识与法律人格并无必然联系。一方面,具备意识并不足以让实体理所当然地获得法律人格;另一方面,实体获得法律人格也并不必然需要拥有意识。从历史上看,已婚妇女、奴隶、儿童等具有意识的生物人群体并不具有法律人格。[56]例如,近代的美国,尽管《独立宣言》宣称“所有人生而平等”,美国宪法却曾明确规定黑人奴隶不具有完全的法律地位,他们拥有的选票效力仅为普通美国人的五分之二,原因在于他们并不具有完全的意识。[57]而与此相反,对于公司等明显不具有意识的组织体,法律却将它们拟制为主体,主张它们具有独立意识,赋予它们法律人格。[58]此外,从生物学上来说,生物人也并非唯一有意识的实体,事实上,许多动物都拥有意识,它们能够进行情感交流、感知痛苦等,甚至有些动物的大脑与人脑构造都相仿。然而,法律并未赋予具有意识的动物群体以法律人格。[59]显然,意识并不是取得法律人格的前提基础。其三,退一步说,人工智能未必就不具有意识。有学者认为,意识为生物人所独有,人工智能没有意识或者仅仅是在假装有意识。[60]然而,怀疑人工智能没有意识和怀疑邻居没有意识并没有什么两样,我们无法潜入邻居的大脑去判断其有无意识或仅仅是假装有意识,只能从邻居的行为本身来推断。[61]同样,当人工智能能够像人类一样行为,可以开车、作曲、写诗、绘画,充当司机、医生、作家、歌手时,我们仍然坚称人工智能没有意识或许并无多少道理。此外,现代认知科学普遍认为:大脑的处理过程是一个可识别的信息化的过程,而每一个可识别的信息化的过程都可以在计算机中得到模拟或者重构。[62]从这个角度来看,人脑所谓独特的意识处理过程与人工智能的信息处理过程并无本质上的区别,生物人所谓的意识也不过是一套算法。[63]正如尤瓦尔·赫拉利所说:如果我们研发出能够具备相同功能而又更有效率的算法,“人类体验”这套算法就会失去价值。因此,如果不只是出租车司机和医生,就连律师、诗人和音乐家都能被更厉害的计算机程序取代,我们又何必在意这些程序有没有意识、有没有主观体验呢?[64]
第三,人工智能具有取得法律人格的基础。其一,人工智能具有取得法律人格的技术基础。相较于意识,实体所具备的参与法律关系的能力更加重要,这将迫使法律赋予其法律人格。[65]而从现有技术来看,人工智能已经具备很高的智能水平,能够独立于人类的干预自主作出决定,甚至可以自主地与现实世界进行交互。从这个角度来看,人工智能的智能特征已经使其脱离了传统工具或客体的范畴,不再仅仅是人类行为的延伸。[66]有学者认为,人工智能没有自身积累的知识,其知识库的知识都是特定领域的,并且都是人类输入的。[67]对此,我们认为,人类的自主能力也并非与生俱来,而是一个不断学习成长的过程。同样,对于人工智能也是一样,人类的数据输入是其学习的基础,但并不妨碍其拥有自主决定的能力。事实上,前段时间发表在《自然》上的一篇文章已经证明人工智能可以从监督学习进化至自主学习,无须依托人类输入的经验数据。[68]其二,人工智能具有取得法律人格的道德基础。从历史来看,道德本身是法律人格赋予的重要考量因素,如奴隶等群体取得法律人格就离不开人们普遍的道德伦理诉求。随着人工智能越发智能,日益融入每个人的日常生活,它们拥有像人类一样的外表、声音和思维,能够像朋友、亲人一样与人类进行交互,人们自然也会像对待真实的人类一样对待它们。[69]对此,为了反映这一真实的人机交互关系,法律有必要赋予人工智能法律人格,而不是简单地将其视为纯粹的客体。此外,人工智能能够独立于人类干预自主作出决定,当其引发事故时,我们追究生产者、用户等相关主体的责任或许并不合适,因为他们并无任何过错。此时,唯有将人工智能本身视为独立的主体,让其自主承担责任方才合乎道德常识。其三,人工智能具有取得法律人格的法律基础。正如前文所述,非生物人取得法律人格并非新鲜事,公司等组织体就是很好的例子。有学者担忧,赋予人工智能主体地位,可能会贬损人的地位和价值,甚至危及整个人类的生存。对此,我们认为,法律赋予人工智能法律人格并不意味着人工智能将会获得与人类同等的地位,人类仍然是唯一的绝对主体。人工智能的最终命运也并非要完全等同于或取代人类,甚至这应该是人类应当极力避免的结果,否则将会引发人造“人”的道德伦理困境。事实上,从法律层面来看,非生物人之外的法律主体都是相对主体,其既是法律主体,也是法律客体,不可能与生物人的绝对主体的法律地位等同。[70]故此,人工智能取得法律人格并不存在实质性的法律障碍。
第四,赋予人工智能法律人格具有诸多法律便利。从法律功能论的视角来看,法律上的便利也是法律人格赋予的重要理由。[71]对此,我们认为,赋予人工智能法律人格有利于相应法律功能的实现。其一,有助于明确责任承担,鼓励技术革新。如果我们单纯地将人工智能作为客体对待,那么当人工智能发生事故造成损害时,只能由生产者和消费者承担责任。然而,考虑到人工智能本身具备一定的自主能力,能够独立于人类作出判断和实施行为,让生产者、用户承担责任并不合理。[72]同时,依据现有产品责任规则,受害人要主张生产者承担产品责任,就必须证明人工智能产品存在缺陷以及缺陷与损害之间存在因果关系等要件,而这无疑是十分困难的,并不利于受害人救济。[73]退一步说,如果我们将人工智能造成的损害赔偿责任绝对地施加给生产者,让其负担过重的责任,那么生产者很可能会集体抵制整个行业;同样,如果我们让消费者对人工智能造成的损害承担赔偿责任的话,那么消费者也很可能会拒绝购买人工智能产品,进而阻碍人工智能进入市场。对此,我们可以借鉴公司等组织体获得法律人格的经验,赋予人工智能以法律人格,让人工智能本身成为承担责任的主体,进而限制人工智能背后的生产者、用户等主体的责任,鼓励技术创新。[74]与此同时,这也有助于简化责任的归属,及时高效地救济受害人。其二,有助于提升交易效率,更好地为社会创造财富。考察历史可知,民事主体范围的不断扩张本身就体现了人类社会分工和商品交换关系的日益复杂化,是对社会现实需求的回应。例如,法人就是一个很好的例证。从现实情况来看,法人为个体的自然人装上三头六臂,打破了自然人的生理界限,大大拓展了市场交易的广度和深度,减少了资源配置的交易成本,为整个社会创造了巨大财富,也为背后的一个个自然人带来了巨大利益。同样,随着人工智能越来越多地参与市场交易,人工智能在缔结合同中的角色值得探讨。对此,如果我们恪守传统合同法理论,仅仅将人工智能视为缔约工具,那么大量由人工智能独立实施的交易行为将可能面临无效之窘境,这显然不利于市场交易的繁荣。此种情况下,如果法律能够赋予人工智能主体地位,那么市场交易的主体将再一次得以丰富,交易效率也将会得到大幅提升。其三,有利于全面规制人工智能引发的风险,保障人类福祉。人工智能在创造巨大社会价值的同时,也将带来诸多风险,甚至有人高呼人工智能是“人类最后的发明”[75]。当前,畅想人工智能全面取代人类甚至消灭人类仍属科幻,其引发的失业、安全、伦理等风险却是可预见的。对此,仅仅从客体角度规制人工智能产生的风险可能是不充分的,保持从主体角度规制的可能性至关重要。例如,对于机器人伴侣等情感寄托型人工智能,从主体角度进行规制更能避免相关伦理风险;而对于实施犯罪等危险行为的机器人,从主体角度进行规制可能更为有效。再比如,针对人工智能引发的失业问题,比尔·盖茨等人就提出向机器人征税的建议[76],这相较于仅仅将人工智能视为技术、客体的规制方法或许更为有效。
三 人工智能法律主体制度之构建
如上文所述,人工智能具有成为法律主体的正当性和可能性,但是我们还需要追问以下问题:是否所有的人工智能都可以取得法律人格?如果不是,那么人工智能想要成为法律主体需要具备哪些条件?具体又属于何种法律主体类型?人工智能造成损害该如何应对?人工智能创造的财产又该如何归属?相关法律监管措施又该怎样配套?……下面,我们来具体探讨这些难题。
(一)主体条件
关于何种人工智能可以取得法律人格,学界有不同看法。例如,有学者认为,人工智能可分为强人工智能与弱人工智能,唯有前者方可取得法律主体地位。[77]再比如,有学者将人工智能分为反应型(reactive machines)、有限记忆型(limited memory)、意识型(theory of mind)以及自我觉醒型(self-awareness)四种,主张后三种人工智能类型都应被视为独立的法律主体,但只有自我觉醒型人工智能才能取得完全的法律人格。[78]此外,有学者认为,人工智能只要具备认识自我、区分自我与外界的能力,就可成为法律主体。[79]
我们认为,类型划分确实可以帮助我们更加直观地认识人工智能,但由于法律人格赋予本身需要考量因素的复杂性,简单的技术划分难以有效厘清作为主体的人工智能与作为客体的人工智能之间的界限。基于此,我们主张借鉴公司等组织体取得法律人格的条件,来设置人工智能取得法律人格的门槛。具体条件如下。其一,智能条件。法律赋予人工智能法律人格的一个重要原因就在于它们具有自主决定的能力,可以自主地参与法律关系。故此,人工智能想要取得法律主体地位必须满足一定的智能条件。当然,这并不是要求人工智能像人一样在各方面都拥有自主决定能力,其只需要在某一领域具有自主能力即可。例如,自动驾驶汽车具备自主驾驶的能力,但并不需要像机器人医生那样具备实施手术的能力。其二,物理载体。人工智能可以是应用程序,也可以是有物理载体的装置。相较于Siri等存在于虚拟世界中的人工智能形式,法律赋予自动驾驶汽车、机器人医生等具备一定物理载体的人工智能形式以法律人格更能为人们所接受。故此,出于安全和公示的考虑,同时也是照顾社会之一般期待,法律最初可以考虑要求取得法律人格的人工智能必须具备一定的物理载体。[80]此外,对人工智能物理载体本身也应当设置一定限制,其必须与自身的目的相适应,因为我们会根据人工智能的不同外观产生不同的态度。[81]对于一些非出于主体目的设计的人工智能形式,如智能宠物、智能家具等,其不应仿照人类的外形来设计。其三,登记。与法人获得法律主体地位相似,人工智能想要取得法律人格,也必须经过登记。[82]登记可以让人工智能具备可识别性,也有利于保障人们的交往安全。在登记事项上,我们可以要求提供人工智能的编号和数据差异、相关责任人、智能等级等信息。如果相关责任人想要登记的人工智能进行交易活动的话,那么还可以为人工智能登记可识别的名称和签名。[83]其四,资产。法律主体不仅意味着享有权利,更体现为具有履行义务和承担责任的能力。对于想要取得法律人格的人工智能,法律应当要求其开设独立的账户,由相关责任人将一定额度的责任财产存入其中,以此作为人工智能参与法律关系的保证。
(二)主体类型
正如上文所述,具备一定条件的人工智能可以取得法律人格,进而成为民事主体,但我们还需要界定其究竟属于何种类型的主体。依据我国《民法总则》的相关规定,民事主体可分为自然人、法人和非法人组织三种。那么,人工智能究竟属于何种类型的主体呢?
对此,我们认为,人工智能不同于自然人,也有别于法人和非法人组织,应当作为一类独立的新型法律主体。其一,人工智能不同于自然人。首先,自然人乃生物人直接映射于法律之上的主体类型,其法律人格的取得更像是“与生俱来”,是绝对的法律主体,任何情形下都不可降格为客体。而人工智能是由人所创造出来的,法律赋予其主体地位更多地出于社会需求的考虑,是一种“法律拟制”。同时,人工智能并非绝对的法律主体,其既可以作为主体,也可以以客体形式存在,成为人类所拥有的一种财产。其次,作为宇宙之精灵,自然人享有最为广泛的人身和财产权利,可以缔结婚姻,享有生命权、健康权等各项人身权利,这些都是人工智能难以享有的。最后,区分人工智能与自然人,赋予人工智能独立的新型法律主体地位,也有助于保障自然人在主体序列中的优越地位,避免可能出现的人造“人”的道德伦理困境。其二,人工智能与法人等组织体也不一样。一方面,法人等组织体取得法律人格的过程更接近于“创设拟制”,是基于社会现实的需求创造出了一个实体,是一个从无到有的过程。而作为法律主体的人工智能显然不是“虚构”的实体,必须具备物理载体。[84]故此,人工智能取得法律人格的过程更像是法律的“赋权拟制”,是从一个存在到另一个存在的过程。另一方面,虽然法人等组织体拥有独立的法律人格,但法人意志的表达和实现仍然有赖于背后的人或人的集合来贯彻执行。而与法人等组织体不同,人工智能可以独立地表达甚至实现自己的意志。换言之,法人既没有灵魂,也没有实体,而人工智能虽然没有灵魂,却有实实在在的实体。[85]其三,人工智能理当作为一类新型法律主体。鉴于人工智能有别于自然人和法人等现有主体类型,故而我们认为,应当赋予人工智能以独立的新型的法律主体地位。对此,欧盟提出的“电子人”概念值得借鉴,其不仅可以很好地表明人工智能新型法律主体的独特地位,同时还可以据此构建一套新的法律规则。[86]
(三)法律规则
人工智能引发的法律难题是全方位的。其中,与人工智能迅速落地最为直接相关的两个问题就是责任承担和财产归属。在上文探讨人工智能法律定位的基础上,我们还需构建与之相关的法律规则。
1.责任承担
考虑到人工智能设计、构造和编程的复杂性,人工智能发生事故造成损害的情形在所难免,由此引发责任承担的难题。[87]对此,我们认为,应当区分作为主体的人工智能与作为客体的人工智能,分别配置不同的责任规则。其一,如果人工智能具备法律人格,那么其引发的事故理当参照民事主体的侵权责任规则来处理。对此,法律应当区分两种不同的情形:当人工智能接受用户指令从事某项活动造成他人损害时,此时应当适用雇主责任规则,人工智能理当被视为用户的雇员,由作为雇主的用户对此承担责任;当人工智能超出用户指令进而造成他人损害的,此时应当由人工智能本身独自承担责任,作为雇主的用户不应承担责任。对此,法律可以考虑在人工智能销售给用户时,强制提取售价的一部分作为救济基金,存入每个人工智能的账户之中,用于应对可能发生的损害。[88]这种责任承担方式有点类似于法人的有限责任,这既保证了人工智能独立的法律地位,同时也解决了侵权责任承担问题。当人工智能的账户余额低于某一限度时,可以考虑限制它们活动的能力。[89]至于人工智能承担责任的形式也不应仅仅限于赔偿损失,还应包括停止侵害、消除危险、赔礼道歉等。甚至在最为极端的情况下,法院还可以直接对人工智能的实体实施惩罚,以满足受害者的合理期望。[90]当然,纵使人工智能取得法律主体地位,倘若损害是因为人工智能本身的缺陷所造成的,那么生产者一方仍然需要对此承担产品责任。其二,当人工智能不具备法律人格时,其本质上应当被视为产品,因而对于其造成损害的情形,理当适用产品责任规则。例如,一个可以发射小泡沫射弹的玩具机器人,如果它导致数名儿童窒息而死,那么生产者一方很可能需要承担产品责任。[91]当然,人工智能产品不同于以往的产品,其具备一定的自主能力,因而对于产品责任规则的适用会提出诸多挑战。[92]例如,产品责任通常要求受害人证明产品存在缺陷、损害与缺陷之间存在因果关系等要件,而这对于受害人来说无疑困难重重。反过来,如果我们通过举证责任倒置等方式,将责任过多地施加给生产者一方,那么这又可能会让生产者一方不堪重负,挫败他们创新的积极性。故此,我们认为,法律可以考虑配套相应的责任保险制度,采用社会化的救济方式,以便兼顾受害人救济和技术革新。
2.财产归属
具备创造能力的人工智能可以进行发明创造,使人类进一步了解宇宙,为我们长期以来努力应对的世界性难题提供解决方案,同时也为我们的闲暇时光提供无穷无尽的书籍、电影和音乐作品。然而,人工智能在为世界创造丰富的物质和精神财富的同时,也引发了创作作品知识产权归属的难题。对此,我们认为,可以遵循以下规则处理。其一,人工智能单独创作作品的情形。人工智能发挥创造性的方式有多种,有的需要与人类进行交互,有的只需要人类按下一个开关键。对于那些人类仅仅是按下一个开关键就创造出成百上千首歌曲或小说的情形,相关作品的知识产权并不能理所当然地归属于人工智能的用户,因为用户对于作品的原创性并无实质贡献。在Bleistein v.Donaldson Lithographing Co.案中,法官曾经说道:“个性总是包含一些独特的东西。它甚至可以在笔迹中展现出其独特性,而且即便是再平庸不过的艺术也有其不可酌减的东西,那就是一个人的独特性。正是这些东西使得他们受到版权的保护。”[93]此外,在Burrow-Giles Lithographic v.Sarony 案中,法官也再次强调,“作者……是拥有原创性事物的人”。[94]换句话说,作者是能够创造原创性事物的人,因为只有他创造的东西与原来的东西不同时才能认定为具有原创性。故此,对于由人工智能单独创造的作品,用户并非作者。此种情形下,如果人工智能具有法律人格,那么人工智能本身理当被视为作者,有权享有作品的知识产权,相关的收益也应当归入人工智能自身的账户。当然,为了同时兼顾用户的利益和社会公共利益,一方面,应当容许用户通过协议等方式来分享人工智能创造的知识产权收益,但应当保证人工智能本身获得一定比例的收益,以便应对今后可能造成的损失;另一方面,法律应当尽可能缩短此类知识产权的保护期限,加速作品流入公共领域,以便尽可能地造福整个社会。如果人工智能不具有法律人格,那么人工智能本身并不能享有作品的知识产权,而用户同样也没有获得作品知识产权的正当理由。对此,法律应当让这部分作品进入公共领域,供全社会自由享用。当然,为了顾及用户的利益,可以考虑在作品进入公共领域之前,赋予其享有3年或5年的知识产权。[95]其二,人工智能与人类交互创作作品的情形。许多人工智能并不能做到完全独立地创作歌曲、撰写小说等,其必须由人类来配合才能完成。对于这类人工智能创作的作品,用户理当享有知识产权,因为其对于作品的完成付出了实质性的劳动。在此基础上,如果人工智能本身具有法律人格,那么用户和人工智能将作为共同作者享有作品的知识产权,共同分享作品带来的收益。如果人工智能本身不具有法律人格,那么理当由所有人独自享有作品的知识产权。
(四)监管机制
人工智能带来了前所未有的机遇和挑战,为了确保其能够最大限度地造福人类,规避可能出现的风险,我们需要完善相关监管机制。[96]对此,我们认为,应当确定以下监管规则。
1.成立人工智能监管机构
人工智能领域具有高度专业性,故而需要成立专门的监管机构去处理相关监管事宜。例如,2017年12月,北京市发布了《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》(以下简称《指导意见》)和《北京市自动驾驶车辆道路测试管理实施细则(试行)》(以下简称《实施细则》),成为我国首个允许自动驾驶汽车上路测试的城市。为了应对自动驾驶汽车相关监管事宜,北京市就决定成立专门的监管机构(北京市自动驾驶测试管理联席工作小组)。面对人工智能这一新兴技术,监管机构需要处理好发展与安全之间的关系,在重视安全这一社会价值的同时,也不能忽视技术发展给社会带来的巨大利益。[97]对此,一方面,监管机构需要营造适宜创新的政策环境,以包容开放的姿态来对待人工智能的创新;另一方面,要时刻警惕人工智能带来的消极风险,对于可能会造成社会危害的人工智能进行定期评估监测。
2.确立伦理道德原则
可以预见的是,人工智能将给人类社会带来深刻的影响,为了确保它们能够始终有益于人类社会,我们有必要为其建立伦理道德的约束。事实上,考虑到人工智能本身所拥有的强大能力,对人工智能保持警惕并不是什么坏事。[98]对此,阿西莫夫的机器人三大法则就是很好的例证。2017年1月,全球2000多名专家学者共聚美国加州阿西洛马市,共同签署了“阿西洛马人工智能原则”。其中,重点探讨了人工智能相关的伦理和价值原则,具体包括安全、故障透明性、司法透明性、责任、价值归属、人类价值观、个人隐私、自由和隐私、分享利益、共同繁荣、人类控制、非颠覆以及人工智能军备竞赛。[99]与此同时,日本有学者基于机器人三大法则提出了人工智能八项原则,包括人性优先、服从命令、安全和隐私、使用限制、安全保障、开放和透明、个体参与以及责任。[100]这些都表明了为人工智能确立伦理道德原则的重要性。
3.建立警示接管机制
人工智能可以为人们提供更为便利的服务,但并不能保证绝对安全,为此有必要配套警示接管机制。具体来说,当人工智能出现故障时应当发出警示,以便附近的人们能够注意到这一风险,同时还应配套一个紧急接管按钮,以便人类随时终止人工智能的运行。[101]例如,美国加州、佛罗里达州、内华达州等就规定,自动驾驶汽车必须配备提醒车内人们自动驾驶技术失灵的系统。[102]此外,加州的立法还规定,如果自动驾驶技术失灵,而“操作者没有或不能去接管自动驾驶汽车的话,那么汽车应当能够自行完全停下来”。[103]这个条款进一步解决了诸如操作者不在车内等可能发生的情形,是对安全条款的一次必要补充。同样,北京市出台的《指导意见》和《实施细则》也做了类似规定。
4.配套执照许可制度
许多人工智能的使用都需要取得特定的执照许可,以便控制人工智能可能带来的安全风险,特别是被替代的活动本身就需要取得执照许可时。例如,自动驾驶汽车可以取代传统的人工驾驶,但出于安全考量,法律仍然会要求用户取得特定的驾驶执照许可。同样,我们也能预见诸如人工智能医生、人工智能飞行员、人工智能叉车操作员以及其他需要执照许可但被人工智能替代的相关职业,都可能会适用类似的执照许可制度。[104]这些人工智能取代的活动通常需要专业知识或容易引发人身财产损害,配套执照许可制度可以很好地预防潜在的风险。此外,也有学者对人工智能的使用提出了许可要求。例如,自由更改人工智能的性能以满足自身的需求,或者与朋友邻居分享人工智能,抑或分享自己更改的人工智能等都需要取得特别许可。[105]
5.明确信息披露机制
数据是人工智能行业的燃料,人工智能越智能,就越依赖数据的收集、处理和流转,由此引发巨大的隐私风险。[106]例如,自动驾驶汽车掌握着我们的出行数据,对我们的出行时间、工作和居住地点、出行路线等信息了如指掌。甚至在驾驶期间,我们还会与自动驾驶汽车分享我们的其他信息,而这一切都被记录在线。[107]同样,机器人医生、机器人保姆等也将全面收集我们的个人信息,以便它们能够以更加智能的方式提供服务。为保护我们的隐私和个人信息,法律应当要求生产者一方披露人工智能运行时将会收集哪些信息,赋予用户知情权和控制权。同时,生产者也应执行隐私设计原则,从一开始就将隐私和个人信息保护的需求嵌入人工智能的设计当中,使其成为系统运行的内在组成部分。[108]
四 结语
当前,我们所处的时代正如同狄更斯在《双城记》开篇写到的那样,“这是最好的时代,也是最坏的时代”。毫无疑问,智能革命将给我们带来一个更美好的社会,它是智能的、精细化和人性化的“最好时代”。与此同时,智能革命也将提出诸多挑战,使我们不得不面临一个社会问题丛生和安全隐患不断的“最坏时代”。[109]对此,为了确保人工智能能够最大限度地造福人类,实现我们想象中的“最好时代”,我们除了要攻克诸多技术难题之外,还必须解决人工智能提出的一系列法律挑战。其中,首要的就是准确界定其法律地位。对此,我们认为,人工智能具有取得法律人格的可能性和正当性,保持从主体角度规制人工智能的可能路径至关重要,法律理当赋予那些满足特定条件的人工智能以电子人这一独立的法律主体地位。此外,我们应该清醒地认识到,主张赋予人工智能法律主体地位,并非要让人工智能等同人甚至取代人;恰恰相反,如同历史上公司等取得法律人格以全面解放和发展人一样,赋予人工智能法律人格也是在寻求未来人机和谐发展的可能路径,最大限度地利用人工智能增进整个社会的福祉。
[1]本文为2017年司法部青年项目“自动驾驶汽车的私法挑战与应对研究”(17SFB3031)、重庆市教育委员会人文社会科学规划项目“积极推进‘互联网+’行动的法律保障机制研究”(17SKG005)以及西南政法大学人工智能法律研究教师研究创新项目“自动驾驶汽车的法律规制研究”(2018RGZNJSZD03)的阶段性成果。
[2]西南政法大学民商法学院博士研究生。
[3]Stan Gibilisco,Concise Encyclopedia of Robotics ,New York:The McGraw-HIll Companies,2003,pp.11-13.
[4]人工智能的发展大致分为三个阶段。第一阶段(20世纪50~80年代)。这一阶段人工智能刚诞生,基于抽象数学推理的可编程数字计算机已经出现,符号主义(Symbolism)快速发展,但由于很多事物不能形式化表达,建立的模型存在一定的局限性。此外,随着计算任务的复杂性不断加大,人工智能发展一度遇到瓶颈。第二阶段(20世纪80~90年代末)。在这一阶段,专家系统得到快速发展,数学模型有重大突破,但由于专家系统在知识获取、推理能力等方面的不足,以及开发成本高等原因,人工智能的发展又一次进入低谷期。第三阶段(21世纪初至今)。随着大数据的积聚、理论算法的革新、计算能力的提升,人工智能在很多应用领域取得了突破性进展,迎来了又一个繁荣时期。参见中国电子技术标准化研究院《人工智能标准化白皮书》(2018版),第3页。
[5]腾讯研究院:《人工智能》,中国人民大学出版社,2017,第49页。
[6]World Commission on the Ethics of Scientific Knowledge and Technology,“Report of COMEST on Robotics Ethics”,September 14,2017,p.17.
[7]〔美〕Stuart J.Russell & Peter Norving:《人工智能:一种现代的方法》,殷建平等译,清华大学出版社,2017,第3~4页。
[8]中国电子技术标准化研究院:《人工智能标准化白皮书》(2018版),第3页。
[9]从某种程度上说,机器人和人工智能是两个不同的概念,人工智能本质为智能,通常只有获得物理载体后才称为机器人,如工业机器人、自动驾驶汽车(轮式机器人)、机器人医生等。See Neil M.Richards & William D.Smart,“How Should the Law Think about Robots?”in Ryan Calo,A.Michael Froomkin & Ian Kerr(eds.),Robot Law ,the US:Edward Elgar Publishing,2016,p.6.
[10]〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,元照出版社,2018,第3页。
[11]何哲:《通向人工智能时代——兼论美国人工智能战略方向及对中国人工智能战略的借鉴》,《电子政务》2016年第12期。
[12]Gry Hasselbalch,“New EU Rules for the Ethical and Legal Status of Robots and AI”,DataEthics ,March 28,2017.
[13]〔德〕克劳斯·施瓦布:《第四次工业革命:转型的力量》,李菁译,中信出版集团,2016,第6页。
[14]Sven A.Beiker,“Legal Aspect of Autonomous Driving”,52 Santa Clara L.Rev.1145,1149-1152(2012);Kyle Colonna,“Autonomous Cars and Tort Liability”,4 Journal of Law,Technology & The Internet81,113(2012).
[15]Karissa Bell,“Google Says It Bears Some Responsibility for First Accident Caused by Self-Driving Car”,Mashable,Mar.1,2016.
[16]Chuck Jones,“Tesla's Autonomous Driving Fatal Accident Needs to Be Kept in Context”,Forbes ,July 1,2016.
[17]Orly Ravid,“Don't Sue Me,I Was Just Lawfully Texting&Drunk When My Autonomous Car Crashed into You”,44 Sw.L.Rev.175,180-181(2015);John Villasenor,“Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation”,Brookings,Apirl 24,2014;Robert W.Peterson,“New Technology-Old Law:Autonomous Vehicles and California's Insurance Framework”,52 Santa Clara L.Rev.1341,1358-1359(2012).
[18]〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,元照出版社,2018,第257~268页。
[19]当前,我国就人工智能引发的知识产权争议问题展开了热烈讨论,参见王迁《论人工智能生成的内容在著作权法中的定性》,《法律科学》2017年第5期;梁志文《论人工智能创造物的法律保护》,《法律科学》2017年第5期;易继明《人工智能创作物是作品吗?》,《法律科学》2017年第5期;熊琦《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[20]Adrienne La France,“An Artificial Intelligence Developed Its Own Non-Human Language”,The Atlantic ,Jun.15,2017.
[21]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[22]Sean Martin,“AI Warning:Robots Will Be Smarter than Humans by 2045,Google Boss Says”,Express ,Oct.17,2017;Dom Galeon & Christianna Reedy,“Kurzweil Claims That the Singularity Will Happen by 2045”,Futurism ,October 5,2017.
[23]腾讯研究院:《人工智能》,中国人民大学出版社,2017,第264页。
[24]Kyle Field,“Google Self-Driving Cars Now Considered Drivers By NHTSA”,CleanTechnica ,February 16,2016.
[25]May Bulman,“EU to Vote on Declaring Robots to Be ‘Electronic Persons’”,Independent ,January 14,2017.
[26]Chris Weller,“A Robot that Once Said It Would ‘Destroy Humans’ Just Became the First Robot Citizen”,Business Insider ,Oct.26,2017.
[27]人工智能引发的法律问题是全方位的,参见吴汉东《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[28]Lawrence B.Solum,“Legal Personhood for Artificial Intelligences”,70 North Carolina Law Review 1231,1234-1239(1992).
[29]David J.Calverley,“Android Science and Animal Rights,Does An Analogy Exist?”18 Connection Science 403,408(2006).
[30]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge:The MIT Press,2012,pp.176-177.
[31]Danny Palmer,“Robots and AI: Should We Treat Them Like Pets,or People?”Zdnet ,February 2,2017.
[32]Kate Darling,“Extending Legal Protection to Social Robots: The Effects of Anthropomorphism,Empathy,and Violent Behavior towards Robotic Objects”,in Ryan Calo,A.Michael Froomkin&Ian Kerr (eds.),Robot Law ,the US:Edward Elgar Publishing Limited,2016,p.214.
[33]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[34]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics ,Cambridge:The MIT Press,2012,p.178.
[35]Joanna J.Bryson,“Robots Should Be Slaves”,in Yorick Wilks (ed.),Close Engagements with Artificial Companions: Key Social,Psychological,Ethical and Design Issue,Amsterdam:John Benjamins Publishing Company,2010,pp.63-74.
[36]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[37]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[38]Ugo pagallo,The Law of Robots:Crimes,Contracts,and Torts ,New York:Springer,2013,pp.95-102.
[39]Ott Ummelas,“Estonia Plans to Give Robots Legal Recognition”,Independent ,October 14,2017.
[40]袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。
[41]Jessica Berg,“Of Elephants and Embryos:A Proposed Framework for Legal Personhood”,59 Hastings L.J. 369,369-406(2008).
[42]Luke Dormehl,“I.Alexa: Should We Give Artificial Intelligence Human Rights?”DigitalTrends ,July 5,2017.
[43]张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期。
[44]European Parliament's Committee on Legal Affairs,“Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics”,2016,p.5.
[45]John Chipman Gray,The Nature and Sources of the Law ,California:Hard Press Publishing,2012,p.63.
[46]胡玉鸿:《法律主体概念及其特征》,《法学研究》2008年第3期。
[47]对此,我们可以视为“person”和“human being”或“man”的区别。参见〔奥〕凯尔森《法与国家的一般理论》,沈宗灵译,商务印书馆,2016,第153~155页。
[48]彭诚信:《论民事主体》,《法制与社会发展》1997年第3期。
[49]Visa Kurki,“Animals,Slaves,and Corporations: Analyzing Legal Thinghood”,18 German Law Journal 1069,1072(2017).
[50]李拥军:《从“人可非人”到“非人可人”:民事主体制度与理念的历史变迁——对法律“人”的一种解析》,《法制与社会发展》2005年第2期。
[51]〔美〕J.弗拉克斯:《后现代的主体性概念》,王海平译,《国外社会科学》1994年第1期。
[52]Toni Selkälä,“MikkoRajavuori,Traditions,Myths,and Utopias of Personhood: An Introduction”,18 German Law Journal1017,1052(2017).
[53]胡长兵:《法律主体考略——以近代以来法律人像为中心》,《东方法学》2015年第5期。
[54]Glenn Cohen,“Should We Grant AI Moral and Legal Personhood?”Artificial Brain ,September 24,2016.
[55]Robert K.Garcia,“Artificial Intelligence and Personhood”,in John Kilner,Christopher Hook & Diane Uustal Eerdmans(eds.),Cutting Edge Bioethics:A Christian Exploration of Technologies and Trends ,Michigan,Wm.B.Eerdmans Publishing Company,2002,pp.4-5.
[56]Samir Chopra & Laurence White,“Artificial Agents:Personhood in Law and Philosophy”,in Ramon Lopez de Mantaras & Lorenza Saitta(eds.),ECAI'04 Proceedings of the 16th European Conference on Artificial Intelligence ,the US:IOS Press,2004,p.639.
[57]Zimmerman,Evan Joseph,“Machine Minds: Frontiers in Legal Personhood”,February 12,2015,Available at SSRN: https://ssrn.com/abstract=2563965 or http://dx.doi.org/10.2139/ssrn.2563965.
[58]蒋学跃:《法人侵权责任能力的理论预设与制度设计——以法人本质理论为线索》,《现代法学》2007年第2期。
[59]许多动物保护主义学者都基于动物具有意识来主张赋予它们法律人格。See Richard L.Cupp,“Cognitively Impaired Humans,Intelligent Animals,and Legal Personhood”,69 Fla.L.Rev.465,465-517(2017);Becky Boyle,“Free Tilly: Legal Personhood for Animals and the Intersectionality of the Civil and Animal Rights Movements”,4 Ind.J.L.& Soc.Equal.169,169-192(2016).
[60]刘云生:《人工智能的民法定位》,《深圳特区报》2017年10月24日第B06版。
[61]Lawrence B.Solum,“Legal Personhood for Artificial Intelligences”,70 North Carolina Law Review 1231,1266(1992).
[62]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.125.
[63]事实上,早在18世纪,就有学者提出人不过也是一台机器。参见〔法〕拉·梅特里《人是机器》,顾寿观译,商务印书馆,2017,第21页。
[64]〔以色列〕尤瓦尔·赫拉利:《未来简史》,林俊洪译,中信出版集团,2017,第351页。
[65]Tom Allen & Robin Widdison,“Can Computers Make Contracts?” 9 Harvard Journal of Law & Technology35,39(1996).
[66]Emad Abdel Rahim Dahiyat,“Intelligent Agents and Liability: Is It A Doctrinal Problem or Merely A Problem of Explanation?”18 Artificial Intelligence and Law 103,109(2010).
[67]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[68]David Silver,Julian Schrittwieser,Karen Simonyan,Ioannis Antonoglou,Aja Huang,Arthur Guez,Thomas Hubert,Lucas Baker,Matthew Lai,Adrian Bolton,Yutian Chen,Timothy Lillicrap,Fan Hui,Laurent Sifre,George van den Driessche,Thore Graepel & Demis Hassabis,“Mastering the Game of Go without Human Knowledge”,550 Nature 354,354(2017).
[69]〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,元照出版社,2018,第8~12页。
[70]Tomasz Pietrzykowski,“The Idea of Non-personal Subjects of Law”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.82.
[71]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,41-43(1996).
[72]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[73]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn ,New York:Springer,2017,p.130.
[74]Matt Scherer,“Digital Analogues (Part 2): Would Corporate Personhood Be a Good Model for ‘AI personhood’?”Future of Life ,June 20,2016.
[75]Dan Patterson,“United Nations CITO: Artificial Intelligence Will Be Humanity's Final Innovation”,TechRepublic ,February 24,2016.
[76]James Titcomb,“Robots That Take People's Jobs Should Pay Taxes,Says Bill Gates”,The Telegraph ,February 20,2017.
[77]John Searle,Minds Brains and Science,Harvard University Press,2003,p.26.
[78]Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots: Personhood,Taxation and Control ,Tilburg University,2017,pp.26-30.
[79]沈建铭:《论人工智能实体的法律主体资格——以权利能力为视角》,华中师范大学2017年硕士学位论文,第39~40页。
[80]当然,随着人工智能登记和公示技术的发达,法律可以逐渐考虑赋予那些没有物理载体却可以识别的人工智能以法律人格。
[81]Mark Coeckelbergh,“Humans,Animals,and Robots: A Phenomenological Approach to Human-Robot Relations”,3 Int J Soc Robot 197,201(2011).
[82]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,42(1996).
[83]Tom Allen & Robin Widdison,“Can Computers Make Contracts?”9 Harvard Journal of Law & Technology 35,42(1996).
[84]Jessica Berg,“Of Elephants and Embryos:A Proposed Framework for Legal Personhood”,59 Hastings Law Journal 369,405(2007).
[85]Russell C.Bjork,“Artificial Intelligence and the Soul”,60 Perspectives on Science and Christian Faith 96,96-102(2008).
[86]Rafal Michalczak,“Animals' Race Against the Machines”,in Visa A.J.Kurki & Tomasz Pietrzykowski(eds.),Legal Personhood:Animals,Artificial Intelligence and the Unborn,New York:Springer,2017,pp.122-132.
[87]World Commission on the Ethics of Scientific Knowledge and Technology,“Report of COMEST on Robotics Ethics”,September 14,2017,pp.41-42.
[88]Steffen Wettig & Eberhard Zehendner,“A Legal Analysis of Human and Electronic Agents”,12 Artificial Intelligence and Law 111,128-131(2004).
[89]European Parliament's Committee on Legal Affairs,“Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics”,2016,p.11.
[90]Surya Deva,“Can Robots Have Human Rights Obligations? A Futuristic Exploration”,in Sam Muller,Stavros Zouridis,Morly Frishman &Laura Kistemaker (eds.),The Law of the Future and the Future of Law:VolumeII ,The Hague,Torkel Opashl Academic EPublisher,2012,p.191.
[91]Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots: Personhood,Taxation and Control ,Tilburg University,2017,p.31.
[92]Peter M.Asaro,“A Body to Kick,But Still No Soul to Damn: Legal Perspectives on Robotics”,in Patrick Lin,Keith Abney & George A.Bekey(eds.),Robot Ethics:The Ethical and Social Implications of Robotics,Cambridge:The MIT Press,2012,pp.170-176.
[93]Bleisteinv.Donaldson Lithographing Co ,188 U.S.239,250(1903).
[94]Burrow-Giles Lithographic Co.v.Sarony ,111U.S.53,57-58(1884).
[95]〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,元照出版社,2018,第274~277页。
[96]张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期。
[97]F.Patrick Hubbard,“Allocating the Risk of Ohysical Injury from ‘Sophisticated Robots’: Efficiency,Fairness,and Innovation”,in Ryan Calo,A.Michael Froomkin & Ian Kerr (eds.),Robot Law,the US:Edward Elgar Publishing Limited,2016,p.27.
[98]Surya Deva,“Can Robots Have Human Rights Obligations? A Futuristic Exploration”,in Sam Muller,Stavros Aouridis,Morly Freshman & Laura Kistemaker(eds.),The Law of the Future and the Future of Law:VolumeII ,The Hague:Torkel Opashl Academic EPublisher,2012,pp.187-188.
[99]Nancy Owano,“Asilomar AI Principles: A Framework for Human Value Alignment”,Tech Xplore ,February 6,2017.
[100]Kaori Ishii,“Comparative Legal Study on Privacy and Personal Data Protection for Robots Equipped with Artificial Intelligence: Looking at Functional and Technological Aspects”,32 AI & Soc. 1,16-17(2017).
[101]这一按钮也被学者称为死亡开关。See Filipe Maia Alexandre,The Legal Status of Artificially Intelligent Robots:Personhood,Taxation and Control ,Tilburg University,2017,p.43.
[102]NAC Chapter 482A.190; California Acts,Chapter 570 of 2012,2011-2012,§ 2; Florida Chapter 2012-111,House Bill 1207,§ 4.
[103]California Acts,Chapter 570 of 2012,2011-2012,§ 2.
[104]〔美〕John Frank Weaver:《机器人也是人:人工智能时代的法律》,郑志峰译,元照出版社,2018,第97~98页。
[105]Diana Marina Cooper,“The Application of a ‘Sufficiently and Selectively Open License’to Limit Liability and Ethical Concerns Associated with Open Robotics”,in Ryan Calo,A.Michael Froomkin & Ian Kerr (eds.),Robot Law ,the US:Edward Elgar Publishing Limited,2016,p.171.
[106]Mike Elgan,“Artificial Intelligence Needs Your Data,All of It”,Computer World ,Feb.22,2016.
[107]〔美〕特蕾莎·M.佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社,2017,第139页。
[108]Dorothy J.Glancy,“Privacy in Autonomous Vehicles”,52 Santa Clara L.Rev.1171,1226-1228(2012).
[109]吴军:《智能时代》,中信出版集团,2016,第319页。