人工智能法学研究(2018年第2期/总第2期)
上QQ阅读APP看书,第一时间看更新

三 智能机器人致人损害承担民事责任的基本规则

研究智能机器人的民法地位,并非仅仅是要界定其民法的属性,更重要的是以此为准,确定其致人损害后应当承担的民事责任,进而对人工智能技术及其发展予以法律规制。智能机器人享有的人工类人格,既没有民事权利能力,也无民事行为能力和民事责任能力,因而无法使其承载民事权利和民事义务,也无法承担民事责任。研究智能机器人的民事责任,并非确定智能机器人承担的责任,而是研究设计、制造以及支配智能机器人的人的民事责任,并以此引导、规范人工智能技术的发展。

(一)智能机器人致人损害民事责任的研究意义与性质

一方面,智能机器人在社会生活中广泛使用,必定会出现造成他人损害的后果,这是在现实中研究智能机器人在使用时发生损害而产生民事责任的正当理由。另一方面,就长远的发展而言,须设置民事责任制度以限制智能机器人不利于人类的发展。人工智能的首要问题是安全问题,人工智能存在现代性的负面影响,因而有必要采取风险措施,给予方向行为和应用性的制度。[37]很多学者和专家都看到,人工智能的盲目发展,可能会造成人类无法控制的局面,构成人工智能技术发展的高风险。正像学者指出的那样,越来越多的学者、科技企业家以及未来学家认识到,更强大的人工智能形势可能会抗拒人类的一切监管措施,从而给人类带来灾难性甚至生存性的风险。我们应该十分小心地看待人工智能,笔者猜测人类下一个生存威胁恐怕就是人工智能。对于人工智能应当在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来。[38]明确智能机器人的民事责任,不仅可以对正常发展和利用智能机器人造成的损害后果予以救济,而且也能够规范人工智能技术的发展方向,防止人类利用人工智能技术以及智能机器人来损害人类自己。[39]

智能机器人的人工类人格不是法律意义上的人格,因而为智能机器人设置的民事责任就不是机器人的责任,而是智能机器人致人损害时的背后的人的责任。这种民事责任的性质,首先取决于智能机器人的类人格,即智能机器人的类人格不是人格,仍然是人工制造的产品。因此,智能机器人的民事责任就是当代侵权责任法的产品责任,而不是其他民事责任。即使现在已经具备了“公民身份”的索菲亚,如果其出现智能系统故障,伤害他人,难道是对索菲亚予以刑罚制裁,或者让它拿钱来承担赔偿责任吗?显然不是。因此,智能机器人造成损害要承担的民事责任,主要是产品责任,而不是人的责任。

确认智能机器人致人损害的民事责任是产品责任,能够满足上述规范智能机器人发展的两个要求,即救济损害和防范风险。一方面,对于现实的智能机器人造成的损害,只要是智能机器人存在设计缺陷或者制造缺陷,其生产者、设计者或者销售者就应当依照产品责任的法律规定,承担侵权损害赔偿责任。另一方面,智能机器人因其设计缺陷或者制造缺陷造成损害,要由设计者、生产者、销售者负责并承担赔偿责任,如果设计者、生产者对于智能机器人的人工智能系统未加以必要的风险控制,使人工智能技术发展到危害人类的程度,就会对其设计者、制造者或者销售者构成威慑,有效地防止人工智能技术发展的风险。如果是故意利用人工智能技术危害人类,则应对设计者、生产者、销售者予以刑法制裁,不过这不是本文讨论的范围。

(二)智能机器人致人损害的民事责任的具体规则

就目前情况看,很多人认为现有法律制度不能适应智能机器人的发展,无法对其造成的损害以及发展风险进行法律规制。在人工智能系统自带学习和适应能力的情况下,一旦人类失去对它的控制,人工智能就会成为不同于以往的公共危险的来源,因为以往的公共危险纯粹是人类行为的恶果。[40]笔者的看法则相反,对依据现行侵权责任制度解决智能机器人造成他人损害的责任承担,以及对机器人发展风险的控制充满信心。这正是将智能机器人的法律地位界定为类人格的基础,以及对其责任规制的方法适用产品责任规则的结论。正像学者所说,无人驾驶汽车是一种智能汽车,也可以称为轮式移动机器人。[41]自动驾驶汽车的引入,不太可能会对现有的产品责任产生影响,因为产品缺陷与人员伤亡能够归因于某个人或者其他法律实体。[42]因此,完全不必另行进行立法,不会因为出现了一个被人拟制的机器人“公民”,就急急忙忙去修改自然人的已有法定概念;也不会因为出现一个被拟制的民事主体,就去修改民法关于民事主体的基本理论。[43]以下对智能机器人之民事损害责任的具体相关规则解释与构想做简要阐述。

1.智能机器人的产品责任适用无过错责任

在现行侵权责任法确定责任归属的三个归责原则,即过错责任、过错推定责任和无过错责任中,无过错责任是最严苛的责任。产品责任就适用无过错责任,只要造成损害的产品存在缺陷,就应当承担损害赔偿责任,而不论产品的生产者、设计者、销售者有无过错。在产品责任中,可以说有缺陷、有损害就有责任。这种归责原因的核心,就是保障因缺陷产品造成的损害都能够得到救济,都能够让生产者、设计者、销售者承担责任,并且无法推翻。当类似于自动驾驶汽车这样的产品造成损害时,法律将可能出现的问题归结为以下几点:生产缺陷、信息缺陷以及不恰当的操作失误。这是因为,在无人驾驶汽车的情况下,人类对此没有控制,关键点就在于汽车是否达到了应当注意的标准。[44]在无过错责任的威慑下,人工智能技术以及智能机器人的设计者、生产者不得不尽最大的努力,防止在人工智能技术产品以及智能机器人的设计和制造中存在缺陷,避免造成人类的损害,甚至造成人类的灾难。

2.智能机器人致人损害产品责任的主体

按照侵权责任法的规定,产品责任的主体是生产者和销售者。不过,在人工智能机器人领域,由于人工智能是高科技发展的结果,具有极强的专业性,因此人工智能系统的设计者的影响在这类产品责任中会突出地表现出来,也成为责任主体。只有人工智能机器人的设计者和生产者合二为一,既是设计者也是生产者时,生产者的身份才足以承担全部责任。从总的规则设计上看,智能机器人造成损害,如果本身存在设计缺陷的,设计者就是责任人;存在制造缺陷的,责任主体是生产者。应当特别强调人工智能机器人设计者的责任,由于在机器人的设计、制造中,电脑系统本身特别复杂,非专业设计则无法控制其风险,因而设计者的责任更为重要。对于智能机器人可能打破预先设定的规则,大大超出其设计者的预期,人们一直担心赋予机器自主“思考”的能力,可能导致其能力违反所“给予”的规则,以人们意想不到的方式行为。[45]笔者认为,这仍然是设计缺陷,仍然应当由设计者承担缺陷的责任。

按照产品责任规则,产品责任的主体中也包括销售者,如果是因销售者的过错而使产品存在缺陷,销售者是应当承担最终责任的责任主体,如果其没有过错,则承担的是中间责任,承担责任之后,可以向生产者、设计者进行追偿。

在智能机器人造成损害的产品责任中,会存在另一类责任主体,就是攻击人工智能机器人智能系统的黑客。黑客攻击智能机器人的智能系统,使智能机器人无法按照设计程序进行工作,出现误差造成他人损害,黑客就是责任人。对这种情况,我国《侵权责任法》第44条明确规定,即产品责任的第三人责任:“因运输者、仓储者等第三人的过错使产品存在缺陷,造成他人损害的,产品的生产者销售者赔偿后,有权向第三人追偿。”黑客就是这种第三人,应该按照上述规则确定黑客的侵权责任。

还要特别强调智能机器人的使用人的责任。智能机器人在使用中造成他人损害,如果智能机器人没有缺陷,而是智能机器人的使用者由于操作错误所致,则使用人因其过错,应当适用《侵权责任法》第6条第1款的规定承担过错责任。

3.智能机器人产品责任的责任形态

在机器人造成他人损害的产品责任中,其主要的责任形态是不真正连带责任。这主要是《侵权责任法》第43条规定:“因产品存在缺陷造成损害的,被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。……产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。……因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。”在这样的规则中,只要加上了设计者作为责任主体,就可以完全适用于智能机器人致人损害的责任。

在黑客攻击智能机器人的人工智能系统造成损害时,应当适用《侵权责任法》第44条的规则,即变形的不真正连带责任,我把它称为先付责任,[46]对智能机器人造成损害承担产品责任,设计者、生产者和销售者首先承担中间责任,在承担了赔偿责任后,有权向黑客等第三人进行追偿,将最终责任归于黑客及其他第三人。

上述这些产品责任的基本规则,都适用于智能机器人造成损害的场合,只要根据智能机器人设计、制造和造成损害的特点加以适当调整即可。

4.智能机器人产品责任是否适用发展风险免责事由

发展风险原则是产品责任中的免责事由,一般认为智能机器人也适用该规则,即生产者能够证明产品投入生产时的科学技术水平尚不能发现的缺陷导致损害,生产者可以免除严格责任。对此,将智能机器人投放市场,生产者一方面要购买保险防止意外,加强测试以保障安全。另一方面,对于产品投入流通时的科学技术水平尚不能发现缺陷存在的,须严格履行跟踪观察义务,一旦发现缺陷,必须依照《侵权责任法》第46条规定,及时进行警示和召回,没有及时警示和召回而发生损害,仍然应当承担侵权责任。

可见,《侵权责任法》规定的产品责任制度,基本上适用于智能机器人造成损害和风险防控的需求。有人认为,当前阶段智能机器人的法律责任,适用产品责任没有问题,因为当前阶段的智能机器人在法律关系中是作为权利客体参与的,因而智能机器人无法独立承担责任。但是,在未来阶段智能机器人的法律责任,应当由其独立承担,因为未来阶段智能机器人一旦像法人一样被赋予法律人格,其可以作为法律关系主体享有权利,同时独立承担责任。当然,智能机器人独立承担责任和被法律人格拟制的法人承担责任的方式有所不同。[47]笔者不认同上述观点。笔者的论述基础在于,智能机器人无论发展到何种程度,它的法律地位都是人工类人格,而不可能取得自然人的自然人格,也不可能取得法人和非法人组织的拟制人格。在这一点上,以未来阶段的智能机器人会像法人一样被赋予法律人格作为论述的基础,得出智能机器人未来将独立承担责任的结论,由于论证的前提不可能实现,因而得出来的上述结论就不可能是正确的。

5.对智能机器人造成损害和风险防控的责任保险

智能机器人是当代人工智能技术发展的结晶,尽管具有很强的安全性,但仍难以彻底防止其出现社会风险,造成他人损害。因此,生产智能机器人必须进行投保,甚至要进行强制责任保险,以确保智能机器人投放市场后不会造成更大的社会危害。

首先,研究对智能机器人的保险,最重要的是像自动驾驶机动车那样,设置责任强制保险制度。其保险人不是使用人,而是生产者。一旦发生损害,受害人能够从强制保险获得最基本的赔偿。其次,对于强制保险责任赔偿不足的部分,智能机器人的生产者、设计者应当投保商业责任险,以备强制责任保险赔偿不足部分的赔偿责任由商业责任保险承担。有的认为,由生产者承担智能机器人的保险责任,有可能会挫伤智能机器人生产者发展人工智能技术的积极性;但是,如果将保险责任强制给消费者或者使用者,会严重抑制消费,同样会影响人工智能技术的发展。两相权衡,将人工智能机器人的保险责任分配给生产者,由生产者承担强制保险或者商业保险,具有更大的优势,能够更好地督促生产厂商改进技术,保障安全。如果事故最终判定是由存在缺陷的人工智能设备造成的,生产厂商可以从设备生产商那里获得赔偿,为了应付这一风险,法律应当规定生产商购买产品责任保险。[48]