一、研究背景
2022年11月,由美国OpenAI公司研发的ChatGPT横空出世,代表人工智能技术的发展进入到一个新阶段,其与历史上曾经出现的几次人工智能热潮相比,最大不同之处在于,其已不再仅仅停留在实验室中或仅为少数技术人员所接触,而是已经进入到商业应用阶段,从而使得社会公众得以直接接触到这一前沿科技成果。ChatGPT自上市以来,在不到两个月的时间内风靡全球,其月活跃用户已突破1亿,成为历史上用户数量增长速度最快的一款应用程序,足见其受到全球公众关注的程度。长久以来,人工智能这一概念带给人们无限的想象空间,然而,当以ChatGPT为代表的生成式人工智能真实出现后,即使是人工智能前沿领域的科学家和行业专家亦担心其有可能给人类带来无法预见的损害风险,由此可见,人们并没有为迎接人工智能时代的到来做好心理、法律和监管上的充足准备。
本文所称生成式人工智能,是指能够基于算法、模型等技术自主生成文本、图片、音频、视频、代码等内容的人工智能软件系统,又可被称为人工智能生成内容系统(AIGC System)。生成式人工智能所具有的损害风险根源在于其技术特点,对于损害风险的预防以及在损害发生后可能采取的补救措施都要遵循技术逻辑。以ChatGPT为例,其属于大语言模型(LLM),采用类似“文字接龙”的方式,即从上文中推导出下一个字、词,从而递归串出一整句话。系统输出的结果是由输入的信息和算法模型所决定的。大语言模型在训练过程中需要输入大量的数据,这些数据的主要作用并不是供ChatGPT从中直接搜索到现成的答案,而是帮助其进行机器学习。其可以从学习材料中发现语言规律,并依此在与用户的互动中“生成”答案,该答案有可能是数据库中所不存在的内容,因此,其属于“生成式”人工智能,而不是搜索引擎或数据库服务。能够“生成”或者“创作”一定的内容,是生成式人工智能“自主”性的体现,同时也是其产生虚假信息风险的根源之所在。
从世界上一些国家立法者对待生成式人工智能的态度可以看出,其侧重从风险防范的角度出发,试图通过风险分级与评估等事先监管的方式来控制人工智能应用所产生的风险。例如,欧盟目前正在制定的《人工智能法案》和我国国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》均反映了这一特点。然而,无论是采取风险预防、安全评估,还是行政许可、备案或算法审计等措施,目标都是将预期的损害风险控制在社会可接受的合理限度内,而不是要消灭所有的损害风险。鉴于“算法黑箱”的存在和人工智能系统输出结果的难以预期性,即使提供生成式人工智能服务的企业事先采取了风险防范措施并满足了监管机构设定的各项监管要求,仍有可能在实际运行中出现无法预料或难以防范的损害风险,并有可能给用户或第三人造成损害。如果损害是难以避免的,那么,如何分配这些损害,便成为一个需要解决的法律问题。
尽管OpenAI公司在推出ChatGPT之前非常谨慎,曾进行过长时间的测试,但是,在ChatGPT面世之后,仍然有许多用户发现ChatGPT提供的信息中含有不实信息。其中一个重要原因是,其所采用的大语言模型有可能利用其先前从训练数据中发现的语言规律来对现实中并不存在的内容进行合乎规律的捏造,即产生所谓“幻觉”(hallucinations)。2023年6月5日,OpenAI公司迎来其遭遇的第一场名誉权诉讼。美国的一位电台主持人Walters向佐治亚州的一家高等法院提起诉讼,状告OpenAI公司侵犯其名誉权,起因是美国的一位新闻记者Riehl在与ChatGPT的对话过程中,ChatGPT声称Walters曾被指控从一家非营利公司骗取和盗用资金,而Walters称其从未受到过此类指控并认为该信息纯属ChatGPT捏造。由此可见,生成式人工智能的侵权损害赔偿问题,已不再只是法学研究者脑海中想象的问题,而是已成为一个需要面对的真实的法律问题,并且,其对于人工智能技术的发展和应用都具有重要的影响意义。
本文尝试对生成式人工智能的侵权责任问题进行研究,主要基于以下几点考虑。第一,我国以往关于人工智能方面的研究,主要集中在自动驾驶领域、医疗人工智能等领域,近来有些学者虽然关注到了生成式人工智能,但多数研究主要集中在风险规制方面,而民事责任方面的深入研究较少。第二,人工智能可分为两类:一类是人工智能软件与硬件产品相结合,如自动驾驶机动车;另一类是单纯的人工智能软件系统,如生成式人工智能。对于前者而言,因存在硬件与软件的互相配合,发生事故时往往难以辨识究竟是硬件有缺陷还是软件有缺陷,这对人工智能责任的认定带来许多外在的困扰;对于后者而言,作为纯软件系统可以基本上不考虑硬件的问题,可更为明显地显现人工智能的固有特点和法律问题。对生成式人工智能侵权责任问题进行研究,不仅有助于理解该类人工智能系统的侵权责任问题,亦有助于理解其他类型的人工智能软件系统的法律问题。第三,本文之所以将研究对象限定为侵权责任,而将合同责任排除在外,主要是考虑到合同责任依赖于人工智能服务提供方与用户之间的合同约定,往往具有多样性,而侵权责任属于法定责任,更适合进行一般性研究。
本文所研究的生成式人工智能侵权责任,主要是指因该软件系统所生成的内容具有虚假、错误、误导或有害性,而导致人工智能提供者对用户或第三人的侵权损害赔偿责任。本文所称人工智能提供者,是指负责运营、控制人工智能系统的当事人。生成式人工智能致人侵害主要包括两种情形:第一种情形是人工智能提供者直接向用户提供服务的过程中对用户或第三人造成的损害;第二种情形是用户利用该系统向第三人提供服务的过程中,第三人因系统存在缺陷而遭受的损害。
利用人工智能自主生成内容,是一种新技术应用,也是一种新的社会现象,其中的法律问题与技术问题相互交织,给法律适用带来许多挑战。本文尝试对相关问题进行初步分析,以期学界能够进行更深入的研究。
二、产品责任的分析路径
(一)生成式人工智能致人损害可否适用产品责任
在现行法律制度框架下,关于生成式人工智能致人损害可否适用产品责任,尚存在不确定性,需要法院作出法律解释,予以明确,主要涉及以下问题。
1.生成式人工智能系统是产品还是服务
无论是我国民法典、产品质量法中关于产品责任的规定,还是欧盟《产品责任指令》,抑或美国《侵权法重述》(第3版),都是围绕“产品”这一概念展开的。将产品责任制度的适用对象规定为产品,这意味着单纯的服务将被排除在外。如何界定产品的含义,以及划分产品与服务的边界,便成为产品责任法适用中需要解释的法律问题。
产品责任法意义上的“产品”的含义并不是简单地来自词典,而是法院基于政策考量进行法律解释的产物。立法者之所以区分产品与服务,其背后重要的政策背景在于:产品责任是工业社会的产物,而工业产品具有大规模生产和批量销售的特点。产品责任采无过错责任原则,其不以产品的制造者和经销商有过错为要件,是谓“严格”责任;而缓解产品责任严格性的一个重要途径,同时也是产品制造者得以承受严格责任的一个重要通道在于,产品制造者可以通过向社会公众销售大量同质类产品的方式,借助价格机制分散其预期的产品缺陷致人损害的赔偿责任。而服务通常采取一对一的模式,其具有个性化的特点,服务提供者难以像工业产品制造者那样通过大批量提供相同服务的市场方式来实现其责任风险的分散,因此,如果要求服务提供者像产品制造者那样承担严格责任,就显得过于严苛了。区分产品与服务的意义还在于:产品经销售而被投入市场后,可以脱离制造者的控制而自由流通,并有可能被产品购买者以外的公众所接触或使用,因此,产品责任关注的是产品本身的缺陷而不是制造商的行为;服务的提供则是与服务提供者密切联系在一起的,服务纠纷通常发生在服务提供者与客户之间,并且,服务的瑕疵通常发生在服务过程中,并往往是由于服务提供者的不当行为所导致的。
就生成式人工智能本身而言,其性质属于软件。而关于软件是否属于产品责任法意义上的产品,我国民法典和产品质量法均未有明确规定。在司法实践中,我国法院对此问题的态度模糊不清。在美国,经长时间讨论后,《侵权法重述》(第3版)采取了与《统一商法典》相同的对待方式,即将软件区分为两类:一类是大量销售的软件,可被认为是产品;专门为客户开发的软件,则属于服务。所谓大量销售的软件,通常是指封装的软件(packaged software),其可像工业产品一样进行大规模复制和销售。
生成式人工智能属于软件,但并非典型意义上的封装软件产品。生成式人工智能的提供方式更像是一种服务提供方式而非产品销售行为,因为生成式人工智能的正常运行通常离不开提供者的持续服务支持,系统的运行和更新始终处于提供者的控制之下,并且,生成式人工智能提供者获取的收入源自于其为客户持续提供的服务而不是一次性销售软件产品的收入。为特定客户量身定制的生成式人工智能软件系统应当排除在产品责任的适用范围之外,对此应当没有争议。需要讨论的是以互联网的方式向社会公众提供服务的生成式人工智能系统,可否适用产品责任法。在本文看来,判断生成式人工智能向公众提供的服务是否具有高度同质性,其责任风险可否通过市场机制实现分散化,是认定其可否适用产品责任法的重要影响因素。以ChatGPT为代表的大语言模型为例,虽然其用户数量众多,但是,不同用户有着不同的需求,ChatGPT被广泛应用于多种不同用途,由此而产生的损害风险亦有所不同。另外,从技术特点来看,其所提供的并不同于数据库服务,也不同于普通的工具软件,其输出的内容受到人机交互与算法模型变化的影响而始终处于变化之中,因此,恐难以认为其向所有用户提供的服务具有高度同质性。从生成式人工智能的发展趋势来看,即使是面向公众提供服务的软件系统,其亦能满足不同用户的个性化需求,而且,这一发展趋势将会变得越来越明显。随着个性化服务特征的不断增强,主张对其适用产品责任法的说服力将变得越来越弱。
我国国家互联网信息办公室在2023年4月公布的《生成式人工智能服务管理办法(征求意见稿)》同时使用了“生成式人工智能服务”“生成式人工智能产品”“生成式人工智能产品或服务”等概念表述,而在2023年7月正式颁布的《生成式人工智能服务管理暂行办法》则统一使用了“生成式人工智能服务”这一概念,从而明确地将其定性为一种服务,这对于我们理解生成式人工智能服务的侵权责任性质亦具有参考意义。
2.人工智能生成的内容有缺陷是否适用产品责任
即使我们将生成式人工智能软件看作是一种产品,也应认识到,其与其他有形产品存在明显差异,其致人损害并不是由于其本身而主要是由于其生成的内容存在错误、虚假、误导或有害而导致的。由此而产生的争议性问题在于,产品的信息内容缺陷可否适用产品责任。
在数字化时代到来之前,上述问题曾在图书等出版物的责任纠纷中出现过,美国有多个判例涉及这一问题。在一起涉及空难事故的案件中,美国有法院认定用于指引航空飞行的图表属于产品责任法意义上的产品,图表的出版者应对存在错误的航空图表承担产品责任法意义上的严格责任。法院认为,被告制作并向原告提供的航空图表属于可以大规模生产和市场化销售的内容相同的产品,而不是个性化定制的产品,因此,应被看作是产品而不是服务。然而,随后的一些法院判例则对图书内容缺陷作为产品缺陷作出了更为严格的限制,并试图与前述航空图表案划清界限。例如,在“毒蘑菇”案件中,原告因按照被告出版的《蘑菇百科全书》的介绍食用了一种蘑菇而中毒,并遭受了严重的身体损害。原告要求被告出版社对此承担无过错的产品责任,法院驳回了原告的请求。该法院认为,对思想内容科以严格责任,将会抑制思想的表达与传播,因此,不宜将思想内容作为“产品”。为了与航空图表案划清界限,法院认为,航空图表更像罗盘,是一种高度技术性的工具,而《蘑菇百科全书》可被看作是如何使用罗盘或航空图表之类工具的书,可以将航空图表看作是“产品”,而关于“如何使用”的书则纯粹属于思想表达,因此,不应当要求图书出版商对图书的思想内容承担严格责任。亦有判例指出,在判决出版者应对图书资料内容承担严格责任的案例中,出版者通常都是该出版物的创作者而不仅仅是印刷者,如果出版者未参与内容创作,则不宜要求出版者对作者在图书中表达的思想内容承担严格责任,因为其并不负有审查或保证的义务。
虽然上述判例并不是针对生成式人工智能的生成内容而作出的,但是,其中有些判决的观点对于我们认识人工智能生成内容缺陷是否适用产品责任具有指引意义。例如,“毒蘑菇”案所作的内容分类就具有参考意义。对于人工智能生成的内容亦应进行分类,人工智能不仅能够生成文字、图片、声音或者视频,还可以生成代码;既有主观意见的表达,也有对事实的陈述;既有随意的娱乐性的聊天,也有关于专业知识的问答。在本文看来,只有极少数专门应用于高风险活动领域的纯粹技术性、专业性内容,或许存在适用严格责任的空间,而对于除此以外的绝大多数内容,特别是一些明确属于观念或思想表达的内容,不宜要求生成式人工智能提供者对这些内容的准确性承担无过错责任。
又如,上述判例所提到的不宜将思想内容作为“产品”的观点,不仅适用于纸质图书,亦可适用于网络信息内容。例如,在2006年美国法院判决的一起涉及“阿特金斯减肥法”的判例中,争议不仅涉及阿特金斯减肥食品和图书,还涉及阿特金斯减肥网站上发布的关于减肥方法的信息内容,法院一概驳回了原告提出的适用产品责任规则的主张。对于思想内容的创作者,不应要求其对所创作的思想内容承担无过错责任,这一原则不仅应适用于自然人创作者,也应适用于人工智能创作者。不宜仅仅因为某一思想内容系由人工智能创造而非自然人创造的,便要求人工智能提供者承担严格责任。
但是,我们也应认识到生成式人工智能与图书亦存在明显的区别,因此,并不能全部照搬图书出版方面的判例意见。例如,前述涉及图书的判例所提出的区分出版者与作者而否定产品责任的理由,可能对于生成式人工智能并不适用。因为,对于人工智能生成的内容而言,人工智能提供者所扮演的角色并不是出版者,而是创作者。
又如,图书一经出版,其内容是固定不变的,所有读者所接受到的信息内容都是相同的,因此,其具有高度的同质性,而生成式人工智能的算法和模型始终处于变化之中,不同用户对服务的需求亦有所不同,而且,用户并不是完全被动地在接受系统的输出,而是可以与系统互动而影响到系统输出的内容。由于系统输出信息时会受到人机互动和概率分布的影响,因此,即使面临相同的问题或信息需求,其对不同用户输出的内容亦可能有所不同,对于同一用户在不同时间提出的相同请求亦有可能作出内容不同的回复。
(二)用户利用生成式人工智能向第三人提供服务时的责任
生成式人工智能系统具有广泛的用途,尤其是具有强大的学习功能,能够吸收和输出海量的知识,并拥有超强的计算能力,因此,其用户有可能利用该系统为客户提供服务,由此而产生的问题是,系统提供者对于第三人,即其用户的客户,是否应当承担产品责任。
在本文看来,影响责任认定的一个因素是该软件系统是否是为用户的个性化需求而专门定制的,或者用户是否参与了该系统的设计。在实践中,用户为其客户提供的服务往往具有专业性,因此,一般的软件系统难以满足其专业需求,所以,许多商用人工智能系统在开发过程中经常会有商业用户的参与,甚至由用户方面的专家来为其提供专业知识信息或进行专业辅导,以满足用户的特别需求。在这种情况下,应将人工智能提供方看作是服务提供者而不是产品制造者,不应要求其对第三人承担产品责任。另外,当律师、会计师等专业人士借助生成人工智能系统所提供的专业知识信息为其客户提供专业服务,如果律师、会计师本人对其客户承担的职业责任尚属于过失责任,却要求为专业人士提供辅助服务的人工智能系统提供者承担无过错责任,似乎并不合理,也难以具有说服力。
(三)立法是否应该将生成式人工智能纳入产品责任范畴
上述分析主要是从现有的产品责任制度出发而作出的,侧重于对产品和服务等法律概念的解释,因此会受到许多方面的限制。如果我们从立法应当如何回应的角度来看待,视野可以更加开阔。
在人工智能立法方面,欧盟走在世界各国的前列。2022年9月,欧盟委员提出制定新的《关于缺陷产品的责任指令》以取代原有的1985年《产品责任指令》的建议,该立法建议的主要目的在于将人工智能纳入到产品责任的范畴。从公布的立法草案来看,其在对产品进行定义时明确地将“软件”包括在内。尽管从字面上来看,该立法草案未对软件的类型作出限制,但是,从欧盟委员会对该立法草案的说明中可以看出,欧盟在制定这一草案时,其意欲规范的主要对象是被集成到硬件产品中的软件,以及与硬件的功能发挥和安全性有密切联系的软件及数字服务,而无意涵盖所有类型的软件,因此,像ChatGPT之类独立存在的纯软件系统是否亦应适用无过错责任,尚有疑问。目前,我国国务院已经将人工智能法纳入立法规划,其将采用何种路径来处理人工智能侵权责任问题,尚不得而知。
从学者们的观点来看,早在20世纪90年代初,就有学者提出对于向公众提供的大规模生产和销售的人工智能软件应当纳入产品责任范畴,适用严格责任。但是,上述观点的形成仍受制于当时技术条件对人工智能软件的理解。在ChatGPT出现之后,许多学者都选择了从过失侵权的角度来分析人工智能提供者的侵权责任。
在本文看来,关于立法是否应该将生成式人工智能纳入产品责任范畴,除了前述关于产品与服务划分的因素以外,还应当看其预期的立法目标是否有可能实现,以及有可能产生何种负面效果,最后再进行利害权衡。从欧盟委员会提出的《关于缺陷产品的责任指令》的立法建议来看,将人工智能纳入到产品责任中欲达到的目标主要包括:第一,由人工智能提供方对产品缺陷承担无过错责任,受害人在提出索赔请求时无需证明被告有过错,法院也需就被告是否有过错而作出认定,从而方便受害人快捷地获得赔偿;第二,缓解受害人在索赔时面临的举证困难,便利于受害人获得赔偿。
就第一个目标而言,从表面上看,似乎所有的产品责任都是无过错责任,然而,仔细分析,却可以发现事情并非想象的那么简单。产品责任法规则是围绕着产品缺陷这一概念而展开的。通常认为,产品缺陷包括三类,即制造缺陷、设计缺陷、指示缺陷。就制造缺陷引发的产品责任而言,公认其为无过错责任;在软件领域,制造缺陷多表现为软件在复制过程中代码复制的不完整等缺陷,此种情况在光盘拷贝的时代或许出现过,而在当今数字化时代已非常少见。因此,就人工智能软件的缺陷而言,主要是指设计缺陷和指示缺陷。
就设计缺陷的认定标准而言,依照我国产品质量法第66条的规定,产品缺陷是指产品存在危及人身、他人财产安全的不合理的危险。其隐含的意义为合理的危险不构成产品缺陷。判断一项危险属于合理还是不合理,更接近过失的认定方法。从国外立法和理论来看,判断设计缺陷主要有两种标准,即消费者期望标准和风险—效益标准。相比较而言,消费者期望标准更有利于保护消费者。欧盟委员会提出的《关于缺陷产品的责任指令》草案采取了公众对安全期望的标准,但是,其同时规定,在认定产品具有缺陷时,需要综合考虑多项标准,这使得设计缺陷的认定具有一定程度的不确定性,远不像制造缺陷那样容易认定。美国《侵权法重述》(第3版)采用的是风险—效益标准,即当产品的可预见的损害风险可以通过合理的替代设计减少或者避免,而没有采用这样的合理设计,以至于产品不具备合理安全时,可认定该产品存在设计缺陷。在判断一项设计是否具有不合理的危险时,需要考虑:“伤害的可能性、严重性与采取预防措施的平衡。考虑相关的因素包括替代设计的可行性、采纳替代设计的成本和可能性、该种设计导致伤害的概率。”该种测试方法是与“汉德公式”的精神是一致的,本质上是一种认定过失的标准。就指示缺陷而言,主要是指产品的说明或警示不合理,未能通过合理的说明或警示而消除不合理的危险。因此,指示缺陷的认定依然是判断指示说明合理还是不合理的问题。
从以上分析可以看出,就因设计缺陷和指示缺陷而引发的产品责任而言,无论名义上将其称为严格责任还是过错责任,就其责任认定方法来看,实质上与过错责任的认定类似。一旦发生诉讼争议,当事人将就设计是否合理、有无更为合理的替代设计、替代设计是否可行以及合理的说明或警示的标准等问题展开辩论。对于新出现的生成式人工智能而言,上述问题更容易引发激烈的争论,法院依然需要就相关争议作出判断,远不像处理制造缺陷引发的产品责任那样快捷,适用产品责任能在多大程度上起到节省诉讼成本的目标是令人怀疑的。
就受害人举证困难而言,由于在认定人工智能软件系统是否有缺陷时需要就合理的替代设计或合理的替代说明等事项进行举证,因此,受害人仍然会面临举证的困难。欧盟委员会在起草《关于缺陷产品的责任指令》的立法建议时亦认识到了这一点,因此,其在草案中特意规定了证据开示制度和缺陷推定制度,以缓解原告的举证压力。然而,要求被告开示证据或由被告举证产品不存在缺陷,并非必须通过产品责任制度来实现,在一般侵权制度中亦可以实现。例如,在欧盟委员会制定的《关于适用于人工智能的非合同民事责任规则的指令(草案)》(以下简称“《人工智能责任指令》”)中亦规定了证据开示制度。
当然,从理论上讲,立法者亦可通过立法改变对设计缺陷和指示缺陷的认定标准,使其像制造缺陷那样,真正实现无过错责任。然而,如果那样的话,将会对人工智能技术的研发和广泛应用产生非常大的抑制作用。生成式人工智能提供者为避免自己承担无过错责任而有可能严格限制他人对人工智能系统的使用。另外,如果将人工智能生成内容的虚假或错误看作是产品缺陷并科以无过错责任的话,将对思想和信息内容的生成与传播产生极大的抑制作用。
将某一事物纳入产品责任的范畴,除了可能导致无过错责任以外,另一个重要意义在于其突破了合同的相对性。对于生成式人工智能而言,如果将其认定为产品责任法意义上的产品,那意味着该其提供者不仅要对与之具有合同关系的用户承担民事责任,还要对第三人承担产品责任,其将难以通过用户协议的方式来限制或免除自己的责任。考虑到生成式人工智能系统作为一种基础性软件,具有广泛的用途,其用户有可能在营业活动中利用其为自己的客户提供服务,因此,如果认定系统提供者应像产品制造者那样承担产品责任,那么,其潜在的责任风险将是巨大的。
综合以上考虑,在本文看来,就生成式人工智能软件系统本身而言,不宜将其纳入产品责任法的范畴。至于生成式人工智能软件被集成到某种硬件产品中或者与某类硬件功能的发挥存在密切的关系时,可另当别论。
三、一般侵权责任的分析路径
对于生成式人工智能致人损害的侵权责任,除可考虑产品责任路径以外,还可以适用一般侵权责任规则,从理论上讲,两者可并行不悖。例如,在德国等欧洲国家,产品缺陷的受害人除可依据产品责任法索赔以外,还可依据民法典中关于一般侵权责任的规定提出赔偿请求。欧盟委员会关于人工智能侵权责任的立法建议亦同时包括两项,分别为《关于缺陷产品的责任指令》和《人工智责任指令》,后者就是基于以过错责任为基础的一般侵权责任规则提出的立法建议。
两条路径并行的意义还在于可互相补充。例如,许多国家的产品责任法都将损害赔偿的范围限于人身伤害和有形财产损害,而将纯经济损失排除在外。在一般侵权责任制度框架下,在满足一定条件的前提下,纯经济损失亦可在赔偿范围内。产品责任法关注的是与硬件产品相结合或存在密切关联的人工智能软件系统,而对于完全独立的纯粹的人工智能软件系统,尤其具有明显服务属性的人工智能服务,更适合在产品责任以外的一般侵权法框架下进行讨论。
就生成式人工智能而言,其本身通常并不会直接造成人身或财产的物质性损失,不具有高度危险性,因此,在以过错责任为基础的一般侵权责任框架下进行讨论亦是适合的。而对于应用于特定类型的高度危险活动领域的人工智能,则可运用特别法予以规制,从而不在本文的讨论范围内。从一般侵权责任制度出发,生成式人工智能的侵权责任主要涉及过错认定和因果关系等问题。实践中最常见的侵权类型主要包括虚假陈述和侵害名誉权等。
(一)过错责任认定中的一般性问题
1.人工智能致人损害中的过错认定
所谓一般侵权责任,通常是指过错责任,即只有当被告有过错时才承担损害赔偿责任,并且,在一般情况下,由原告承担关于过错的举证责任。然而,以大语言模型为代表的生成式人工智能系统非常复杂,若由接受其服务的普通社会公众来证明其在设计上有缺陷或证明其提供者有过失,将非常困难。从大语言模型的技术原理来看,大语言模型是依照其通过机器学习发现的语言规律来生成内容,而其在机器学习时高度依赖学习材料,即数据,因此,如果训练数据本身存在错误的内容或来源具有偏见性,那么,系统输出的结果就有可能存在偏颇或者错误。更为复杂之处在于,由于机器思维与人类思维不同,生成式人工智能在学习材料中所发现的规律,有可能是人类难以发现或理解的,而且,随着人工智能与用户之间持续的交流互动和新数据源源不断的输入,模型的算法始终处于不断变化之中,并且,随着大语言模型的不断发展,其算法结构日趋复杂,GPT-3研发者称该模型参数已高达1750亿个,足以想象其复杂程度,由此会带来算法黑箱的问题,即缺乏可解释性和透明度。在这种情况下,如果出现生成式人工智能生成的内容中含有侵犯他人权益的内容,将很难追溯到其产生的具体原因,从而难以证明人工智能提供者是否有过错。
对此,欧盟的《人工智能责任指令》对受害人提供了可请求法院命令人工智能提供者披露相关证据的救济方式,但限于高风险的人工智能系统,同时规定,如果提供者未按照要求披露相关证据,那么,可推定其未尽到相关的注意义务。在本文看来,欧盟的上述规定,对于有技术专家提供服务的原告而言,是有实质帮助意义的,而对于那些没有技术专家提供帮助的原告而言,即使有技术性证据仍难以克服证明过错的困难。在我国当前的司法诉讼环境下,普通民众获取专家证人的帮助仍有一定的困难,因此,对于生成式人工智能致人损害的案件,通过立法规定,采取过错推定的方式,将举证责任转移至被告,更为合理。
即使采取过错推定的归责原则,该推定亦是可被推翻的,因此,仍需由法院来对人工智能提供者是否有过错作出最终的司法认定。过错包括故意和过失。所谓故意,是指行为人预见到自己的行为会导致某一损害后果而希望或者放任该后果发生的一种主观心理状态。鉴于人工智能系统具有一定的自主性,其输出内容的数量不仅巨大,而且具体的输出内容不仅依赖于系统本身的算法逻辑,亦取决于不同用户的个性化需求以及用户与系统之间的交流互动,其输出结果具有随机性和难以预见性,因此,要想证明人工智能提供者对于特定的系统输出内容具有充分的可预见性是十分困难的,要证明其故意更为困难。但是,当用户发现了系统输出内容含有侵害其权益的内容而报告给人工智能提供者并提供了相关证据时,可以推定其在收到通知后对于损害是知情的。
对于过失的认定,传统侵权法有两个标准,即主观标准和客观标准。主观标准是指行为人具有疏忽等主观状态,而客观标准是指行为人未尽到合理的注意义务。在当今新兴科技蓬勃发展的时代,以客观标准作为过失认定标准的日渐增多。所谓合理的注意义务程度,通常以一个普通的理性人在类似环境下应有的注意义务为标准,即“理性人”标准。在人工智能致人损害领域,也有学者提出“理性计算机”(reasonable computer)的标准,其主要观点为:既然人工智能的作用在于替代人,那就不应当仅仅将其看作是产品或工具,而应将其类比于人,在判断其是否存在过失时应注重计算机系统的行为而非设计,未达到“理性计算机”的行为标准即为有过失;并且,其进一步认为,理性人的标准与理性计算机的标准最终将融合为一个标准。上述观点虽然具有启发意义,但是,亦有不合理之处。首先,由于人工智能系统本身并不具有独立的法律主体人格,因此,所谓过失只能是人工智能提供者的过失。其次,所谓“人工智能”只是一种形象的比喻,其与自然人的智能存在明显差异。在有些领域,对于自然人而言难度非常高,但是,对于人工智能而言非常容易,人工智能会表现得比自然人优秀;而在另外一些领域,对于自然人而言非常容易的事项,对于人工智能而言会非常困难,其表现得会非常拙劣,会犯一些在自然人眼中的低级错误。因此,当发生人工智能致人损害时,仍应着眼于人工智能提供者,以人工智能提供者在研发、设计、测试、运行、监测和维护人工智能系统时是否尽到合理的注意义务为标准。其中,人工智能系统设计的合理性至关重要,对此可以参照产品设计缺陷中的风险—效益标准,这其中涉及到替代设计的技术上可行性与经济上可行性的问题。目前存在的困难不仅在于人工智能系统的高度复杂性,还在于其属于新兴技术,可参照的替代设计非常少。以大语言模型系统为例,目前世界上仅有美国OpenAI的ChatGPT、谷歌公司的Bard和中国百度公司研发的“文心一言”等屈指可数的软件系统,因此,难以形成公认的行业标准,寻找可参照的替代设计亦非常困难。
为了确保人工智能系统的安全性,许多国家的立法者开始启动人工智能领域的立法,对人工智能的研发、设计、运行、测试、监测和维护作出许多具体的管制性规定,当人工智能提供者未遵循上述规定时,可以推定其对于损害结果的发生有过错,但是,当人工智能提供者有充分的证据证明其违反上述规定与损害结果的发生不存在因果关系时,可以推翻上述推定。
2.用户不当诱导行为对人工智能提供者责任认定的影响
生成式人工智能的一个重要特点在于存在用户与人工智能系统之间的交流互动,而且,用户向系统提供的信息会影响到机器学习,从而影响到系统对外输出的自动生成内容。因此,用户对系统的不当诱导行为会导致系统对外输出含有侵权内容的信息。例如,2016年3月23日,微软公司曾推出一款聊天机器人“Tay”,其具有在与用户聊天过程中进行机器学习、拓展语言能力的功能,结果遭到了许多用户的不当诱导,导致该机器人系统“Tay”对外出输出了大量的具有仇恨、歧视性的有害内容,微软公司随即在第二天就宣布关闭该系统。
当用户的不当诱导行为实质上促成了生成式人工智能系统所生成的侵权内容时,如果用户对系统提供者提出损害赔偿请求,提供者可以以受害人对损害的发生存在过错为由,而主张减轻或免除自己的赔偿责任。如果所生成的内容构成对第三人权益的损害,用户的不当诱导行为并不必然导致人工智能提供者免责,关键在于提供者对于可预见的用户不当诱导行为或滥用行为,甚至恶意攻击行为,是否尽到了风险防范的安全保障义务,包括合理的设计、持续监测和及时处置的义务。如果提供者未尽到上述义务,可视为其存在过错,并且不能因为用户不当诱导行为的介入而阻断因果关系的成立,此时,可以将提供者与该用户看作是共同侵权行为为人,共同对遭受损害的第三人承担侵权责任。
(二)人工智能虚假陈述的责任认定
虚假信息的泛滥是国内外监管机构和社会公众对人工智能生成内容共同的担忧。国内外有许多研究都指出生成式人工智能系统有可能生成大量的虚假信息。制作和发布虚假信息不仅会损害公共秩序,还有可能产生侵权责任。由于人工智能本身不具备独立的主体资格,因此,我们可以将人工智能生成的信息内容看作是人工智能提供者作出的陈述。
我国民法典侵权责任编并没有使用虚假陈述这一概念,但是,其关于一般侵权责任的制度框架可以容纳由虚假陈述产生的侵权责任问题。虚假陈述(misrepresentation)这一概念的表述可见于英美侵权法与合同法中。美国《侵权法重述》(第2版)将虚假陈述区分为造成人身损害的虚假陈述和造成纯经济损失的虚假陈述,又可分为故意虚假陈述、过失虚假陈述和无辜的虚假陈述,其对虚假陈述责任的规则构造比较具体,对我国侵权法的适用具有参考价值。对于人工智能生成虚假信息的侵权责任而言,基于过失的虚假陈述责任更为常见。
日常生活经验告诉我们,错误的、不实的言论或信息在生活中很常见,特别是在网络环境下,但并不是我们每一次不小心的失实言论都会产生对他人的侵权责任。法律需要将过失性虚假陈述责任限制一个合理的范围内,否则将会危及人们的表达自由和思想的传播。美国侵权法主要是通过两个要件来进行控制的,一是作出虚假陈述的行为人对受害人负有注意义务,二是受害人对虚假陈述的信赖是合理的。
就注意义务要件而言,通常认为,陌生人之间的交流在一般情况下不会产生保障陈述真实的注意义务;但是,如果当事人具有特殊的身份或者当事人之间具有特殊的关系,如律师、医生等专业机构与客户之间的关系,则有可能产生法律上的注意义务。就生成式人工智能与普通公众用户之间的关系而言,一般可以看作是陌生人之间的关系,不会产生法律上的注意义务;但是,如果其以专业人士的名义向用户提供与人身财产安全密切相关的专业性知识信息,则有可能在其可合理预见的范围内产生法律上的注意义务。为避免承担此类责任,许多生成式人工智能提供者通过程序设计和有意识的人工训练使得人工智能系统拒绝向用户提供此类信息。
就合理信赖要件而言,需要依照具体情形由法院来作出判断。就ChatGPT而言,OpenAI公司对该系统生成内容的可信赖性的宣传和表述是相互矛盾的。一方面,OpenAI宣传其开发的GPT具有强大的解决问题的能力,暗示其输出的内容是有价值的;另一方面,OpenAI又通过用户协议等文件警告用户不可信赖其输出的内容并拒绝对内容的真实性承担责任,并且,OpenAI公司还将用户的过度信赖列为GPT系统存在的重要风险之一。实际上,ChatGPT越成功,其出错概率越低,也越容易被过度信任。判断用户对人工智能生成内容的信赖是否合理,需要根据用户与人工智能提供者之间的关系、生成内容的性质以及其对用户人身财产安全的影响、人工智能提供者对其系统可靠性所作出的陈述或保证等因素。一般来说,面向社会公众提供服务,尤其是提供无偿服务的人工智能系统输出内容的可信赖程度较低,而为满足用户个性化需要而有偿定制的人工系统的可信赖程度较高。
有一类用户比较特殊,那就是专业人士。人工智能刚出现时,人们担心其有可能取代自然人提供相关服务,这既引发了人们对其安全性的担忧,也引发了人们对失业的担忧,专业人士对此尤其敏感。长期以来,各国以保障执业质量、维护公共利益的名义为医师、律师、会计师等职业设置了较高的执业门槛,而生成式人工智能的广泛应用有可能降低职业准入门槛,并且有可能使得社会公众越过专业人士而直接从人工智能系统获得专业服务,从而给专业人士带来职业冲击。例如,OpenAI声称GPT-4可以通过律师执业资格考试并能够取得高分,因此,从理论上讲,其具有为公众提供法律咨询服务的能力。早在20世纪60年代后期,美国开始出现利用计算机自动检索法律信息的技术后,美国律师协会就担心其对法律职业产生冲击,主张将非律师人士使用计算机信息检索为公众提供法律咨询服务作为非法从事律师业务来对待,从而限制非法律专业人士对该项技术的使用。而在人工智能出现之后,世界各国都在加强监管,其中一个趋势就是将专业性的人工智能服务纳入到专业领域,并按照专业性设备或服务来进行严格监管。例如,医疗领域的人工智将按照医疗器械来进行监管。由此而出现的结果就是,专业领域的人工智能系统通常不能直接向公众提供服务,而是需要通过有执业许可证的专业人士才可服务公众,这样既增强了专业人士为客户提供服务的能力,同时亦不致于使其失去工作岗位。在这种模式下,人工智能系统实际上成为用来辅助专家向客户提供服务的工具,其生成的内容对专业人士而言仅具有辅助的参考作用,而不能也不应替代专业人士独立地作出判断。因此,专业人士对人工智能生成内容应当保持谨慎的态度,会受到合理信赖的限制。
人工智能提供者除了有可能对用户承担侵权责任外,还有可能对用户以外的第三人承担侵权责任,但是,第三人的范围应当受到更为严格的限制,特别是那些未遭受人身或财产的物质性损害而仅遭受纯经济损失的第三人。当用户利用生成式人工智能系统所生成的内容从事对第三人的侵害行为时,如果人工智能生成内容本身是合法的、中性的,并且人工智能系统提供者对用户的用途并不知情,其可主张免责。例如,用户询问如何分辨哪些类型蘑菇有毒,然后依据答案采集毒蘑菇去毒害他人。然而,如果用户询问的问题本身可以揭示其意欲或有可能从事侵害他人人身财产安全的行为,甚至犯罪行为,如果人工智能提供者未采取合理的技术防范措施而导致系统生成了帮助其从事侵权活动的相关内容,则有可能构成教唆或帮助侵权。
(三)人工智能生成内容侵害他人名誉的责任认定
以大语言模型为代表的人工智能生成内容系统,由于其模型设计的技术特点,从而有可能出现“幻觉”。曾经有学者向ChatGPT问询某类信息或某人的信息,结果ChatGPT反馈称某人曾被指控犯罪或从事性骚扰等行为,并引用具体的法律文书或权威的新闻报道作为信息来源,从表面上看该信息非常可靠。然而,经查证,上述信息纯属子虚乌有,其所引用的法律文书或新闻报道根本不存在。而且,在当前技术条件下,尽管OpenAI公司不断优化ChatGPT的算法模型,但是,仍然无法完全消除“幻觉”等编造虚假信息的问题。
虽然ChatGPT是在与用户一对一的对话交流中编造关于他人的虚假信息,但是,这并不能阻碍侵害他人名誉权责任的成立,因为其提供者能够合理地预见到用户有可能将其收到的信息告知第三人,从而导致受害人的社会评价降低、名誉受损。另外,尽管OpenAI可以在其用户协议中提醒用户该系统可能存在“幻觉”的问题并免除自己的民事责任,但是,该免责协议即使有效亦只能在合同当事人之间产生法律效力,而不能约束遭受名誉权损失的第三人。因此,人工智能提供者对侵害他人名誉权的责任风险是现实存在的。
从法律规范所规定的责任构成要件的角度看,生成式人工智能提供者侵害他人名誉权与普通的侵害名誉权并无特别之处。但需要斟酌的是,依照我国民法典第998条的规定,在认定行为人承担侵害名誉权的民事责任时,“应当考虑行为人和受害人的职业、影响范围、过错程度,以及行为的目的、方式、后果等因素。”对此,是否需要基于人工智能生成内容系统的特性而对其特别对待,是一个值得讨论的问题。侵害名誉权责任的认定涉及名誉权保护与言论自由两种价值之间的权衡。在传统法律背景下,言论自由通常是指人的言论自由,保护人的创作与思想表达,而人工智能生成内容是软件系统基于算法模型而自动生成的。在进行价值权衡时,是否需要像保护自然人的言论自由那样来保护人工智能的言论自由,是一个值得思考的话题。对此,在一些学者看来,言论自由之所以受到保护,不仅仅是为了维护言论者的自由,还在于保护听众获取信息的自由,站在受众的立场上,无论言论者为自然人还是人工智能,其言论都应受到保护。在本文看来,这一问题涉及如何看待人工智能所生成的内容的价值。如果人工智能所生成内容的整体价值得到了社会认可,那么,给予其恰当的保护对于社会而言是有益的,实际上是给予人工智能提供者以责任风险的庇护。只输出高质量、有价值、真实的信息而自动屏蔽虚假的侵权信息,在目前的技术条件下,还只能是良好的愿望。对于人工智能这样一项新兴的处于发展中的技术,如果我们对其生成内容提出过高的要求或科以过严的责任,那么,人工智能提供者为了规避自身的责任风险会过度限制系统自动生成内容的输出,同时,也会抑制相关技术的创新和应用。
四、关于人工智能致人损害的责任限制与受害人救济?
生成式人工智能是依托互联网发展起来的新兴数字技术的产物。在20世纪90年代互联网刚刚兴起的时候,美国先后通过制定《通信净化法》第230条款和《数字千禧年版权法》,对网络服务提供者的侵权责任作出了限制。前者为网络服务提供者作出了范围宽广的免责规定,后者通过“通知—删除”规则在版权法领域为网络服务提供者提供了“避风港”式的保护。美国通过的上述两部法律不仅对本国互联网产业的发展起到了极大的促进作用,而且对欧盟、中国等世界其他国家的网络立法都产生了深远的影响。在ChatGPT等大语言模型出现后,人们禁不住要问,其可否适用现行法中关于网络服务提供者的责任限制规定。
从我国民法典第1194—1197条关于网络侵权的规定来看,其区分了网络服务提供者因自身行为而承担的侵权责任和网络服务提供者因其用户实施侵权行为而承担的责任。体现对网络服务提供者责任限制的“通知—删除”规则仅适用于后者,而对前一种情形并不适用。然而,就ChatGPT之类的大语言模型提供者而言,大语言模型系统自动生成的信息内容并不是其用户创作或发布的信息,而应看作是系统提供者创作、发布的信息,因此,其无法适用网络服务提供者的责任限制规定,而只能适用侵权责任的一般规定。对于生成式人工智能提供者无法适用网络服务提供者的责任限制规定的另一个重要原因还在于:在现行法框架下,当网络服务提供者的责任被限制或免除以后,受害人仍可向制作发布侵权信息、实施直接侵权行为的用户提出索赔;而在人工智能生成内容的模式下,如果免除了人工智能提供者的侵权责任,那么,受害人将无法找到其他索赔对象进行索赔。
如果依目前法律规定生成式人工智能提供者的侵权责任不会受到限制,那么,是否应当通过制定新的立法来限制该类提供者的侵权责任,亦是当前学术界和产业界讨论的话题。在本文看来,将人工智能提供者的侵权责任保持在合理水平,对于保持促进人工智能产业发展与保护公众安全之间的平衡,具有至关重要的作用。从当前生成式人工智能的技术模式和商业应用模式来看,通过立法对其侵权责任进行限制,尚缺乏充足的正当性理由。要求生成式人工智能提供者按照侵权法一般规则承担过错责任而非依产品责任法承担无过错责任,这本身就蕴含了对提供者的责任限制。在认定提供者是否存在过错时,法院可以将当前人工智能技术的发展水平、避免损害的替代设计的可行性与成本,以及侵权责任的承担对行业的影响等因素,纳入到考量范围内,通过动态地调整过错的认定标准,实现将责任水平控制在合理程度的目标,并可以避免由立法直接作出责任限制规定而产生的僵硬性。
由于过错责任原则的限制会导致许多受害人无法得到赔偿,为了维持人工智能提供者与受害人之间的利益平衡,仍应给予受害人以必要的救济,防止其持续地受到损害。建议未来的立法可通过确立“通知—处置”规则,在给人工智能提供者施加义务的同时也为受害人提供相应的救济。所谓“通知—处置”规则,是指当权益受到损害的用户或者第三人发现人工智能系统生成的内容含有侵权信息并通知提供者后,提供者负有及时采取处置措施以消除侵权信息的影响并防止系统再次生成侵权信息的义务;如果提供者未及时采取处置措施,将对扩大的损害承担赔偿责任。该“通知—处置”规则不同于我国民法典所规定的“通知—删除”规则。首先,其性质并不属于“避风港”规则或责任免除条款,而是义务与责任构成条款。人工智能提供者在接到通知后所负有的消除侵权信息的影响并防止系统再次生成侵权信息的义务,具有停止侵害、排除妨碍、消除危险的性质,其不以服务提供是否有无过错作为适用的前提。其次,由于生成式人工智能的技术特点,在采取处置方式时,不同于对待传统网络侵权所用的删除、屏蔽、断开链接等方式。生成式人工智能所生成的内容被认为含有侵权信息时,往往很难追溯其产生的具体原因,也无法直接通过修改输出结果来纠正其错误,而是通过再次精准训练的方式来实现算法模型的调整和优化,以此避免系统下次再犯同样或类似的错误。
五、结语
以ChatGPT为代表的大语言模型的出现标志着生成式人工智能技术取得了里程碑式的突破。人们在为这一新兴技术的应用欢呼的同时也感受到了其存在的损害风险。由于大语言模型固有的技术特点和当前的技术水平,尚无法完全避免人工智能生成的内容中含有侵权信息,因此,如何合理地分配损害风险、确定人工智能提供者的侵权责任就变得至关重要。
在当前的法律背景下,关于生成式人工智能致人损害的侵权责任,涉及众多复杂的法律问题,在法律适用方面尚存在许多不确定性,需要法院作出相应的法律解释,以增强法律规则的可预期性,这对于促进人工智能技术的发展和应用具有重要的影响。将以大语言模型为代表的生成式人工智能软件系统纳入产品责任的范畴,可能并不是最佳的法律政策选择。通过一般侵权责任制度并辅之以过错推定规则,既可以解决受害人的举证困难问题,也便于通过司法控制机制对生成式人工智能提供者的责任负担进行动态调整。为了维持生成式人工智能提供者与受害人之间的利益平衡,可以通过“通知—处置”规则对提供者施加消除侵权信息的影响并防止系统再次生成侵权信息的义务。
作者:周学峰,北京航空航天大学法学院教授,法学博士
出处:《比较法研究》2023年第4期