专家观点分享:
智识激荡,余音绕梁。在上一期推文中,我们共同领略了商事仲裁在规则衔接中的引领作用。然而,民商法的魅力不仅在于制度构建,更在于对时代命题的敏锐回应。
精彩继续,热度不减。本期“年会回响”,我们特别整理了中国人民大学法学院教授,中国法学会副会长,中国法学会民法学研究会会长王利明先生的精彩发言。面对生成式人工智能的侵权及应对,他是如何破题的?通过今天的推文,让我们一同寻找答案。
如何应对生成式人工智能侵权问题?
比较法上有两种模式,一种是以欧盟为代表的强监管模式,这种模式十分注重对个人信息、隐私的保护。另一种是以美国为代表的轻监管重利用的模式,在这种模式下模型的开发者、服务的提供者的合规义务相对较轻,有关对隐私、个人信息的侵害,主要是交给侵权法来处理。
那么我们国家应该采取什么模式,不少学者建议应当尽快进行专门立法。我认为现在进行专门立法可能为时尚早,因为毕竟人工智能所造成的侵权的潜在风险总体可控。它主要是针对隐私、个人信息、知识产权等权利损害,而不是直接对个人的生命财产安全造成现实的重大侵害。另一方面人工智能发展日新月异,这些技术带来的新情况、新问题、新挑战,还需要时间观察去认识、去总结。所以在相关的问题还没有出现之前,我们不要急于匆忙进行立法,否则就可能会因为滞后性等等妨碍人工智能的发展。我个人还是主张在发展中规范针对人工智能的侵权,我国《民法典》《个人信息保护法》已经有相关规定,我们可以以这些规定为基础,解释好使用好这些规则,再通过相关案例的积累,通过司法解释的制定,有效应对人工智能引发的侵权。
人工智能今天首先要解决的问题是适用什么样的归责原则?是无过错责任还是过错责任。
首先我认为在归责原则上应当对人工智能侵权使用过错责任。 这个无过错责任它可能会对人工智能的发展造成很大的障碍。无过错责任主要适用于产品责任等领域,人工智能本身它提供的服务不是产品而是服务。采用过错责任,既有利于鼓励人工智能的发展,给模型的开发设计制造提供创新空间,同时也可以兼顾对受害人的保护,应该说是一种较为妥当的选择。 第二个问题就是怎么判断过错呢?我认为应当以违反注意义务作为判断过错的标准。 过错的判断还应当遵循场景化的原则,因为不能采取一刀切的方式,也就是说应该结合具体场景来确定的这个风险防控的成本比较和合理义务。同时,人工智能侵权在经认定的时候要考虑到现有技术水平。它发展到今天,仍然还有一些现有的技术无法克服的困难和障碍,相关的一些抗辩是可以使用到人工智能领域的。此外,人工智能过错认定要综合考虑风险程度和防范风险的成本。我们还要注重区分人工智能服务提供者的过错和用户者的过错。 在过错认定方面,我个人建议为了促进人工智能的发展,这个应当类推使用民法典1195条所规定的避风港规则。 这个规则主要适用于网络侵权领域,人工智能侵权和网络侵权具有很大的相似性,尤其是考虑到要促进人工智能发展这样一个目的,所以类推适用避风港规则就更有必要。 对已公开个人信息的利用,是不是都要取得信息主体的同意? 欧盟的模式是认为这种情况下,已公开个人信息应该和未公开个人信息同等保护,同等使用这个规则,这个对人工智能发展可能不利。但是美国基本上是完全放松对已公开的个人信息的保护,这可能也不行。但是我们的这个应该怎么办?我觉得还是可以考虑回到民法典1036条来。按照这条规定区分了已公开个人信息和未公开的个人信息,同时对有关的个人信息的保护按照这条规定,只有在造成了重大利益侵害的情形下,这个信息主体才有权拒绝。那就关键在于我们怎么理解重大利益侵害,这可以说是规范已公开个人信息的处理的重要标准。 对已公开的数据作品怎么处理?是不是都要取得作者同意? 我个人认为从鼓励人工智能发展的要求来看,还是应该区分输入和输出两个阶段。在输入阶段,对大模型的开发者获取已公开的作品数据并且用于大模型的训练,我觉得这个可能还是应该秉持一种开放的态度。不宜要求每一篇作品都要取得作者同意,事实上这也做不到,如果这么做会极大影响人工智能训练的语料来源。这种情况下,我们是不是可以把它考虑看作是对著作权的合理使用,适用著作权法第22条的规定。但在输出阶段,应当对人工智能的作品输出结果进行严格把关。模型处理者应当采取一定的技术手段措施,尽量使这个输出结果要多样化、模糊化,不能与他人作品的内容相雷同,否则有可能构成侵权。 对深度伪造技术的处理,今天也是一个重大问题。 对于这个深度伪造的规范,还是要回到民法典1019条的规定上来。按照这条规定,要禁止利用深度伪造技术侵害他人权益。这就是为了防止服务提供者,利用深度伪造技术侵害他人权益所做出的一个明确的具体的规范。关键是怎么解释好这条规则来应对这个生成式人工智能中深度伪造的问题。还有现在实践中已经出现了擅自制作数字人,未经他人同意,就是制作某人的数字人在网上为他人直播带货等,这实际上也是一种深度伪造,应当按照民法典1019条的规定进行规范。 总之,生成式人工智能发展伴随着风险和挑战,但是我们还是要秉持在发展中规范,在规范中发展的监管理念。面对新领域新技术新挑战,应该秉持一种审慎、包容、开放的理念,保障人工智能在安全可靠可控的前提下有序发展,营造鼓励创新的良好的营商环境。