AI狂飙下的权利边界:人格权益侵权纠纷解析与合规应对

发布时间:2025-06-18

文 | 张释文 汇业律师事务所 合伙人

本文聚焦AI技术发展背景下人格权侵权问题,结合AI应用场景中的人格权使用现状、理论与案例及相关法律服务经验,旨在剖析人格权侵权认定与维权实务在AI时代面临的挑战,探讨合规边界,希望能从实务角度提供前瞻性思考。

一、AI应用场景中的人格权使用与侵权现状

在数字经济蓬勃发展的当下,人工智能技术已深度融入社会生活的各个领域。从娱乐平台的AI换脸特效,到配音行业的声音克隆技术,再到智能客服、虚拟主播等新兴应用,AI技术在为用户带来便利与创新体验的同时,也引发了对人格权、人格利益的侵权高发。明星艺人作为公众人物,由于肖像与声音具有极高的商业价值与辨识度,更是成为AI侵权的重灾区。

基于为诸多明星艺人长期提供法律服务的经验,笔者团队所主办处置的、针对明星艺人的各类人格权与人格利益的侵权情形层出不穷,几乎囊括和集中反映了现阶段AI技术下的各类人格权侵权场景,如:有通过AI“换脸”虚构明星直播和视频带货的;有通过AI技术合成明星“形象”植入商业广告进行宣传的;有品牌在与明星艺人合作结束后,擅自制作合作明星的数字AI版,继续“挖掘”代言合作权益的;也有黑粉或者对家粉丝通过AI技术将不喜欢的明星形象用于恶搞视频和荒诞剧情中丑化明星的。

在声音领域,由于AI技术可轻松克隆明星声音,有擅自制作明星的AI语音包向其粉丝群体销售的;有“如假包换”的AI歌手音频演唱;有利用AI技术克隆明星声音进行带货的、用于商业广告的、甚至用于恶搞视频中的各种侵权情形。

此外,部分用户利用AI生成工具编造明星八卦谣言的虚假新闻;AI合成明星头像的视频中,侮辱诽谤内容也时有出现。这些AI生成的虚假、恶意内容,迅速扩散,引发公众的误解与负面评价,对明星的名誉也造成极大损害。

这些现象都表明,AI技术的快速发展与广泛应用,带来复杂的人格权侵权界定与保护问题,传统的人格权保护模式正面临前所未有的挑战。

二、AI技术发展对人格权保护法律体系带来的挑战

人格权是民事主体对其特定人格利益所享有的权利。我国《民法典》第四编明确规定了生命权、身体权、健康权、姓名权、名称权、肖像权、名誉权、荣誉权、隐私权等一系列具体人格权,除具体人格权外,自然人也享有基于人身自由、人格尊严产生的其他人格权益。典型的比如声音权益,在现行法律框架内虽然没有规定独立的“声音权”作为具体人格权,但《民法典》在第1023条第2款进行了法定类推,规定了“对自然人声音的保护,参照适用肖像权保护的有关规定”,这意味着包括如《民法典》第1021条、第1022条关于肖像许可使用合同的规定,《民法典》第1019条禁止他人擅自制作、使用、公开肖像权人的肖像的规定,《民法典》第1020条肖像合理使用规则的各肖像权保护规则都可直接适用于声音权的保护。

在AI应用场景下,传统人格权理论与侵权认定四要件仍适用。认定侵权行为从侵害行为、侵害后果、因果关系、主观过错等方面综合考量,第一,侵害行为的违法性是逻辑起点,表现为违反禁止性规定的行为或未履行法定的作为义务(如医疗机构未尽诊疗义务),但可通过法定事由(如正当防卫)来阻却违法性。第二,侵害后果分为多种,财产损害以经济损失为核心,人身损害涵盖生命权、健康权等物理性损害,精神损害则需达到“严重”程度。第三,因果关系常见递进式判断,先以“若无则不”公式确认事实关联(如未实施欺诈则无交易损失),再以“相当性说”排除偶然因素(如轻微争吵诱发特殊体质者疾病通常不具相当性),最后以“法规目的说”限定责任范围(如交通法规是否保护第三人心理损害),多因一果情形则需区分累积因果与部分因果以分配责任。第四,主观过错体现行为人可责难性:故意包括直接追求损害(如恶意诽谤)与放任结果(如高空抛物未防护),过失以“理性人标准”判断(如医生未尽同业诊疗义务),特殊场景适用过错推定(如建筑物搁置物脱落),受害人过错可按比例减免责任。

然而,AI技术的独特性也使传统理论面临诸多挑战。首先如AI生成内容的侵权主体的认定,一个侵权作品的产生可能涉及AI开发者、使用者、数据提供者等多个主体,界定侵权主体以及各方责任如何精准划分存在一定难度;再如AI算法的黑箱性导致损害结果与侵权行为之间的“因果关系”认定更为复杂,并且在举证环节也面临更多的挑战。另外,在损害赔偿量化上,AI侵权对明星名誉、商业价值的损害难以精确衡量。例如某艺人因AI侮辱诽谤视频,造成大量负面舆情导致商业代言数量减少,但如何确定对应的因果关系以及如何量化该视频对其商业价值的影响,也是司法实践中的棘手问题。

三、AI语境下常见的人格权益侵权纠纷解析

(一) AI语境下声音权益的侵权与保护

随着深度学习算法的进步,AI语音克隆技术仅需一段“原声”,经模型学习与训练,就能高度模拟任何人的声音。声音权侵权案件虽数量较少,正如前面所说,在现行法律框架内尚没有规定独立的“声音权”,但其随着语音合成技术的普及正逐渐显现,其核心争议聚焦于人工智能生成声音的“可识别性”认定标准。

案例:殷某与北京某智能科技公司等人格权纠纷案(全国首例人工智能生成声音人格权侵权案,人民法院案例库入库编号2025-07-2-474-001,(2023)京0491民初12142号)

简要案情:本案中,原告接受被告二的委托录制录音制品,被告二为著作权人。随后,被告二某将原告案涉录音制品的录音数据无权授权并提供给被告三。被告三以上述录音制品为素材,采用人工智能等技术进行处理,生成了案涉文本转语音产品,并在被告四运营的平台在线对外出售。被告一与被告五签订在线服务买卖合同,由被告五向被告三下单采购,其中包括了案涉文本转语音产品。被告一采取应用程序接口形式,在未经技术处理的情况下,直接调取并生成文本转语音产品在其平台中使用。后,原告发现他人利用其配音制作的作品广泛流传,因此成讼。北京互联网法院最终认定五被告之行为构成对原告声音权益之侵害,其中,被告一、被告四、被告五主观上不存在过错,不承担损害赔偿责任,但被告一需书面赔礼道歉。

ed4f8fba194b5e639d9f38249ae6e95.png

(张释文团队制图)

从图中可以看到,本案完整展现了AI生成声音从采集到市场端用户使用的上下游全链条,涉及到各个主体。

通常来讲,人格权、著作权等案件的立论逻辑相对清晰。一是判断是否有权。判断有“权”是“维权”的前提。在“有权”的判断上,常见问:是谁有权?以及有什么权?前者常用来判断是否为适格主体,后者则要回归对权利的构成要件的判断。具体到案涉的声音权益,声音具有可识别性是声音权益保护的基础,进一步具体到本案中,声音的可识别性所对应的问题则在于:原告声音权益是否及于案涉AI声音?这也成为本案的焦点问题。二是判断是否构成侵权。这将结合可能存在的合法阻却事由(比如是否有授权、授权是否囊括该行为),具体从侵害行为、侵害后果、因果关系、主观过错等几个要件来判断,并且。由于AI技术的使用,案涉焦点将在于判断“侵权行为”与“因果关系”上,具体而言应是分为两个侵权行为:未经许可使用其声音作为“素材投喂”用于AI训练以及未经许可使用经AI技术生成的该声音。三是如果构成侵权的,判断应当承担何种法律责任及赔偿数额。

本案中,法院认为“原告声音权益及于涉案人工智能声音”,未经许可使用原告声音构成侵权,赔偿损失应当考量被告侵权情节、同类市场产品价值等因素。而认定“原告声音权益及于涉案人工智能声音”的关键在于“利用人工智能合成的声音,如果能使一般社会公众或者相关领域的公众根据其音色、语调和发音风格,关联到该自然人,可以认定为具有可识别性。”不难看出,法院采取的自然人声音可识别性的判断标准为社会一般公众标准,主要判断依据为“音色、语调和发音风格”。该标准的适用对应着本案里两个特殊性,一方面原告作为声音具有显著识别性的知名配音演员,另一方面涉案的人工智能生成声音与原告自然人声音高度相似。如果二者缺一,都可能带来不同的结果。或者说,声音权益保护的核心在于其可识别的原则之下,对于“可识别”的判断标准,仍可有进一步的探讨空间。

其实本案还有一个非常值得挖掘和注意的关于人格权益与著作权交叉的法律问题,即案件中关于被告二某文化公司作为邀请配音演员(原告)、为其录制录音制品并为此支付对价的主体,根据约定所享有的是对原告配音而成的录音制品的著作权。而被告二某文化公司的侵权在于超越其原本所享有的录音制品的著作权,向被告三某软件公司授权允许其使用、复制、修改数据用于其产品及服务。而被告三基于此授权,将被告二某文化公司所提供的原告的这部录音制品作为素材投喂AI进行处理,通过AI生成了最终的涉案声音。

这也是非常典型的常见文娱行业从业主体经常存在的误区,未能识别和厘清所采购的权利,笼统的认为只要支付了对价就获得了可以任意处置或使用的权利,而导致侵权。这其中所涉及的声音权与著作权,尤其是录音(录像)制品著作权的特殊性,是值得文娱行业从业主体引起注意的。

人格权(益)常与知识产权存在交叉,但人格权益本身,并不是知识产权的客体。这点不是我们在此需展开的内容。但是从声音权益保护的角度引申来看,声音权益的保护路径在现行法律体系下并不仅限于前述人格权保护的方式,其他保护路径如:对于人格权所复合形成的“作品”,达到独创性标准的则可能通过著作权进行保护;具备显著性等等条件的声音也可以通过申请注册语音商标进行保护;根据具体自然人声音的使用场景,比如通过保护表演者权利也可以保护表演者的声音权益。此外,针对AI声音的训练过程,若存在“可识别”的包括声音特征在内的个人数据,还可能通过个人信息保护的方式。

回到声音权益本身,按照权利法定原则,声音权益是作为受《民法典》人格权编保护的独立人格利益而非独立的具体人格权类型。正因如此,基于自然人原声而AI化生成的声音并非当然作为“声音权”权利对象,如果设想个更突出一点的场景,若是:基于自然人原声的AI化声音生成者与原声自然人之间对该AI生成声音产生纠纷,可能会带来更进一步的法条运用难题。

实践中,虽然声音权益常常和其他人格权绑定在一起出现,但声音本身能够具有能够单独识别个人身份的可能性,并不必然依赖于肖像、姓名等其他权利进行识别,也是受到人格权编保护的独立人格利益。而随着AI声音合成等技术日臻精进并且运用广泛,对于声音的独立利用方式也将越来越多样化,声音权益所对应的人格意义、财产意义上的风险会越来越高,发生纠纷的可能性也大大增加,明确AI声音技术应用中的侵权边界也会越来越必要和成熟。同样可以看到,随着未来科技发展的现状以及司法实践的经验发展,声音权益纳入具体人格权也将是一个趋势。

(二) AI语境下肖像权的侵权与保护

在我们接受委托咨询的场景中,肖像权被侵害是人工智能侵权中最为常见的情况,侵害场景也最为多样,包括如AI换脸、AI伪造明星代言、AI虚拟主播等等。但实际在司法实践中,这类案件的裁判思路似乎尚未成熟,仍有很大的探讨空间或者说争取空间。

在涉及利用网红短视频制作AI换脸模板的案件中,法院对是否构成肖像权侵权存在不同认定。有一些法院倾向于认为,当换脸技术去除了原视频人物的面部特征后,仅保留其妆容、发型、服饰、动作、灯光及镜头切换等要素,由于这些要素并非与生俱来的人格核心特征,且社会一般人无法据此识别特定自然人,故该换脸模板不构成对原视频人物肖像权的侵害(如廖某案)。而几乎同样的情形,另有法院认为,即使抹去了面貌信息,只要视频模板中保留的体貌特征(如标志性造型、动作等)足以使相关受众群体(如博主的粉丝)识别出特定自然人,则该模板仍属于肖像范畴,未经授权使用即构成肖像权侵权(如赵某案、彭某案)。

这显示了实践中不同法院对“肖像”的“可识别性”认定标准有不同把握,尤其对于后天形成的、具有显著个人标识意义的体貌特征(如标志性造型、妆容、独特服饰配饰、纹身、动作)是否足以“识别”特定自然人而相应纳入肖像权保护范围。

此外,在肖像权侵权认定中,存在一种观点认为,当制作方利用信息技术手段对图像、视频中的人脸等生物特征进行生成或编辑,导致人脸替换效果,破坏肖像与主体的同一性,即构成对肖像权的侵害。然而,从逻辑层面分析,肖像与主体的同一性破坏程度和可识别性呈反比关系,即同一性破坏越严重,可识别性越弱,权利人肖像权受侵害的程度也随之降低,极端情况下甚至不构成侵权。因此,“同一性破坏”本质上仍是通过证成“可识别性”来影响侵权认定,而非独立于可识别性的标准。

(三)AI语境下名誉权的侵权与保护

AI生成内容中复合着自然人声音、肖像、姓名等使用行为的侮辱、诽谤性内容,能够直接指向自然人本人,并且导致本人“社会评价显著降低”的情形,往往同时构成名誉权侵权。同样的,利用AI生成工具编造企业主体的虚假新闻(比如产品质量缺陷等),导致企业负面社会评价的情形,同样可能构成对企业的名誉权侵权。

名誉权的侵权与维权在实践中具有诸多需要注意的事项,结合过往的大量名誉权合规保护与维权处置经验,我们撰写了《名誉权纠纷实务指引》手册,即将择日发布,总计逾四万字,内容包括取证实务、维权指引等名誉权维权全流程各个版块的实务详解。同时,我们结合各企业商誉保护的需求,提供事前预防、事中处理SOP与事后应对的完整服务,为企业建立名誉权维权保护、负面舆情处置、危机公关应对一天三面相结合的的长效合规机制。

 (四)AI语境下一般人格利益的侵权与保护

当人工智能技术对自然人的人格要素进行系统性整合与商业化利用时,有可能突破具体具体人格权的规制范畴,而通过一般人格利益“兜底保护”的方式,也作为综合型人格利益受侵害应当如何进行适当保护问题的回应。

在我们接受委托咨询评估的场景里,有很多是明星艺人的本人形象被软件“内置”,作为可供用户选择的线上“陪伴者”或者近似的情况。在用户的指令下,明星陪伴者同用户进行互动,并且根据用户的偏好喜好调整“人物性格”、说话方式、动态表情等等,妥妥一位深谙用户喜好、按照用户训练而成的明星虚拟人。此时,这位明星艺人的姓名、肖像、性格等等人格要素综合而成的整体形象被投射到虚拟的人物角色上,整体“拟真”呈现、被用户“自由调整”,比如在用户的长期调整与具体指令下,做出各种甚至可能有损人格尊严的对话或者互动。这已经超出了单独某项具体人格权的射程,落入一般人格利益保护的范围,应当认为侵权者侵犯了自然人的整体人格形象和人格尊严。

99833fe405e949d69a0116a53ae5a5b.png

四、AI产业链主体的合规提示

从AI技术场景下人格权侵权界定与保护问题出发,除了以上从维权的角度对于人格权益主体的提示外,反过来对于AI产业链各环节主体(研发企业、数据提供方、平台方、内容创作者等)在业务开发、技术使用过程中相关的合规要求也给到了更明确的提示。AI企业结合精准的法律风险要件识别,充分利用人工与智能算法结合的双重审核机制在数据来源、数据处理、研发与使用、市场推广、用户行为管理等各层面寻求技术应用与风险控制间的平衡。

参考文献:

[1] 王利明.《民法典》人格权编的立法亮点、特色与适用[J].法律适用,2020(17):3-21.

[2] 朱晓峰.论人格权侵权责任认定中的构成要件与利益权衡[J].法学评论,2024(01):89-111.

[3] 刘凯湘.民法典人格权编的规范功能与司法适用[J].暨南学报(哲学社会科学版),2023,45(08):34-47.

[4] 王利明.论声音权益的法律保护模式[J].财经法学,2024(01):3-20.

[5] 朱溯蓉.语音生成式人工智能的风险与治理[J].电子科技大学学报(社科版),2025,27(03):1-10.

*谢卓元对本文亦有重要贡献


返回列表