娱乐法李振武 26-03-18 21:45
微博认证:上海理振律师事务所主任、律师

#配音演员集体呼吁抵制AI侵权#

关于这个热点,之前接受@新京报文娱 记者访问,我做了长长的回答,贴出来,给各位阅读。

这是真的侵权,配音演员的权利值得重视。

@729声工场

以下为采访文章链接:

http://t.cn/AXVr31Mh

采访内容:

此次行业头部公司的配音演员集体发声,或将成为推动现状改变的重要节点。在此背景下,声明函本身具备怎样的法律效力?声音被AI侵权后,平台应承担何种法律责任?个人二次创作是否会受到影响?围绕上述问题,新京报记者吴龙珍专访上海理振律师事务所主任、律师李振武,请其从法律视角对配音演员声音权的保护路径进行解读。

【对话】

新京报:今天多位729声工场的配音演员同天发布这份声明。从法律专业角度看,这份声明的性质是什么?

李振武:从法律性质上看,这份由众多配音演员联合发布的声明,是一份针对不特定多数人的、公开的“权利警告函”。其核心功能是公开宣告其对其声音享有法定的声音权益,同时也预先告知社会公众,特别是AI技术开发者、平台及用户,任何未经许可的特定使用行为均被权利人所禁止,这为后续可能的法律行动(如发送侵权通知、提起诉讼)奠定了事实和证据基础。

新京报:声明特别强调了“包括但不限于AI工具或产品”,并列举了多种侵权形式(采集、生成、内置样本、授权他人等)。这种列举式的表述,在法律上有何特殊考量?

李振武:我觉得这个表达是明智的。

首先,它明确将当前最突出、最迫切的侵权形式(如AI声音克隆、合成)纳入禁止范围,避免侵权方以“声明未明确提及”为由进行抗辩。

第二,“采集、生成、内置样本、授权他人等”的表述,旨在涵盖现有和未来可能出现的所有利用形式。它不仅禁止最终的“生成”行为,也禁止前端的“采集”(比如训练数据获取)行为,从源头进行控制。我认为这也符合民法典对人格权保护的全面性原则,也呼应了《生成式人工智能服务管理暂行办法》中关于使用数据进行训练应取得相关授权的相关规定。

新京报:声明的第1、2条指向“采集声音”和“生成AI音频”的主体。结合全国首例AI生成声音人格权侵权案(殷某某案),该案中,文化公司认为自己拥有录音制品著作权,就可以授权AI使用。这是否是行业常见的认知误区?著作权和声音权的边界到底在哪里?

李振武:误区主要在于认为“拥有录音制作者权,就自然获得了对录音中声音这一人格要素进行商业化利用的授权”。

其实两者的边界非常清晰:录音制作者权保护的是创作成果本身,即录音制品作为“作品”或“制品”的独创性表达、复制、发行、信息网络传播等财产性权利。权利人有权处置“这份录音”的使用。但声音权作为人格权,保护的是自然人声音本身所具有的人身专属性与人格利益。它保护的是声音中的身份识别特征、情感表达等人格属性,禁止未经许可的录制、使用、歪曲、篡改或用于商业性活动。

这里的核心边界就在于:对录音制品的合法使用,不等于可以剥离其中的声音特征用于创造新的、独立于原录音的表达(如AI训练和生成)。从行业实践来看,配音演员在这类配音合同中往往仅授权在此次录音中使用,而不能超过范围使用配音演员的声音,更不可能脱离当次合作授权AI制作使用。

殷某某案的判决也明确了,使用他人声音训练AI模型,必须获得声音权人的明确、单独的授权,仅凭录音制品著作权无法覆盖此用途。

新京报:声明第5条提到“请勿发布含有我声音的AI作品,即使标注‘转载’、‘二创’、‘学习交流’等免责声明”。从法律上看,标注“非商用”或“学习交流”能否免责?什么情况下可以免责?什么情况下不能?

李振武:标注“非商用”或“学习交流”不能当然免责。

是否构成侵权,核心在于使用行为本身是否落入权利禁止的范围,以及是否符合法律规定的免责事由。如果行为本身构成了对权利人声音的非法复制、制作、公开传播其AI合成品,即便标注“非商用”,仍可能侵害权利人的声音权。

声音权作为人格权,其免责情形应参照适用肖像权的规定。根据《中华人民共和国民法典》第一千零二十条关于肖像权合理使用的规定,下列行为可以不经肖像权人同意,这些原则在司法实践中可参照适用于声音权:

* 为个人学习、艺术欣赏、课堂教学或者科学研究,在必要范围内使用。
* 为实施新闻报道,不可避免地使用。
* 为依法履行职责,国家机关在必要范围内使用。
* 为展示特定公共环境,不可避免地使用。
* 为维护公共利益或者肖像权人合法权益,制作、使用、公开肖像权人的肖像的其他行为。

我认为,在AI生成声音的语境下,这些情形的适用极为严格且狭窄:上述所有情形都必须遵循“在必要范围内”和“不可避免地使用”等严格限制条件,且不得以丑化、污损,或者利用信息技术手段伪造等方式侵害权利人的合法权益。

据此,具体到AI声音:如果仅限于个人在完全私密、非公开的环境下,使用极少量声音样本进行技术实验或学习,可能构成免责。但一旦涉及对声音的复制、生成并向任何第三方(包括网络平台)传播,就很难被认定为“个人使用”和“必要范围”。

其次,在课堂教学中,为讲解语音合成技术而播放一段AI生成的对比音频,可能属于合理使用。但将其作为“二创”作品公开发布,则超出了必要的教学演示范围。

最后,如为报道某AI侵权事件而播放涉事侵权音频片段,可能适用。

新京报:据《互联网信息服务深度合成管理规定》和2025年9月施行的《人工智能生成合成内容标识办法》,平台对AI生成内容负有一些法定义务,但是相比明星换脸,声音更难以辨识,声音相似的人也有不少,这会对平台产生更难审核的问题吗?这可以作为抗辩理由吗?

李振武:相比视觉换脸,声音的相似性判断更具主观性,且存在自然音色相近的情况,这给平台的事前主动审查带来了巨大技术挑战,但不能作为完全的抗辩理由。

审核难度不影响平台在接到权利人明确、具体的侵权通知(如提供原声音样本、侵权内容链接、对比说明)后的处理义务。此时平台已“明知”或“应知”侵权可能,必须采取行动。

司法实践中,判断平台是否尽到注意义务时,会考虑现有技术水平。如果已有相对成熟的声纹识别、AI内容检测技术,且成本合理,平台有义务引入并运用这些技术进行一定程度的过滤和拦截。如果某个AI声音作品已被广泛传播并明确指向某位知名配音演员(如标题直接使用其姓名),其侵权事实像“红旗”一样明显(源于“红旗原则”,是指当网络服务提供者明知或应知其平台上存在侵权内容,且该侵权内容如同“红旗”般显而易见),平台不能以审核难为由推卸责任。

因此,审核难度可以作为平台主张其无法做到100%事前过滤的理由,但不能免除其在收到通知后的处理义务,以及在技术可行范围内采取合理预防措施的责任。

新京报:从平台视角看,如果接到此次张福正这样的声明或投诉,平台依法应在多长时间内处理?“通知-删除”规则的适用标准是什么?

李振武:我国法律未规定统一、精确的小时数,但要求“及时”,且从实践来看,各平台的处理时效也不太一致。

“通知-删除”规则的适用标准:

首先,通知必须合格有效。通知应包括权利人的真实身份信息和构成侵权的初步证据。初步证据应能准确定位侵权内容(如具体URL链接)并说明侵权事实(如声音对比)。如有委托他人举报的,还应该有明确的授权手续。

其次,平台需进行初步审查。平台需对通知进行形式审查,判断其是否合格。对于合格通知,应及时转送被投诉用户,并依据初步证据判断是否采取删除等措施。

第三,采取“必要措施”。措施不限于删除,应根据侵权严重程度选择,包括屏蔽、断开链接、终止服务等。

新京报:如果侵权内容播放量巨大,但侵权方并未直接获利(比如只是上传供网友免费观看),赔偿金额会受影响吗?

李振武:即使侵权方未直接获利,仍需承担赔偿责任。

即使侵权人未直接获利,巨大的播放量是法院酌定赔偿时至关重要的情节。它直接体现了侵权行为的传播范围、损害后果的严重程度以及对权利人声音商业价值的稀释影响。在殷某某案中,法院正是综合考量了产品播放量超过32亿次、侵权行为性质、原告声音价值等因素,酌定判决赔偿经济损失。因此,播放量是支撑较高赔偿额的关键依据。

新京报:如果未来有平台希望合法获得CV的授权进行AI训练,授权协议应该包含哪些核心条款?

李振武:一份完备的AI声音训练授权协议应至少包含以下核心条款:授权标的(明确具体声音样本);授权性质与范围(明确是否独家、是否可转授权、具体使用场景及禁止场景);衍生成果权利归属(明确AI模型及其输出内容的知识产权与相关权益分配);报酬与支付方式;人身权利保护(署名方式、禁止损害名誉的使用);数据安全与隐私保护义务等。协议的关键在于权利链条清晰、使用场景具体。

新京报:从更宏观的视角看,我国目前关于声音权的法律保护框架是否足够应对AI时代的挑战?

李振武:我国已初步构建起应对AI时代声音权挑战的法律框架:民法典确立了声音权的人格权地位;司法案例明确了AI声音可识别即受保护的核心规则;《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等规定了AI生成内容的标识与管理义务。因此,我觉得在立法层面已经足够应付。但在具体实践中仍需细化法律规定,例如在具体授权机制、侵权认定的技术标准、平台责任与技术可行的平衡以及行业自律标准等方面,仍有待进一步细化。

#e法同行##729声工场#

发布于 上海