【#3秒素材即可声音克隆#?#AI盗声乱象何时休#?】#声音克隆AI侵权门槛低#记者梳理发现,AI 声音侵权的受害者并非只有配音演员,大量具备公众知名度与社会影响力的艺人、公众人物,同样深陷 “偷声” 困境。此前,杨幂工作室就披露了一起 AI 伪造声音侵权案的胜诉详情:法院审理查明,被告未经授权,使用 AI 技术合成杨幂的声音,搭配其肖像制作推广视频对外公开传播,假借杨幂的名义开展商业营销活动,最终认定被告行为已侵犯杨幂的肖像权与声音权益。
但与此同时,维权之路依然漫长且艰难。在配音演员集体发声后,3 月,林景在社交平台更新了2024年被AI短剧侵权的“下文”:从侵权行为出现,他和团队开始积极沟通却没有任何回应,此后诉诸法律,多番努力在300多天后才成功立案,“等到25年9月终于成功开庭,现在26年3月,我们尚在等待判决结果。”
北京市中伦文德律师事务所上海分所合伙人李宇明律师告诉记者,《民法典》首次以立法形式确立了自然人声音权益的保护规则,明确对自然人声音的保护参照适用肖像权保护的相关规定。从近年的司法判例来看,AI 声音侵权认定的核心要件,是判断合成声音与对应自然人之间是否具备 “可识别性”。
“如果普通公众能够通过 AI 合成声音的音色、咬字习惯、语调和发音特点,明确关联到特定自然人,即可认定该声音具备可识别性,相关行为构成对自然人人格权中声音权益的侵害。”他解释道:“对于配音演员而言,其声音在特定圈层的受众中具备极高辨识度,只要其固定受众能够将 AI 合成声音与该演员建立明确对应关系,同样可以认定具备可识别性。”
除了认定标准的适用问题,维权的另一大核心难点在于取证。李律师介绍,司法实践中,证明侵权行为成立主要有三类核心举证路径:一是委托具备司法鉴定资质的专业机构,对 AI 合成声音与权利人原声进行声纹同一性鉴定;二是调取涉案 AI 模型使用权利人声音作为训练素材的直接证据,或申请法院依法调取相关训练数据;三是收集普通公众、行业从业者对合成声音与权利人声音的关联性认知评论,佐证声音的可识别性。“但在具体实践中,网络上传播的 AI 克隆声音大多经过了多次二次加工,调整情感表达、升降音色、变速变调等操作,可能对鉴定结果与证据效力产生直接影响。”
他同时提醒,即便相关主体已获得配音演员某一录音制品的完整著作权,也无权未经权利人本人授权,将该录音制品用于 AI 配音模型训练、开发商业化衍生产品。“录音制品的著作权,与自然人本身的声音人格权是相互独立的两项权利。只要权利人未明确同意将自身声音用于 AI 模型训练与开发,擅自使用即构成侵权。”而一旦侵权事实成立,直接实施侵权行为的主体需承担停止侵害、消除影响、赔礼道歉及赔偿损失的法律责任,下游的内容平台、相关经销商也负有及时采取下架、屏蔽等处置措施的法定义务。http://t.cn/AXf1UDYb
