36氪 26-04-09 16:03
微博认证:36氪官方微博

【#央视揭AI仿声乱象#,1秒音频即可克隆声音,技术滥用风险加剧】
据央视新闻消息,近日总台记者跟随网络安全专家做了一场声音克隆实验。记者录制了一句话的音频,专家随意截取其中1秒作为克隆样本,仅几秒后,记者的克隆声音便朗读出一段从未录制过的文字,音色、语调与原声高度相似。专家介绍,后期对语速、语气微调即可以假乱真。随着AI克隆声音技术使用门槛持续降低,技术滥用风险正不断加剧。

据新华社“新华视点”调查,AI声音滥用现象已十分突出。在短视频平台,以“AI克隆声音”为关键词可检索出大量明星翻唱、新闻播报、吐槽点评等视频,部分包含不雅词汇。此前,某知名企业家声音被AI模仿吐槽堵车、调休等,甚至出现脏话,当事人回应称“挺困扰,希望大家都不要‘玩’了”。张文宏医生、胖东来创始人于东来等名人也曾遭遇声音被AI合成用于直播带货或误导性文案。此外,不法分子通过“AI换声”仿冒老人孙子,以“打人须赔偿”为由诈骗2万元;全国已发生多起类似案件,有的诈骗金额达上百万元。

声音是如何被“偷”走的?专家介绍,AI依靠深度学习算法,从采集的声音样本中提取频率、音色、语速等特征,记录为数学模型再合成。随着算法升级,AI语音从“一眼假”变为“真假难辨”。大量App可进行AI合成声音,最快只需十几秒,记者实测某付费App无需授权即可生成名人声音。

在法律层面,个人声音中的声纹信息属于敏感个人信息。2024年4月,北京互联网法院宣判全国首例“AI声音侵权案”,明确自然人声音权益保护范围可及于AI生成声音。近年来,有关部门出台《生成式人工智能服务管理暂行办法》等规定,划定红线。专家建议细化规则、强化平台审核,个人也需提高生物特征信息保护意识。