【1秒音频就能克隆你的声音!AI“盗声”时代如何自保?】
近日,央视记者跟随网络安全专家进行了一场令人震惊的实验:记者录制一句话的音频,专家仅截取其中1秒作为样本,短短几秒后,克隆出的声音就能朗读从未录制过的文字,音色、语调与原声高度相似!
技术门槛低到可怕
如今,AI声音克隆已不再是高科技专利。浙江大学研究显示,攻击者仅需一句你的声音样本,就能“克隆”出足以欺骗人耳和语音认证系统的AI语音。在应用商店,相关App下载量最高超千万次,普通用户也能轻松操作。
滥用风险触目惊心
这项技术正被不法分子用于电信诈骗。湖北黄石曾发生多起AI拟声诈骗案,犯罪分子克隆老人“孙子”的声音,以各种理由骗取钱财。更令人担忧的是,研究显示克隆语音对语音认证系统的攻击成功率超过80%,人耳分辨准确率低于50%。
如何为声音“上锁”?
1. 法律保护:我国民法典第1023条明确将声音参照肖像权进行保护。《人工智能生成合成内容标识办法》要求AI生成内容必须添加标识。
2. 技术防护:平台需建立健全审核机制,及时发现侵权内容。
3. 个人防范:谨慎发布清晰语音,遇到“语音求助”务必通过其他方式核实。
你的声音可能正在被“偷”!你遇到过类似情况吗?在评论区分享你的经历和看法,一起探讨如何在这个AI时代保护我们的声音权益。
#央视揭AI仿声乱象#
发布于 广东
