IT烟酒僧 26-04-09 16:01
微博认证:微博新知博主 科技博主

#央视揭AI仿声乱象#太吓人了!真没想到AI盗声已经离谱到这种地步——1秒音频就能偷走声音,几秒钟克隆出以假乱真的语音,音色语调几乎一模一样。

技术门槛低到可怕:网上随便一款工具,不用专业知识,上传几秒语音就能复刻声线。黑产更是疯狂,克隆亲友声音骗老人、仿名人带货、恶搞造谣,诈骗金额动辄几万几十万。全红婵、孙颖莎等冠军声音被仿冒卖货,单条视频点赞破万、销量数万;配音演员声线被盗用成库,50字配音不到1元,侵权泛滥。

更糟的是,仿声比换脸更隐蔽,普通人难分辨。《民法典》虽明确声音参照肖像权保护,但鉴定难、维权贵、跨平台追责难,侵权成本低、代价小,黑产愈演愈烈。

技术是把双刃剑,便利背后是巨大风险。必须给AI声音上锁:平台要强制水印、严审侵权;工具方要实名、留痕、禁非法用途;监管要细化规则、严惩滥用;我们也要少发语音、警惕陌生来电。

别等被骗、被侵权才重视!你的声音很珍贵,保护声纹,就是保护财产与隐私。技术向善不能只靠自觉,必须法律+技术+监管共治,守住安全底线。 http://t.cn/AXM5vQ0Y

发布于 河南