【直播微视评|#别让AI成了偷声音的工具#】#仅用5秒语音骗子就能复刻你的声纹#接到陌生电话,千万不要先开口说话,这是业内人士发出的紧急提醒。据《湖北日报》消息,武汉一家科技公司负责人介绍说,根据目前的技术水平,5到10秒的语音样本,就足以完整提取一个人的声纹特征。换句话说,接到可疑电话,你还在嘲笑对方的口音,或者应付几句人畜无害的闲聊,殊不知,对方已经可以用这么短短的几句话,通过AI技术复刻你的声音。接下来可能发生的,就是你的家人接到电话,听到那熟悉的“你的声音”:“爸妈,我手机丢了,急需用钱。”然后毫不怀疑地转账,从而受骗。
谁能想到,不法分子根本就不需要你直接上套,只要你开口说话就够了;谁能想到,5秒钟挂断、10秒钟挂断这种谍战剧中的桥段,可能成为我们日常需要注意的事项。专家提出防范建议:一是不要随意和陌生电话“闲聊”;其次,不仅“闲聊”要小心,发送语音留言也要谨慎,因为这样的音频同样能被使用;此外,作为最后一道防线,要提醒家人,光凭“声音”辨别身份已经信不足了,遇到转账、要钱的要求,最好多方核实。
其实此前,已经有不少知名人士,遭遇了声音被复制侵权的局面。比如一段AI生成的电影《哪吒》配音,让配音演员本人听了后,都大为震惊。据《央广网》的报道,哪吒的配音演员吕艳婷,还有太乙真人的配音演员张珈铭相继声明,抵制未经授权的AI仿声。相关人士还呼吁,除了加强自身防范和事后维权,还应该把关口前移,从技术研发和行业规则层面提前设防。比如说,允不允许软件合成我的声音,允不允许别人使用我的声音,即使允许使用,时间和范围有没有限制,这些都应该在软件开发、使用流程上做出规范,从源头保护好公民的“声音权”,不让AI成为“偷声音”的工具。 http://t.cn/AXIGLXby
