#AI视频再逼真也有一股AI味#【AI换脸致虚假信息泛滥 中国科学院自动化所董晶:必须建立一套从生成到传播全链路可追溯的可信体系】作为IEEE亚太区执委、中国科学院自动化所研究员,董晶是专注AI生成与内容安全双向研究的学者。
董晶的课题组同时开展两个方向的研究:一边是AI生成技术,让机器学会“造人”;一边是AI检测技术,帮系统精准辨伪。
“不妨让二者battle(对抗)一下:一边做出生成技术,另一边拿去检测是否存在安全风险,再据此迭代优化。”董晶说,“这就相当于自己跟自己对抗,一边造、一边查,在内部形成攻防博弈。”
以前说“有图有真相”,现在视频也可能是假的。技术层面还能有效识别吗?董晶表示,目前仍然可以有效识别。现在抖音快手很多短视频都要求标注是不是AI生成,主动标注当然好,但更多的可能不标,就需要检测技术跟上来。
董晶表示,从技术角度分析,比如生成出来的图是不是真彩色更强,很多时候你会发现它比一般视频拍得更漂亮、更炫酷。从像素层面,它的连续性、边缘效应可能有特定规律,就像模型有自己的“指纹”。还有就是从大量数据中学到的一些不太好定义的经验特征,可以帮助我们给出一个概率判断。AI生成再逼真,也会留下物理、几何、时序上的细微痕迹:光影不一致、微结构扭曲、时间不连贯等。人眼看不出来,但算法可以捕捉。
董晶表示,他们目前研究发现,AI生成视频的检测难度有一明显特性:视频场景频繁切换、不连续(如频繁跳场),会因引入大量无序扰动信息,显著增加检测难度。反之,视频保持几秒连续稳定、连续性特征越多,越利于检测——连续场景可减少扰动,便于捕捉生成视频的固有伪造痕迹,提升检测效果。
董晶认为,现阶段检测仍然略占优势,但双方处于持续拉锯。生成追求视觉逼真,检测抓的是物理规律、几何一致性、模型痕迹这些人类难以察觉的底层漏洞。短期看,新生成方法刚出现时,检测会短暂滞后,但很快能追上。长期看,赛道会发生变化,未来不再是单纯攻防,而是可信水印、生成溯源、多模态校验、全链路合规的主动防御体系。(每经,德塔)http://t.cn/AXVxrXom
