讲个故事。
某公司财务王女士接到了一个让她毕生难忘的视频通话。屏幕那头,是她再熟悉不过的董事长——同样的脸型,同样的声音,连说话时微微皱眉的习惯都一模一样。董事长语气急促,说有个紧急业务需要立刻转账280万元到指定账户,并准确说出了公司最近几个项目的细节。视频画面清晰流畅,毫无破绽。王女士只犹豫了三秒钟,就在系统里完成了审批。她不知道的是,屏幕那头的“董事长”,是AI用30秒生成的一段伪造视频。
央视3·15晚会现场技术演示人员在大屏幕上点开那个叫“DeepFaceLab”的开源工具时,全场鸦雀无声。一张从社交媒体下载的普通正面照被拖进界面,30秒后,一段以假乱真的视频开始播放。同一个人可以在视频里说任何话、做任何表情,而这一切只需要一张照片和5秒钟的语音样本。公安部数据显示,2025年全国利用AI技术实施的电信网络诈骗案件同比增长超过300%,涉案金额累计突破50亿元。单案平均损失金额是传统电信诈骗的3倍以上。
王女士的遭遇不是个例。晚会上曝光了另一位受害者,退休教师李先生。他收到“儿子”的视频,说因打架被拘留需缴纳15万元保释金。视频里“儿子”表情焦急、声音哽咽,李先生立即转账,事后才得知儿子从未出事。这类诈骗最可怕的地方在于,它精准击穿了人类信任体系的最后一道防线——眼见为实。几千年来,我们判断真伪的标准是“我亲眼看到”,而现在,眼睛成了最容易欺骗的器官。
这条黑产链条远比想象中完整。上游是数据贩子,他们在暗网打包销售公民个人信息,包括高清正面照、社交媒体视频、声音样本。一份包含1000人的“高质量面部数据包”售价不过5000元,却能制造出足以乱真的伪造视频。中游是技术工具开发者,他们开发一键式AI换脸软件,将原本需要专业知识的深度伪造技术平民化。下游是洗钱通道,诈骗资金通过数十家空壳公司、第三方支付平台层层流转,最终消失在境外。整个过程分工明确,像一条精密运转的生产线,唯一的原材料是普通人的面部数据,唯一的产物是摧毁信任的欺诈。
最让人脊背发凉的是,这种诈骗的成功率正以指数级增长。传统电信诈骗需要精心设计话术、建立信任关系、应对受害者质疑,整个过程充满不确定性。而AI换脸诈骗跳过了所有中间环节——当视频里出现你最信任的人,用你最熟悉的声音说出最紧急的需求,99%的人会在10秒内放下所有戒备。诈骗分子甚至不需要心理学知识,他们只需要掌握一点技术工具,然后批量复制。王女士事后回忆,让她最终转账的不是“董事长”的话术,而是视频里那个逼真到可怕的微表情——那种只有在真正焦急时才会出现的眼角抽动,AI也学会了。
技术进步的本质应该是让人更自由,而不是更恐惧。但现实是,当技术跑在伦理前面,受害的不只是钱包,还有人与人之间最后那点信任。想象一下,如果连视频通话都不能相信,我们还能相信什么?父母不敢接子女的求救视频,老板不敢给财务发转账指令,朋友之间借钱要先打三个电话确认。当怀疑成为本能,社会运转的成本会高到什么程度?
值得关注的是,监管和防御技术也在同步进化。工信部已于2025年底出台《生成式人工智能服务管理暂行办法》,要求AI换脸类应用添加不可见水印标识。多家视频平台已部署AI生成内容检测系统,对疑似伪造视频进行标注提醒。网络安全专家在晚会现场给出了三点实用建议:一是要求对方在视频中做快速转头、遮挡面部等动作,AI换脸在这些场景下容易出现画面撕裂或表情不自然;二是询问只有双方知道的私信信息,AI无法凭空知晓;三是挂断后通过原有联系方式回拨确认,切勿直接通过视频中的联系方式操作转账。最简单的建议是,避免在社交平台发布高清正面照,降低被AI采集面部特征的风险。
但技术的攻防永远是一场猫鼠游戏。今天有了水印检测,明天就可能出现去水印技术;今天有了AI识别,明天就可能出现反识别算法。主持人:“技术是中性的,但使用技术的人不是。当我们享受着AI带来的便利时,也必须警惕它被滥用的风险。保护消费者权益,从来不只是监管部门的事,它关乎我们每个人的选择。”在数字时代,信任是最珍贵的资源,也是最脆弱的防线。当有一天我们连至亲之人的脸都不敢相信时,再先进的技术,也不过是一座华丽囚笼。
发布于 北京
