桃钛籽 26-03-02 08:11
微博认证:娱乐博主

#演员逼真到根本看不出来是AI#
“演员逼真到根本看不出来是AI”确实是近期备受关注的现象,这背后是AI生成技术(AIGC)在影视和社交媒体领域的飞速发展。这一现象主要体现在两个方面:一是影视创作中虚拟演员的崛起,二是滥用AI技术进行网络诈骗和虚假营销。
AI演员的逼真度已达到毫米级细节还原,能精准复刻真人的微表情、皮肤纹理甚至情绪层次。例如,由AI演员“蒂莉·诺伍德”主演的短片《人工智能专员》就是一次行业探索。这类技术为影视创作打开了新可能,比如还原经典角色、降低制作成本等。
然而,技术的滥用也引发了严重问题。不法分子利用AI换脸、声音克隆等技术,伪造名人形象进行虚假广告、直播带货甚至诈骗。近期,演员王劲松就公开怒斥自己的形象被AI盗用,生成的视频连家人都无法分辨真假。类似情况也发生在温峥嵘、李连杰、全红婵等多位名人身上。
针对AI滥用现象,法律和平台方已经开始行动:滥用AI换脸和声音克隆主要侵犯了《民法典》中的肖像权和名誉权。监管部门已查处多起利用AI进行虚假宣传的案件。微信、微博、快手等平台已处置了一批假冒公众人物的AI账号,并要求AI生成内容必须添加显著标识。
面对逼真的AI内容,普通用户也需要提高警惕。王劲松的遭遇提醒我们,AI技术的“真实”恰恰是其危险之处。建议采取以下措施:遇到涉及转账、借钱或敏感信息的请求,即便看到熟人视频或听到亲人声音,也要通过可靠渠道(如回拨电话、当面确认)再次核实。避免在社交平台随意发布清晰的正脸照片、长时间语音或面部视频,防止被用于训练AI模型。虽然AI视频越来越真实,但有时仍存在破绽,比如快速挥手时面部的形变异常、瞳孔颜色不一致、嘴部运动与声音不同步等。
技术的进步不应以牺牲安全为代价,我们在享受便利的同时,也需要共同维护一个真实可信的网络环境。 http://t.cn/AXcRYOWd

发布于 山东