可灵发布重大更新版本 3.0,在物理真实性、角色一致性以及精准控制方面都实现了较大的提升。新的模型是否能超越 Sora、Veo 3.1,成为 AI 视频生成领域的 No.1?不妨听听 AI 创作博主 ADIL 的详细测评。
在 ADIL 看来,可灵 3.0 最大的变化不只是画质提升, “更像真的在拍视频”。它已经不只是生成一段连续画面,而是开始理解镜头语言。3.0 能够单次生成 15 秒画面,并支持多镜头流程,最多可以在一次生成中完成 6 次场景切换。广角、特写、过肩、跟拍、手持抖动,这些过去需要反复试错的镜头指令,现在基本能一次到位。
文本生成视频时,可灵 3.0 对复杂描述的理解明显更稳。比如战壕里的跟拍镜头、爆炸瞬间的短暂失焦、再恢复画面,这种以前很容易 “糊掉” 的场景,现在不仅逻辑成立,镜头切换的时机也更自然。纹理细节依然谈不上完美,但已经接近第一梯队。
真正拉开差距的是图片生成视频。ADIL 的结论很明确,相比长提示词,3.0 反而更适合 “少说一点”。在情绪表达测试中,只用 “强烈情感” 这样的简单提示,人物的微表情、呼吸节奏、轻微镜头推进都很到位,不再是那种塑料感很重的表演。这说明模型已经能主动补全情绪细节,而不是机械执行指令。
角色一致性是 3.0 的另一个关键更新。新增的角色参考功能,可以单独上传人物面部,用来锁定身份。即便起始画面看不到脸,后续转身、走近镜头时,也能保持同一张脸不变形。对做剧情、短片和连续内容的人来说,这是一个非常实用的进步。
在镜头运动上,可灵 3.0 延续了 2.6 的优势,但上限更高。复杂的机械臂式运动,包括高速横移、快速推进、再拉回切向移动,都能按顺序完成,而且几乎没有结构崩坏。模型还会自动加入轻微抖动和卷帘快门效果,让画面不那么 “算法感”。
真实物理效果的提升也比较明显。无论是打斗、慢动作、食物特写,还是火焰、爆炸这类特效场景,动作和材质之间的关系更合理,很少出现穿透或拉伸失真。ADIL 特别提到,很多以前需要写很长提示词才能勉强实现的效果,现在一句话就够了。
3.0 还加入了起始帧和结束帧功能,可以用两张完全不同的图片,让模型自动补全中间过程。这对镜头过渡和简单叙事很有价值,成本也低。对话场景同样有进步,多镜头下的口型同步、人物表情和视线衔接,都比 2.6 稳定不少。
总的来说,可灵 3.0 的核心优势不在测评参数,但在整体可控性上更接近真实的拍摄流程。它未必在所有指标上碾压 Sora 或 Veo,但在镜头控制、角色一致性和实际可用性上,已经具备正面竞争的能力。至少在当前阶段,它是少数能让创作者把注意力放在内容本身,而不是不断修补生成瑕疵的 AI 视频模型之一。
#AI视频制作##可灵3.0##模型测评##AI创造营# http://t.cn/AX5fp3uZ
发布于 上海
