🔥阿里通义 Wan2.7-Video 正式发布,国产AI视频模型再迎重磅升级!
阿里通义实验室今天正式推出新一代视频生成模型 Wan2.7-Video,作为万相系列的重要迭代,这一版不再只追求“能生成”,而是直接瞄准专业级、全链路、高可控的工业化视频创作,整体能力对标一线商用水平,国产多模态又往前迈了一大步。
简单梳理下这次 Wan2.7-Video 的核心亮点:
1️⃣ 四大模型,覆盖完整视频工作流
- Wan2.7-t2v:文生视频
- Wan2.7-i2v:图生视频
- Wan2.7-r2v:参考生视频
- Wan2.7-videoedit:视频精细编辑
从一句话生成、图片动起来,到用参考素材复刻风格、人物,再到后期直接修改视频内容,一套模型基本把短视频/动画创作流程包圆了。
2️⃣强可控,解决AI视频最痛的几个问题
- 首尾帧精准控制
给定开头+结尾画面,模型自动补全中间流畅动画,叙事和转场不再随机,更适合做剧情、广告分镜。
- 角色一致性+语音唇形同步
支持多参考帧锁定人物形象,搭配声纹克隆,唇形对齐精度明显提升,做数字人、口播视频更实用。
- 自然语言编辑视频
直接用文字指令增删物体、改颜色、换背景、调风格,编辑区域光影和原视频融合更自然,相当于自带一个AI剪辑师。
- 视频续写+尾帧锁定
可以延长视频并指定结尾画面,避免常见的生硬收尾,时序连贯性更好。
3️⃣ 专业画质与运镜,更像“导演工具”
支持 720P/1080P 高清输出,时长覆盖 2–15 秒,还内置了丰富的运镜能力:推拉摇移、升降、希区柯克变焦等,风格覆盖写实、3D、卡通、水墨、赛博朋克等,对内容创作者非常友好。
4️⃣定位更偏向工业化生产力
对比前代,Wan2.7-Video 明显从“生成演示”转向“可落地生产”,更适合短视频营销、影视预演、游戏动画、IP 衍生内容、虚拟人直播等场景,已经在阿里云百炼上线,支持 API 调用和企业级部署。
整体看,这一代 Wan 模型在“可控性、编辑能力、中文适配、落地场景”上都很有竞争力,国产AI视频模型正在从“追进度”慢慢走向“拼工程化、拼生产力”的阶段。
未来几个月,Sora、Kling、Wan 等模型还会持续内卷,普通人做视频的门槛会越来越低。
