西里森森 26-02-11 16:27
微博认证:AI博主

最近这两天,我看到PixVerse发布了新版本R1,体验非常震撼,强烈推荐大家亲自感受一下......

之前我们总是一直在说AI视频,但体验完R1以后,我觉得称呼它为AI视频已经不太准确了。

官方把这个功能称为「实时世界模型」,视频不再是生成完就定死的文件,而是变成了一个能持续变化、能互动的东西。

你可以边看边改,说一句话画面就能跟着变,有点介于看视频和玩游戏之间的感觉。

这次PixVerse R1的大版本更新,距离上次发布还不到一个月,而且这次更新是直接加了交互能力,加了音频生成,还开放了API。

换句话说,它已经从一个视频生成工具,变成了一个可以玩的、可以听的、可以开发的东西。

我专门花时间体验了一下,想看看到底是哪里不一样。
下面是我自己专门跑的几个测试场景,覆盖了剧情互动、角色控制、场景切换这几个方向👇

1️⃣让AI自己演一段恋爱剧情
第一个case,我想测试一下它能不能理解那种类似乙女游戏的互动逻辑。

比如你选不同的对话,男主角会有不同反应的那种。
场景是在樱花树下,一个温柔的白衣学长在看书。我先选择主动牵他的手,然后说我喜欢你,最后开玩笑说骗你的,看看他的表情和动作会怎么变化。

先是生成基础场景,学长站在那里,手里拿着书,表情很自然。
然后我输入第一个指令"牵他的手",画面里他先愣了一下,脸慢慢红了,低下头,手指回握过来。

每次输入指令到画面变化,基本就是几秒钟的事。
表情的细节比我预想的要好,尤其是从心动到失落那个转折,确实有那种情绪递进的感觉。

2️⃣ 宫斗场景
第二个case,我想测试一下类似橙光游戏的宫斗场景~

我的要求👇
场景是大殿,皇帝坐龙椅,皇后站旁边,我跪在中间。我选择直接指控皇后、委屈哭泣、保持沉默三种不同反应,看所有人的表情和氛围会怎么变。

基础场景生成后,气氛挺凝重的,光线也比较暗。
燃后我输入保持沉默,低头不语,殿内陷入诡异的安静,烛火摇曳,皇后嘴角上扬,一只黑猫从阴影中走过

如果你要做那种剧情类的短视频,尤其是需要多个角色互动的,这个能省不少时间。
比如以前你得一个个角色去调,但现在一句话就能控制整体氛围。

3️⃣ 实时换装,看它对时尚风格的理解
第三个case,我想测试它对服装细节和风格理解的准确度,还有不同风格能不能混搭得自然。

我的要求👇
一个女孩穿白T恤牛仔裤站着。先给她换成粉色洛丽塔公主裙配蕾丝头饰,背景变糖果城堡。再切换成暗黑哥特风,黑色蕾丝长裙加烟熏妆,背景是月光下的哥特教堂。
基础人物生成得很干净,就是普通的站姿。

换洛丽塔的时候,裙子的蕾丝花纹、蝴蝶结的层次都出来了,背景也跟着变成了那种梦幻的粉色调。

切哥特风,妆容的烟熏感挺明显,裙子的材质看起来是有厚重感的,教堂的月光打在人物身上,光影关系还不错。

测完这几个场景,我觉得PixVerse R1在尝试做一件挺有意思的事,就是把视频从一个固定的成品,变成一个可以持续变化的东西。

这个思路解决了一个真实痛点,比如以前你用AI生成视频,经常会遇到你也不知道最终效果会怎样,得生成完了才知道。
不满意就得重新来,改一个小地方也得整段重新生成。

现在这个模式,你可以边看边调,哪里不满意直接说一句话就能改。这个对于需要快速试错、快速迭代的场景来说,效率提升非常明显。

当然,它现在还是有局限的。
首先,画质确实不是最优的,如果你要做那种需要输出高清成片的项目,还是得用专业工具。

其次,交互的自然度还有提升空间。有时候你说的话它理解得不够准确,生成的效果跟你想的有偏差。

它更像是一个创意工具,而不是一个完整的生产工具。你可以用它来快速验证想法、测试剧情,但要做成最终成品,可能还得配合其他工具。

不过话说回来,它的方向我觉得是对的。
PixVerse R1现在做的,就是让普通人也能做互动内容,也能快速试很多种剧情可能,这个在以前是需要专业团队、大量时间才能实现的。

我的建议是,如果你的工作涉及到内容创意、剧情设计、互动体验这些,可以去试试。
不要把它当成一个完美的成品工具,而是当成一个帮你快速验证想法的助手。

而且我觉得真的挺有意思的,尤其是那种互动剧情的体验,跟以前使用AI视频工具非常不一样。

PixVerse R1现在做的,就是把「实时互动」这个能力,从游戏开发、影视制作这些专业领域,拉到了普通创作者手里。
这个方向值得关注一下。

发布于 上海