海辛Hyacinth 26-01-15 13:36
微博认证:AI博主

内测了 PixVerse 的 R1 新模型,太顶了,让我看到了实时世界生成模型的雏形。

#ai创造营#

PixVerse 的 R1 不是传统的 AI 视频模型的迭代,而是一个全新的原生多模态基础模型。整个交互是无限流式的,在这个世界里,视频不再是定死的几秒片段,而是一个可以无限延展、随时听你指挥的“平行时空”。

大家看我的录屏,虽然画质还有点像早期的 RPG 游戏(刚刚得知产品最后会上线 720P),但整个体验不是在做视频,更像在玩游戏,和 AI 一起去探索新地图的感觉,要什么有什么。难以想象,这类模型再迭代几个版本会成什么样。

这类模型好值得关注,可能会产生新的内容存在形式,甚至是行业,想了几个场景:
▶ TRPG/跑团玩家:以后不用靠脑补了,DM 说啥,画面就出啥,氛围感拉满。
▶ 沉浸式教育/艺术:未来的博物馆或教学,或许就是这样一个随问随答的动态世界。
▶ 游戏开发:可能会有全新的游戏以这种模型作为引擎。

PS:为什么实时视频会比实时 nano banana 先出来,有没有人能解释一下。

大家可能关心的问题:
Q:去哪玩?要钱吗?
A:由于这个模型特别耗算力,目前还在内测,问了一下官方暂时没有申请方法,可以关注 realtime.pixverse.ai/discover

额外申请了几个邀请码,放在 plq 啦,需要自取~ http://t.cn/AXGtTVMQ

发布于 上海