B站最近出了一款新的AI视频生成产品updream,我用了几天之后,发现这款产品有点创作者社区才懂创作者的意味,「我不要你觉得,我要我觉得。」
比如最反直觉的是,这个产品不完全赞成「一键成片」的那套说辞,相反,从复杂的操作台模式到工作流架构,updream都是在给专业创作者提供能力的扩大化,而不是服务小白用户或者工业化生产。
举个例子:
我用updream画布做过一支废土探测机械的宣传片。从一张产品图出发,拆出五个场景:沙漠逆光、冰面穿越、悬崖攀爬、夜间探照、雨林穿越。每个场景再拆出正拍、侧拍、特写三种视角。十五个节点,十八条连线,整支60秒的片子就在updream的一个「画布」里完成。(图1、2、3)
这和那些「一键生成」的AI工具完全不同。换别的产品,我上传一张机械图,它吐给我一条五秒钟的炫酷片段——镜头怎么走、光线怎么打、节奏怎么切,全凭它心情。我想加个冰面穿越?不行。想插个过渡镜头?没门。它给我的就是一条标准化的工业糖精。
但updream画布不一样。它让我自己搭建逻辑,自己控制节奏,自己决定每个场景用什么光线、什么角度、什么情绪。我可以让沙漠场景慢一点,冰面场景快一点,中间加个过渡让片子呼吸。(图4、5、6、7)
是不是和那些吹嘘动动手指就能做视频大片的套壳工具很不一样?
updream还有一个设计让我印象深刻:Skill机制。
它允许创作者把个人的工作流打包成一个可复用的Skill,你的调色参数、分镜逻辑、转场偏好,都可以固化下来变成一个模块。下次做同类型视频,直接调用。
这和「一键成片」的逻辑完全不同。一键生成给你的是一条标准化的流水线,你只能接受结果,Skill给你的是一套可配置的工具箱,你拿走的是方法,不是成品。创作者真正的竞争力从来不是某个爆款视频,而是产出那个爆款的方法论。updream把方法论变成可复用、可分享的模块,这才是对创作者最大的赋能。(图8、9)
虽然updream本质上也是生成,但B站的思路和判断很明显,那就是AI并不会让废物变得牛逼,它的分量在于,让牛逼的人变得更牛逼。
让普通人做条AI视频发发朋友圈?没有价值。真有价值的话,想要打造AI版TikTok的Sora也不会关掉了。
何况,B站的原生态不喜欢低创视频,如果官方也加入「数字泔水」的制造工厂,怕不是屋顶都要被掀喽⋯⋯
B站的立场可以理解,只有给本来就才华溢出的创作者一个能力杠杆,撬动原本的生产力无法企及的高度,这才有利于大家想要看到的内容生态。
于是就有了updream这么一个递长板——而不是补短板——的成果。
不过我倒也并没有真的觉得这是B站的一厢情愿,从B站历史上的产品变动有很多次都被用户骂回去的过往来看,这个平台受创作者的意志影响,很高。
关于AI视频到底该怎么做,B站自己就有相当权威的答案,比如UP主DiDi_OK,我觉得他这样的创作者,有出彩的想法,有独特的创意,有明确的审美,有完整的世界,这,就是B站想用updream去服务的对象。
你有故事,我有美酒,这不就搭上了吗?
我记得DiDi_OK说过,他一条五分钟不到的视频抽卡抽了几千次卡——那会儿用的还是Veo 3——这固然和他的高要求有关,但也体现了B站社区的内容标准。
另外就是,在「凑合能用就够了」的场景,模型即产品是成立的,要给一家餐厅制作动态菜品展示,就直接订阅第一梯队的视频模型吧,不需要犹豫。
但在需要「影视级交付」的专业场景,工作者一定是全栈化的,这里的全栈不只是说他或者团队,还包括使用的产品,要用单个模型去应对所有挑战,太难为人了。
我看过新晋AI视频博主、科普圈「掌管AI的神」大圆镜分享的幕后工作流,那是真的把各个模型的性能压榨到了极致:
分镜用GPT/Gemini,生图用Midjourney,动态镜头用即梦,静态镜头用可灵,音频用ElevenLabs,合成用剪映⋯⋯
所以能够理解B站为什么要开发updream了吧?一站式自带上下文的视频Agent产品,不能满足所有需求。。
总之,一切都跟大家想的不一样,所谓有了AI之后人人都能成为大神,这恐怕是彻头彻尾的幻象,或者说一种推销话术,在真正创造作品的人手里,AI就根本不是许愿机。
圣杯战争是从者的骗局,还没明白吗,哈哈哈⋯⋯
还是那句话:「在当下的时代里,平庸所受的惩罚从未如此严厉,而卓越所获的回报也从未如此丰厚。」
