宝玉xp 26-02-12 15:24
微博认证:前微软Asp.Net最有价值专家 2025微博年度新知博主 科技博主

豆包上可以体验 Seedance 2.0 了,我已经试了一下。

最近 Seedance 2.0 在海外火得一塌糊涂,邀请码一码难求。

Seedance 2.0 已经不需要我多介绍了,是字节自研的视频生成模型,支持文生视频、图生视频、分身视频,还自带音效生成。

豆包视频生成模型Seedance 2.0今天正式接入豆包App、电脑端和网页版。

打开豆包App对话框,选择新增的“Seedance 2.0”入口,输入相关提示词,即可生成5秒或10秒视频。也可以选择“分身视频”,经过真人验证,创建自己的视频分身,体验更多创意玩法。

我重点说两个最值得玩的功能。

【1】文生视频

一句话描述你想要的画面,直接出视频。动作自然、镜头连贯,已经不是那种一眼假的 AI 视频了。复杂场景也能处理,比如多人互动、多镜头转场,生成质量在目前的视频模型里属于第一梯队。

你可以试试这种提示词:
> 拍一段多场景转场的城市记录片,先是弄堂里挂红灯笼,然后在淮海路排队买年货,最后在厨房炸春卷。加上旁白和上海方言对话,带点复古滤镜。

这种复杂度的文生视频,Seedance 2.0 能搞定。

也可以整点好玩的,比如我记得马斯克和扎克伯格以前说要打架来着,后来取消了,现在可以在豆包里面用 Seedance 2.0 还原一下。
> Elon Musk (哪吒造型,但是脸型发色形似马斯克)和 Mark Zuckerberg(敖丙造型,但是脸型发色形似扎克伯格)的激烈对打,哪吒动画片风格,类似于哪吒和敖丙经典对战场景,只是人物形象换掉
> 马斯克:我 XAI 天下第一
> 扎克伯格:不对,我羊驼 LLAMA 才天下第一

【2】分身视频

这是我觉得最有意思的功能。录一段你自己的短视频,创建一个"分身",之后就可以让这个分身出现在各种场景里。想让自己在雪山上跳舞?在太空里漫步?给个指令就行。

有意思的是,你还可以为分身配上照片,比如我可以让我回到年轻的时候在 TED 演讲。提示词(分身+参考图):
> 帮我生成分身视频:年轻时候的我(图2)在Ted2026上演讲:2026 年是AI Agent 应用大爆发的一年,能真正帮人类干活提升效率。说完有掌声和互动。原比例,时长 10s,模型 2.0。

这种分身视频代入感比较强,刚开始还是挺让人上瘾的,比如我又尝试着让自己穿越回大学时光去给年轻时的自己说几句话,还是挺好玩的。提示词(分身+参考图):
> 帮我生成分身视频:工作后的我(图2)回到过去对大学时候的我(图3)说:学好英语和软件工程,将来会有大用;大学的我说一脸不敢置信的看着我:你是谁?工作的我笑着回答,你的AI分身。对了,记得买英伟达股票。原比例,时长 10s,模型 2.0。

分身视频解决了一个很现实的问题:很多人想做有自己形象的视频内容,但又不想每次都真人出镜,或者条件不允许。分身提供了一个很好的平衡点,既保留了个人辨识度和个性化,又不需要你每次都架好摄像头、化好妆、找好场地。

对于做短视频内容的创作者来说,这个功能的想象空间很大。

除了这两个核心玩法,Seedance 2.0 还支持多图生视频(上传角色图加背景图,生成故事视频)、视频局部编辑、风格迁移等能力,可控性比上一代强了不少。

在豆包里用起来也简单,就是聊天对话的方式,上传素材、说清楚你要什么,就能生成。

出于肖像保护的目的,豆包Seedance2.0暂不支持上传真人图片作为主体参考。

发布于 美国