![]()
欢迎来到北茗的AI茶馆
说实话噢,这两年发布的视频模型,勾不起我太大兴趣。
要怪就怪,当初Sora给的预期太猛,后续模型都是在兑现预期,包括Sora它自己......
不过这两天刷屏的即梦「Seedance 2.0」,真的惊艳到我了。
惊艳到,这些博主再怎么吹,都不为过的程度。
《黑神话:悟空》的制作人冯骥也表示深感震撼。
![]()
甚至,官方的使用手册中,作者赫然写出“Kill the game!”。
![]()
是的,就是这么嚣张。
让我想到,马斯克在前几天的访谈中“酒后吐真言”,说:“如果美国无法实现重大创新突破,那么中国将完全占据主导地位。”
![]()
中国AI又一次反超美国,争气!
但真正让Seedance 2.0出圈的,是飓风影视Tim的恐怖经历。
他只上传了自己的照片,然后视频竟然精准匹配了他的声音。
![]()
甚至一个运镜,能补全他们公司的真实场景。
![]()
是的,Seedance 2.0用了不少飓风影视的视频进行训练。
然后,很快,上传人脸素材的功能就被禁了。
叨叨的有点多,不吊胃口了,直接上case。
Case 1
参考图片1:
参考图片2-6:
![]()
参考视频1:
Prompt:
参考第一张图片里模特的五官长相。模特分别穿着第2-6张参考图里的服装凑近镜头,做出调皮、冷酷、可爱、惊讶、耍帅的造型,每一个造型穿着不同服装,每次更换,画面伴随会切镜,参考视频的里鱼眼镜头效果、重影闪烁的炫影画面效果。
生成结果:
Case 2
参考图片1:
![]()
Prompt:
参考@图片1的专题片的分镜头脚本,参考@图片1的分镜、景别、运镜、画面和文案,创作一段15s的关于“童年的四季”的治愈系片头。
生成结果:
Case 3
参考图片1:
![]()
参考图片2:
![]()
参考图片3:
![]()
Prompt:
以@图片1为首帧,画面放大至飞机舷窗外,一团团云朵缓缓飘至画面中,其中一朵为彩色糖豆点缀的云朵,始终在画面中居中,然后缓缓变形为@图片2的冰淇淋,镜头推远回到机舱内,坐在窗边的@图片3伸手从窗外拿进冰淇淋,吃了一口,嘴巴上沾满奶油,脸上洋溢出甜蜜的笑容,此时视频配音为@视频1。
生成结果:
Case 4
参考视频1:
Prompt:
颠覆@视频1的整个剧情0–3秒画面:西装男坐在酒吧,神情冷静,手里轻晃酒杯。 镜头缓慢推进,光影高级、氛围严肃。 环境音低沉,西装男小声说“这单生意,很大。”3–6秒画面:身后的女人表情紧张问“有多大?”西装男抬眼,压低声音:“非常大。”镜头切手部特写——他把酒杯放下,气场拉满。6–9秒画面:突然西装男从桌下掏出—— 一大包体积夸张的零食礼包,“咚”的一声重重放在桌上。9–12秒画面:身后的女人原本放在腰间的手,肌肉从僵硬到松弛,整个人表情放松。画面氛围轻松起来。13–15秒画面:西装男拿出一包零食给女人,镜头拉远展示酒馆全景,画面变得透明模糊—— 字幕弹出“再忙,也要记得吃点零食~”
生成结果:
Case 5
参考图片1:
![]()
参考图片2:
![]()
参考图片3:
![]()
参考图片4:
![]()
参考图片5:
![]()
参考图片6:
![]()
参考视频1:
Prompt:
@图片1@图片2@图片3@图片4@图片5@图片6的风光场景图,参考@视频1中的画面节奏,转场间画面风格及音乐节奏进行卡点。
生成结果:
Case 6
参考图片1:
![]()
参考图片2:
![]()
参考视频1:
Prompt:
@图片1的女子走到镜子前,看着镜子里面的自己,姿势参考@图片2,沉思了一会突然开始崩溃大叫,抓镜子的动作崩溃大叫的情绪和表情完全参考@视频1。
生成结果:
看完之后,你大概能知道Seedance 2.0强在哪了,我们来总结一下。
✨ 整体质量提升
画质、声音、一致性、真实感、流畅度、稳定性等等,全方位的进步。
✨ 参考内容更丰富
除了文字Prompt,还支持图片、视频和音频参考,其中图片竟然能上传最多9张。在Prompt中@素材名,模型就知道是哪个参考内容。
![]()
支持多种参考方式:全能参考、首尾帧、智能多帧和主体参考。
![]()
✨ 精准复刻,极致控制
人物、动作、运镜、特效、风格、声音、节奏、创意...... 参考内容中的任何方面,都可以让Seedance直接复刻,效果非常到位。
✨ 视频复杂度提升
以前的模型大多只能生成一个镜头,而Seedance可以生成多个专业级运镜的镜头,同时保持超高一致性。
基于这些能力,小白秒变导演。只要你有故事、有创意,技术层面不是问题。
价格方面,Seedance 2.0真的挺贵,5s视频40积分。买积分的话,相当于4块,充月度会员的话,相当于1块。
但不少网友和博主的反映, 抽卡成功率非常高, 大概在80%-90%,远远高于其他模型。
如果你真的有视频创作需求,使用Seedance并不一定花费更高。
最后聊聊Seedance 2.0带来的影响。
对于传统影视圈,冲击很大。
视频制作门槛大幅降低。之前专业人士可以说,AI不懂专业运镜,不懂镜头语言。现在,Seedance都搞得定,实在不行还能直接复刻呢。不远的将来,观众不一定会认为,真人导演的设计一定好于AI。
DeepSeek出脚本、Seedance出视频,小白都能做出看得过去的视频,而且绝大多数视频的目标观众也是小白,所以简单需求已经达到了落地水准。
当然,导演和创作者们可以把更多精力,放在如何讲好一个故事,这会变得越来越重要。
此外,传统影视的拍摄制作成本太高了,对此我深有体会。
前段时间,我参与了一个创业短片的拍摄。
导演、摄影组、灯光组,一共十个人左右。各种镜头、摄像机、布景道具、灯光、支架等等,大量设备和道具。每个镜头,要选场地,要设计动作台词,要布景,要做灯光,要搭轨道,要彩排,要NG,一天从早到晚拍不了几分钟的镜头。
![]()
说真的,有点震惊到我,专业拍摄的复杂程度,远超我之前的想象。
拍摄过程中,我脑海中无数次闪过一个问题:这几分钟的视频,得多高的成本......
所以说,在成本方面,AI是降维打击。
对于AI视频的一些衍生产品,是场重构和洗牌。
拿视频Agent来说,这类产品存在的最大意义,是用“专业流程+基础模型+工程化”来补足视频模型的不足。
现在,视频模型的能力范围扩大了,其他的东西就要减少,或者重构来适配。
甚至一些产品,直接失去了价值。
最大的影响,肯定是安全问题。
老生常谈的话题,就不展开聊了。
其实,我现在最希望看到的,不是发布的模型有多强,而是监管、版权、法律、安全这些配套生态的完善。
一开年,各大模型和产品就招呼上了,其中很多已经有落地潜力了,Seedance无疑也是。
2026不是什么Skill之年、Agent之年、Clawdbot之年,我愿给2026一个更宏观的称号:AI落地之年。
AI会越来越多地解决“术”和“器”层面的事情。这个过程中,作为普通人的我们,会得到AI的帮助,也有人会被AI取代。
我们应该把更多注意力放在“道”和“法”的层面,这才是未来的真正壁垒,是我们人类该做的事情。

如果你有任何看法,欢迎在评论区一起讨论
如果有一点收获,可以点赞、转发、推荐文章,关注「AI机器人茶馆」
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.