【相关阅读】Seedance2.0爆火:我们需要重估虚拟现实边界了
引爆A股!AI视频模型Seedance 2.0火爆出圈 影视飓风创始人连呼6次恐怖 字节紧急暂停真人人脸上传
字节内测Seedance2.0 AI影视步入“工业可用”阶段
实测Seedance 2.0!人人可做“AI导演”:传媒影视股狂欢,电影、游戏从业者兴奋又审慎
来源:北京商报
2月10日开盘,中文在线42.32元的股价较前一日收盘时上涨20%,阅文40.08港元的开盘价较前一日的收盘价上涨6%,掌阅科技股价再度出现10%涨幅。这波从2月9日开始的资本热度,或许与一款AI视频模型有关。
2026年开年,字节跳动内测的AI视频模型Seedance2.0意外引爆全球关注,其“文本生成多镜头电影级视频”的能力被业界称为“导演级AI”。
这股热潮并非孤例。海外,OpenAI的Sora、Runway的Gen-3持续迭代;国内,快手“可灵”、生数科技“Vidu”、MiniMax“Hailuo”等竞品亦在长视频、主体一致性等赛道激烈角逐。然而,当AI仅凭一张照片就能“复刻”声音与未见场景时,数据合规与版权边界问题也随之浮出水面。

“对物理规则的遵循”
“当前地表最强的视频生成模型”试用Seedance2.0模型后,游戏科学CEO、《黑神话:悟空》制作人冯骥发布数百字评论,并称其标志着“AIGC(人工智能生成内容)的童年时代结束”。
在海外社交媒体上,AI影视创意内容领域最为活跃的创作者之一“el.cine”坦言,Seedance 2.0是目前唯一让他产生强烈危机感的AI模型。
何为Seedance 2.0?
Seedance 2.0是字节跳动推出的新一代AI视频生成模型,从2月7日开始小范围内测。该模型主打多模态参考与高效创作能力。模型支持首尾帧、视频片段及音频综合参考,能精准复刻运镜逻辑、动作细节与音乐氛围,核心突破在于将AI生成与后期编辑融合,用户可直接修改不满意部分。Seedance 2.0 模型在复杂叙事、打斗镜头、短剧生成等场景表现优异,能自动生成适配的背景音乐与音效,支持多种语言和指定歌曲歌词输入。
以冯骥提到的AI理解多模态信息为例,Seedance 2.0支持同时上传最多12个参考文件(图片、视频、音频),AI自动学习并复刻画面构图、角色特征、动作风格、镜头语言,不需要复杂提示词。
开源证券研报则提及了Seedance 2.0的自运镜和分运镜能力。北京商报记者了解到,Seedance 2.0支持分镜图直接生成视频,在多个镜头中保持角色一致性、灯光连贯性和风格统一,可制作预告片、故事片等复杂叙事内容。
一位内容制作者体验后表示,Seedance 2.0的转场和人物一致性比较惊艳。他告诉北京商报记者,“以前视频生成模式更多是让画面动起来,现在解决了一些细节问题,比如一致性、对物理规则的遵循,这些变化很细微,但体现在画面上会很明显”。
还有谁在起飞?
另一位制作者站在成本角度观察视频生成模型,“一个3秒480P的视频,大概3毛钱。720P的3秒视频快1元,视频模型发展非常快,应该算是除了语言模型外,用量最大的模型了”。
北京商报记者了解到,由于Seedance 2.0 尚在内测状态,暂无公开的收费标准。2025年6月,字节跳动推出的Seedance1.0 pro模型每千token 0.01元,每生成一条5秒的1080P视频3.67元。
“一款全新的人工智能视频模型Seedance 2.0正在中国进行测试,这绝对会让你大吃一惊。”“el.cine”感慨道,“中国的独立电影制作人已经开启了‘疯狂模式’,开始使用Seedance2.0制作电影。”
这股在创作者端掀起的热情,与资本市场的活跃形成了情绪共振。
2月9日,A股传媒板块应声大涨,根据金融数据服务商东方财富的统计,文化传媒板块当天上涨4.79%,领涨A股所有行业板块。个股方面,荣信文化、中文在线、海看股份、捷成股份股价收获涨停板。
“传媒板块上涨背后有春节档预期等多重因素,但Seedance 2.0的火爆也为市场注入了新的增长逻辑。”比达分析师李锦清向北京商报记者表示。
2月10日,中文在线继续涨停,股价收于42.34元,阅文集团收盘股价43.58港元,较前一日收盘价上涨15.4%。
狂欢之下亦有隐忧,有创作者在测试中发现,模型仅凭一张人脸照片,就能生成高度相似的声音,并“脑补”出从未展示过的场景视角。
对于用户反馈,字节跳动做出反应。2月9日,即梦创作者社群中,平台运营人员发布消息称:“我们正在针对反馈进行紧急优化,Seedance2.0 目前暂不支持输入真人图片或视频作为主体参考”,并表示平台深知创意的边界是尊重,产品调整后会以更完善的面貌与大家正式见面。
北京航空航天大学人工智能研究院教授沙磊表示:“AI 的进步从不会因争议停下脚步,而如何在技术创新与数据合规、版权保护之间找到平衡?”
在接受媒体采访时,中国科学院软件研究所研究员张立波表示,基于公开数据进行大模型的训练与调优,是全球AI行业普遍采用的技术路径。这一实践在大语言模型时期就已存在,模型训练使用了海量的书籍、博客、论坛等文本数据。由于文字内容的归属感相对较低,而声音和视频则具有更强的个人与场景特定性,因此当前阶段,数据使用的责任与边界问题更加凸显。
“战国时代”
从OpenAI的Sora到字节跳动的Seedance 2.0,全球AI视频赛道已进入深水区。
仅2026年开年至今,xAI的视频生成模型Grok Imagin 1.0版本全面上线,支持文生视频、图生视频,单次生成时长10秒,分辨率为720P,核心能力主要是视频生成与视频剪辑,xAI的老板马斯克(特斯拉CEO)第一时间转发了该消息。
生数科技的Vidu Q3强调专为漫剧、短剧、影视剧打造,支持16秒音视频、音画同出、多人对话。在国际权威AI基准测试机构Artificial Analysis 最新公布的榜单中,Vidu Q3 排名中国第一,全球第二,硬刚马斯克xAI Grok,超越 Runway Gen-4.5 、Google Veo3.1和 OpenAI Sora 2。
可灵3.0系列模型是2月初上线的“前辈”,这次快手一口气发布了可灵视频3.0、可灵视频3.0 Omni及可灵图片3.0、可灵图片3.0 Omni模型,覆盖图片生成、视频生成、编辑及后期等影视级全流程链路,全生产环节切入。
如果从视频生成时长维度看,可灵3.0系列模型支持最长15秒的连续生成,和Vidu Q3一起“秒杀”Grok Imagin 1.0,在原生音画同出、主角、道具及场景特征稳定等同行强调的能力上也均有升级。商业化方面,截至2025年12月,可灵AI 已拥有超过6000万创作者,生成超过6亿个视频,服务超过3万家企业用户,年化收入运行率2.4亿美元。
新鲜发布的Runway Gen 4.5模型主打图生视频,镜头控制和故事叙事能力。为了证明自家模型生成视频的逼真度,Runway做了一项1000人参与的调查,只有约一半的人能分辨出该模型和真实视频的区别。
在文渊智库创始人王超看来,“中国视频模型和国内同行几乎同时起步,在Sora之后,OpenAI没有推出更加惊艳的模型。但中国各个视频模型的各种能力比海外同行有过之而无不及。中国AI视频模型独树一帜”。
“很难说,哪款视频模型绝对更强,或海外与国内产品孰强孰劣”,一位从业者告诉北京商报记者,“因为评价标准高度场景化,很多‘最强’评价来自KOL(关键意见领袖)主观体验或特定案例,不具备普适性,而且企业推出视频模型的初衷也不一样”。
“我们布局视频生成的整体思路是从视频内容生产逐步迈向世界模型”,LongCat-Video 模型研究员康卓梁就坦白了美团发布视频生成模型的原因,“我们期望通过视频生成任务压缩物理世界知识,为未来内容创作、新型娱乐交互(如数字人)、自动驾驶机器人等场景提供基础的技术底座。基于这一差异化目标,我们将长视频生成作为核心方向。”
未来,视频生成不仅服务于内容创作,更将成为模拟物理世界的重要载体。在这样的逻辑下,这一赛道的竞争将不再局限于“谁能生成更逼真的画面”。



发表评论
2026-02-11 18:46:19回复
2026-02-11 11:28:15回复
2026-02-11 13:41:08回复
2026-02-11 08:47:34回复