自今年2月OpenAI的Sora第壹次公开展示以来,视频生成经历了从备受期待到遭受疑问的过程。在这大约10个月里,Sora迟迟未开放给公众使用,国内百川智能开创人兼总裁王小川则基于AI的路线判断 “摁死”了公司跟进Sora的思路,另一些互联网大厂和大模型创业公司还在逐渐跟进推出视频生成模型,但对外的发声表态也渐趋冷静。
12月3日,腾讯混元大模型上线了视频生成能力,并开源了这个参数量130亿的视频生成大模型HunYuan-Vieo。据称该模型是业界参数最大的开源视频模型,可生成5秒视频。据混元团队公布的文生视频模型效果评估,混元视频生成模型总体评分41.3%,高于未公开名称的国内模型A和B和海外的GEN-3 alpha和Luma1.6。这项评估参照持续时间、文本对齐、运动质量、视觉质量几个维度,显示五个模型评分都不高,最低的Luma1.6评分仅24.8%。
接受第壹财经等媒体采访时,腾讯混元多模态生成技术责任人凯撒直言,文生视频还不处于很成熟的阶段,各模型成功概率都不高,至少文生视频的技术水平在混元内部的评估中,还没有到大规模商业化的水平,而是在技术打磨阶段。
从开源生态看,凯撒认为,现在视频生成开源生态也不是很成气候,最大的问题是开源的视频生成底模(基底模型)跟闭源差距太大。现在视频生成所需的算力、数据消耗量和图像生成相比是数量级的差距,业内不太想把自己花大成本做出来的模型开源出来。在这种凭空虚构的情景下,最好的模型许多人也木有用起来,于是混元开源了自己的视频生成模型。
记者用混元大模型视频生成功能分别生成“三只黑猫在雪中玩耍,留下脚印”“三只黑猫在雪中追逐,留下脚印”和“一只戴着黄色围巾的企鹅在故宫门口吃冰糖葫芦”的视频。第壹个视频生成三只黑猫在雪中,没有生成明显的脚印,但黑猫主体完整,脚踩在坑洼不平的雪地上时发生了正常的视线遮挡。第贰个视频中,猫在雪地上踩出坑,有与物理环境的真实互动,但有两只黑猫融合成了一只。第叁个视频场景正确且皮毛清晰,但冰糖葫芦会自己移动。记者此前尝试使用过一些流行的免费视频生成模型也发现,很多模型已能做到画面细腻真实,但运动规律或物理规律还不能很好体现。
从文生视频的具体难点看,凯撒对记者说,对照文生图模型一次出一张图,这个视频生成模型要生成129帧画面,每一帧都正确非常难。视频生成算力会随同着时间延长而呈平方级上升,且时长越长,画面退化越严重,业界目前主流都是五六秒。如果类比文生图模型,现在视频生成的水平就像两年前SD(Stable Diffusion)还没面世时的水平。另外,视频模型无法足够真实地模拟世界的物理规律,例如掉下的杯子不碎,要改变这一点,背后涉及难度特别大的数据处理、清洗和物理规律引入工作,后续混元将给视频模型引入真实世界的知识。
另外,记者了解到,视频生成模型的技术路径也还未完全清晰。凯撒表示,业界此前未解答“Scaling Law(缩放定律)在视频领域存不存在”的问题,混元只能从头做,把视频的Scaling Law走了一遍,验证图像和视频DiT(Diffusion with Transformer,两者融合)也存在Scaling Law,后续Scaling Law还会进一步往下走。
业内其它厂商也对视频生成模型的进展和难点提出了新判断。11月,生数科技发布Vidu 1.5版本,优化多主体一致性、上下文记忆方面表现。随后生数科技联合开创人鲍凡称,关于Scaling Law是否“撞墙”,业内没有标准答案,存在Scaling Law从数学理论上“撞墙”的可能,业内也在寻找新方法。架构上,业内架构已在一边收敛一边创新,此前业内有自回归和融合的架构之争,实际效果显示Diffusion和Transformer融合架构更优,于是包含OpenAI等公司都在顺延采用这种结构,同时业内也探索在新方法,例如解决DiT处理上下文能力欠妥的问题。而Vidu1.5的推出已表明这种Diffusion和Transformer的架构其实不是最优,接着架构路线可能进一步伐整。