腾讯今日宣布,其最新的视频生成模型正式发布,并即刻开源。这款拥有130亿参数的模型是目前参数量最大的开源视频生成模型,标志着腾讯在人工智能领域的又一次重大突破。
关键亮点
开源共享:腾讯模型的权重、推理代码和模型算法已全部上传至GitHub与Hugging Face平台,实现完全开放。
实际效果展示:模型能够生成具有超写实画质、高语义一致性、流畅运动画面以及原生镜头转换的视频内容。
应用场景广泛:模型适用于工业级商业场景,如广告宣传、创意视频生成等,以及个人娱乐用途。
技术特点
模型以其四大特点引领视频生成技术的新趋势:
超写实画质:生成的视频内容具备高清质感和真实感,满足商业应用的高标准要求。
高语义一致:模型能够准确表达文本内容,进行细致的刻画,如生成主体细节和人物概念组合。
运动画面流畅:能够生成大幅度的合理运动,运动镜头流畅且符合物理规律。
原生镜头转换:模型具备自动生成多视角同主体的镜头切换画面的能力,增强画面叙事感。
生成效果
模型在多个测试案例中表现出色,无论是冲浪、镜子题材还是复杂提示词的综合场景,均能生成高质量视频内容。模型特别擅长在保持画面主角不变的情况下自动切换镜头,这一功能在业界大部分模型中尚属罕见。
开放资源
官网:腾讯混元视频官网
模型:Hugging Face – HunyuanVideo
技术报告:技术报告PDF
-=||=-收藏赞 (0)
评论 ( 0 )