Loading...

腾讯混元发布并开源图生视频模型:可生成 5 秒短视频,还能自动配上背景音效

GoodNav 3 月 6 日报道,根据腾讯混元微信公众号的信息,腾讯混元推出了图生视频模型并进行开源,同时提供了对口型及动作驱动等功能,支持生成背景音效以及 2K 高品质视频。

腾讯混元发布并开源图生视频模型:可生成 5 秒短视频,还能自动配上背景音效

依托图生视频的技术,用户只需上传一张图片,并简单描述希望画面的运动方式和镜头调度,混元便能按照要求将图片动化,转化为 5 秒的短视频,并自动生成背景音效。此外,用户上传一张人物图片并输入希望“对口型”的文字或音频,图片中的人物就能“说话”或“歌唱”;使用“动作驱动”功能,还能一键生成类似的舞蹈视频。

目前,用户可以通过混元 AI 视频官网(https://video.hunyuan.tencent.com/)进行体验,企业和开发者可在腾讯云申请API接口的使用权限。

此次开源的图生视频模型,延续了混元文生视频模型的开源工作,总参数达到 130 亿,适用于多类角色和场景的生成,包括写实视频、动漫角色甚至 CGI 角色的制作。

开源内容包括权重、推理代码及 LoRA 训练代码,支持开发者基于混元训练自己的专属 LoRA 等衍生模型。目前,这些资源可在 Github、HuggingFace 等主流开发者社区中下载体验。

混元的开源技术报告表明,混元视频生成模型具备良好的扩展性,图生视频与文生视频在同一数据集上进行预训练。在保持高度写实画质、流畅展示大幅动作、原生镜头切换等特性基础上,让模型能够捕捉到丰富的视觉和语义信息,并结合图像、文本、音频以及姿态等多种输入条件,实现对生成视频的多维度控制

目前,混元的开源系列模型已经全面覆盖文本、图像、视频和 3D 生成等多个模态,在 Github 上累积获得超过 2.3 万名开发者的关注和 star。

附:混元图生视频开源链接 

Github:https://github.com/Tencent/HunyuanVideo-I2V

Huggingface:https://huggingface.co/tencent/HunyuanVideo-I2V

© 版权声明

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...