Character.AI 推出 AvatarFX 模型:AI 实现静转动,让图片角色开口说话
GoodNav 在 4 月 23 日报道,Character.AI 公司今日(4 月 23 日)在 X 平台上发推,宣布推出 AvatarFX 模型,使得静态图片中的人物能够“开口说话”。
用户只需上传一张图片并选择一个声音,平台就能生成会说话并且姿态生动的形象。这些形象还能表达情感,展现出惊人的真实感和流畅度。
公司表示,这一成果归功于一种名为“SOTA DiT-based diffusion video generation model”的前沿 AI 模型。该模型经过专业训练,并结合音频条件优化技术,能够高效生成高质量的视频。演示视频如下:
AvatarFX 的技术优势在于其“高保真、时间一致性”的视频生成能力。即使在多角色、长序列或多轮对话的复杂场景中,也能维持令人惊讶的速度和稳定性。与 OpenAI 的 Sora 和 Google 的 Veo 等竞争者相比,AvatarFX 并非从零开始或依赖文本生成视频,而是专注于特定图片的动画化。
这种独特的操作流程为用户带来了新颖体验,但也伴随着潜在风险。用户可能会上传名人或熟人照片,制作仿佛真实的虚假视频,从而引发隐私和伦理方面的争议。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...