最新AI视频生成技术_华为、腾讯开源AniPortrait

来源: aicg搜索 日期:2025-02-10 12:56:39
aicg搜索首页AI教程资讯 → 最新AI视频生成技术_华为、腾讯开源AniPortrait

华为、腾讯的研究人员联合开源了创新视频模型——AniPortrait。

用户通过AniPortrait用音频和人物图片就能自动生成音频同步的视频,例如,让李云龙、新恒结衣、蔡徐坤的图片轻松唱歌、说话。

这与今年2月阿里集团发布的EMO模型,以及谷歌发布的VLOGGER在功能方面几乎一样,但那两个是闭源的。

开源地址:https://github.com/Zejun-Yang/AniPortrait

论文地址:https://arxiv.org/abs/2403.17694

AniPortrait生成的视频

AniPortrait的核心框架主要分为两大块,首先通过AI从语音中提取3D面部网格和头部姿态,然后将这些中间表示作为生成条件,用于生成逼真的人像视频序列。

Audio2Lmk音频提取模块

Audio2Lmk借助了语音识别模型wav2vec 2.0.从原始语音波形中提取丰富的语义表示,精准捕捉发音、语调等细微特征,为后续的面部动作捕捉奠定了基础。

然后,研究人员设计了两个并行的小型网络,分别从wav2vec提取的特征中学习3D面部网格序列和头部姿态序列。

负责3D面部网格预测的是一个仅由两层全连接层组成的极简网络。虽然结构十分简单,但这种设计保证了高效运算,并极大提升了准确性。

为了增强头部姿态与语音的节奏、音调等因素关系更贴切一些,研究人员使用了Transformer解码器来捕捉这种细微的时序关联性。

该解码器的输入是wav2vec2.0提取的语音特征,在解码过程中,Transformer会通过自注意力和交叉注意力机制,自动学习语音与头部姿态之间的内在联系,最终解码出与音频节奏高度一致的头部姿态序列。

在训练阶段,研究人员使用了内部采集的近一小时高质量演员语音作为数据源,加上公开的人脸数据集HDTF。再通过监督学习的方式,提升了从语音到3D面部表情和头部姿态的高精度映射。

Lmk2Video视频生成模块

Lmk2Video的作用主要是将Audio2Lmk捕捉到的3D人脸数据和姿态数据渲染成高分辨率的视频。

Lmk2Video使用了目前在人物生成视频领域比较好的模型AnimateAnyone,能够通过给定的人体姿态序列作为条件,生成高质量、连贯自然的视频。

但是人的面部区域的细节远比身体更复杂,动作幅度也更小,需要极高的精度才能捕捉到微小的嘴型变化和面部肌肉运动。

原版AnimateAnyone的姿态引导模块仅由几层卷积层构成,将人体姿态数据编码后直接融合到主干网络的初级阶段。

这种设计在较大尺度的人体动作上还勉强可行,却难以准确捕捉面部细节。所以,研究人员对AnimateAnyone进行了改良。

他们将图片的人物面部关键点也作为输入,并通过注意力模块与目标关键点序列交互,使网络能更好地理解面部特征与整体外观之间的内在联系,进一步提升动画的精细度和一致性。

此外,为了增强网络对嘴型变化的敏感度,研究人员还将2D关键点渲染成姿态图像时,特意用不同颜**分上下嘴唇,这样网络就能更清晰地感知到微小的嘴型细节和变化趋势。

读完这篇文章后,您心情如何?

  • 0 喜欢喜欢
  • 0 顶
  • 0 无聊无聊
  • 0 围观围观
  • 0 囧
  • 0 难过难过
相关资讯
推荐阅读
网友评论

热门评论

最新评论

发表评论

昵称:
表情: 高兴 可 汗 我不要 害羞 好 下下下 送花 屎 亲亲
字数: 0/500 (您的评论需要经过审核才能显示)
相关推送
1通义千问查看 2知料觅得查看 3即梦AI查看 4Stable Diffusion查看 5AskCodi查看 6Lamini查看 7即时 AI查看 8Penelope AI,ai写作助手查看
AI使用攻略
更多+

CG艺术长廊 | AI技术前沿 | 创新应用案例 | 行业深度解析 | 搜索技巧指南 | 社区互动论坛 | AI教程资讯 | 网站地图

Copyright 2009-2016 //www.aisoh.cc/ 版权所有