人工智能

Meta AI发布炸裂项目audio2photoreal 可将音频生成全身逼真的虚拟人物形象

字号+作者: 来源:站长之家 2024-01-04 17:49 评论(创建话题) 收藏成功收藏本文

站长之家(ChinaZ.com)1月4日 消息:Meta AI最近发布了一项引人注目的技术,他们成功地开发出一种能够从音频中生成逼真的虚拟人物形象的系统。这个系统能够'...

站长之家(ChinaZ.com)1月4日 消息:Meta AI最近发布了一项引人注目的技术,他们成功地开发出一种能够从音频中生成逼真的虚拟人物形象的系统。RYs品论天涯网

这个系统能够根据多人对话中的语音生成与对话相对应的逼真面部表情、完整身体和手势动作。这些虚拟人物不仅在视觉上非常逼真,而且能够准确地反映出对话中的手势和表情细节,例如指点、手腕抖动、耸肩、微笑和嘲笑等。RYs品论天涯网

image.pngRYs品论天涯网

项目及演示:https://people.eecs.berkeley.edu/~evonne_ng/projects/audio2photoreal/RYs品论天涯网

代码:https://top.aibase.com/tool/audio2photorealRYs品论天涯网

Demo:https://colab.research.google.com/drive/1lnX3d-3T3LaO3nlN6R8s6pPvVNAk5mdKRYs品论天涯网

这个系统的工作原理如下:RYs品论天涯网

首先,Meta AI团队捕获了一组丰富的双人对话数据集,这些数据集能够提供逼真的重建。然后,他们构建了一个复合运动模型,其中包括面部运动模型、引导姿势预测器和身体运动模型。RYs品论天涯网

在生成面部运动时,系统使用预训练的唇部回归器处理音频,提取与面部运动相关的特征,并利用条件扩散模型生成面部运动。RYs品论天涯网

在生成身体运动时,系统根据音频自回归地输出每秒1帧的向量量化(VQ)引导姿势。然后,将音频和引导姿势输入到扩散模型中,以每秒30帧的速度生成高频身体运动。RYs品论天涯网

最后,生成的面部和身体运动被传入训练好的虚拟人物渲染器,生成逼真的虚拟人物。RYs品论天涯网

最终展示的结果是根据音频生成的全身逼真虚拟人物,这些虚拟人物能够表现出对话中的细微表情和手势动作。RYs品论天涯网

这项技术的发布将为虚拟人物的创造和应用领域带来巨大的进步。无论是在游戏开发、虚拟现实还是电影制作领域,这种能够从音频中生成逼真虚拟人物的系统都将发挥重要作用。RYs品论天涯网

Meta AI的成果再次展示了他们在人工智能领域的卓越能力和创新精神。他们不断推动着技术的边界,为我们带来了一个全新的虚拟人物生成的时代。我们可以期待在不久的将来,这种技术将成为我们生活中不可或缺的一部分。RYs品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]