华为、复旦联手打造3D数字人新框架EmoTalk3D:喜怒哀乐表情逼真丰富
在3D数字人领域,南京大学、复旦大学与华为诺亚方舟实验室的研究团队提出了创新性解决方案,针对多视角一致性与情感表现力不足的问题。他们开发了EmoTalk3D数据集,包含了校准多视角视频、情感标注与逐帧3D几何信息。通过构建“从语音到几何再到外观”的映射框架,研究团队提出了一种新方法,能够合成具有可控情感的3D说话头像,显著提升了唇同步与渲染质量。数据集的构建与开放,为非商业研究提供了宝贵的资源。整体流程包括情感内容分解、语音到几何网络、高斯优化与完成、几何到外观网络及渲染模块,实现了在生成结果中捕捉动态面部细节与情感表达的精准呈现。