SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?

简介: SIGGRAPH2023|DreamFace:一句话生成 3D 数字人?



在科技迅速发展的今天,生成式人工智能和计算机图形学领域的研究日益引人注目,影视制作、游戏开发等行业正面临着巨大的挑战和机遇。本文将为您介绍一项 3D 生成领域的研究 ——DreamFace,它是首个支持 Production-Ready 3D 资产生成的文本指导渐进式 3D 生成框架,能够实现文本生成可驱动的 3D 超写实数字人。


这项工作已经被计算机图形领域国际顶级期刊 Transactions on Graphics 接收,并将在国际计算机图形顶级会议 SIGGRAPH 2023 上展示。



项目网站:https://sites.google.com/view/dreamface预印版论文:https://arxiv.org/abs/2304.03117Web Demo: https://hyperhuman.topHuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar


引言


自文本和图像生成技术取得巨大突破以来,3D 生成技术逐渐成为了科研和产业界关注的焦点。然而,目前市面上的 3D 生成技术仍然面临着许多挑战,包括 CG 管线兼容性问题、准确性问题以及运行速度问题。


为了解决这些问题,来自影眸科技与上海科技大学的研发团队提出了一种文本指导的渐进式 3D 生成框架 ——DreamFace。该框架能够直接生成符合 CG 制作标准的 3D 资产,具有更高的准确性、更快的运行速度和较好的 CG 管线兼容性。本文将对 DreamFace 的主要功能进行详细介绍,并探讨其在影视制作、游戏开发等行业的应用前景。


DreamFace 框架概述



DreamFace 框架主要包括三个模块:几何体生成、基于物理的材质扩散生成和动画能力生成。这三个模块相辅相成,共同实现了一种高效而可靠的 3D 生成技术。


几何体生成



几何体生成模块的核心任务是根据文本提示生成与之一致的几何模型。DreamFace 采用了基于 CLIP(Contrastive Language-Image Pre-Training)的选择框架,首先从人脸几何参数空间内随机采样的候选项中选择最佳的粗略几何模型,然后通过隐式扩散模型(LDM)雕刻几何细节,使头部模型更符合文本提示。此外,该框架还支持基于文本提示的发型和颜色生成。



基于物理的材质扩散生成


基于物理的材质扩散生成模块旨在预测与预测几何体和文本提示一致的面部纹理。DreamFace 首先将预先训练的 LDM 在收集的大规模 UV 材质数据集上微调,得到两个 LDM 扩散模型。然后,采用联合训练方案协调两个扩散过程,一个用于直接去噪 UV 纹理贴图,另一个用于监督渲染图像。



为了确保所创建的纹理地图不含有不良特征或照明情况,同时仍保持多样性,设计了一种提示学习策略。团队利用两种方法生成高质量的漫反射贴图:(1)Prompt Tuning。与手工制作的特定领域文本提示不同,DreamFace 将两个特定领域的连续文本提示 Cd 和 Cu 与相应的文本提示结合起来,这将在 U-Net 去噪器训练期间进行优化,以避免不稳定和耗时的手工撰写提示。(2)非面部区域遮罩。LDM 去噪过程将额外地受到非面部区域遮罩的限制,以确保生成的漫反射贴图不含有任何不需要的元素。


最后,通过超分辨率模块生成 4K 基于物理的纹理,以进行高质量渲染。



动画能力生成



DreamFace 生成的模型具备动画能力。通过预测独特的变形,为生成的静息(Neutral)模型赋予动画效果,从而产生个性化的动画。与使用通用 BlendShapes 进行表情控制的方法相比,DreamFace 的神经面部动画方法能够提供更细致的表情细节,并且能够精细地捕捉表演。



应用和展望



DreamFace 框架在名人生成、根据描述生成角色等方面取得了优异的成绩。此外,还支持使用提示和草图进行纹理编辑,实现全局的编辑效果,如老化和化妆。通过进一步结合掩模或草图,可以创建各种效果,如纹身、胡须和胎记。


DreamFace 的渐进式生成框架为解决复杂的 3D 生成任务提供了一种有效的解决方案,有望推动更多类似的研究和技术发展。此外,基于物理的材质扩散生成和动画能力生成将推动 3D 生成技术在影视制作、游戏开发和其他相关行业的应用,让我们拭目以待它在未来的发展和应用。

相关文章
|
7月前
|
机器学习/深度学习 自然语言处理 图形学
CVPR 2024:文本一键转3D数字人骨骼动画,阿尔伯塔大学提出MoMask框架
【5月更文挑战第12天】CVPR 2024将展出阿尔伯塔大学的MoMask框架,该框架创新性地将文本转化为3D数字人骨骼动画,推动计算机图形学和动画制作的发展。MoMask结合NLP和计算机视觉,由文本编码器解析输入文本,动作生成器则将其转化为骨骼动画。该技术提升动画制作效率,降低门槛,但面临训练数据需求大和生成动画可能有偏差的挑战。[论文链接](https://arxiv.org/abs/2312.00063)
119 2
|
7月前
|
人工智能 算法 搜索推荐
如何在淘宝人生2一键定制你的专属3D数字人(下)
如何在淘宝人生2一键定制你的专属3D数字人(下):
369 4
|
7月前
|
人工智能 算法 搜索推荐
如何在淘宝人生2一键定制你的专属3D数字人(上)
如何在淘宝人生2一键定制你的专属3D数字人(上)
1170 3
|
7月前
|
传感器 人工智能 搜索推荐
|
26天前
|
API 语音技术 开发者
基于开源技术的数字人实时对话:形象可自定义,支持语音输入,对话首包延迟可低至3s
魔搭社区最近上线了基于开源技术的数字人实时对话demo,无需预训练即可使用自定义的数字人形象进行实时对话,支持语音输入和实时对话。
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
【人工智能】python之人工智能应用篇--数字人生成技术
数字人生成技术是基于人工智能技术和计算机图形学技术创建的虚拟人物形象的技术。该技术能够模拟人类的外貌、声音、动作和交流能力,为多个领域带来创新的应用可能性。数字人的本质是将所有信息(数字和文字)通过数字处理(如计算机视觉、语音识别等)再进行表达的过程,形成具有人类形态和行为的数字产物。 数字人的生成涉及到多种技术,如3D重建技术,使用三维扫描仪扫描人的外观、五官等,并通过3D模型重建三维人;虚拟直播技术,使用计算机技术生成人物或实体,并且可以实时直播、录制;数字人体数据集技术,利用数据构建数字人模型以及训练虚拟现实引擎等
132 4
|
5月前
|
新零售 人工智能 vr&ar
国家发展改革委等部门:鼓励利用数字人等技术拓展电商直播场景!
国家发改委推出措施鼓励创新消费场景,特别提到利用AI、VR等技术增强购物体验,支持数字人电商。青否数字人直播系统提供独立部署方案,适应抖音直播并解决封号问题,具备实时话术改写和AI智能回复功能,确保互动合规。此系统适用于24小时直播,降低商家成本,提升效率。欲了解更多信息,可访问:zhibo175。
国家发展改革委等部门:鼓励利用数字人等技术拓展电商直播场景!
|
6月前
|
算法
VASA-1:实时音频驱动的数字人说话面部视频生成技术
【6月更文挑战第8天】VASA-1是实时音频驱动的数字人面部视频生成技术,能根据输入音频精准生成匹配的面部表情。具备实时性、高准确性和适应性,适用于虚拟主播、在线教育和影视娱乐等领域。简单示例代码展示了其工作原理。尽管面临情感理解和硬件优化等挑战,但随着技术发展,VASA-1有望在更多领域广泛应用,开启生动数字世界的新篇章。
302 5
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
【数字人】AIGC技术引领数字人革命:从制作到应用到全景解析
【数字人】AIGC技术引领数字人革命:从制作到应用到全景解析
651 0
|
传感器 人工智能 达摩院
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(1)
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究
188 0
带你读《2022技术人的百宝黑皮书》——虚拟数字人行业现状和技术研究(1)

热门文章

最新文章