点击下方
卡片
,关注
「3D视觉工坊」
公众号
选择
星标
,干货第一时间送达
来源:3D视觉工坊
添加小助理:cv3d001,备注:方向+学校/公司+昵称,拉你入群。文末附3D视觉行业细分群。
扫描下方二维码,加入
「3D视觉从入门到精通」知识星球
(
点开有惊喜
)
,星球内凝聚了众多3D视觉实战问题,以及各个模块的学习资料:
近20门秘制视频课程
、
最新顶会论文
、计算机视觉书籍
、
优质3D视觉算法源码
等。想要入门3D视觉、做项目、搞科研,欢迎扫码加入!
0.这篇文章干了啥?
这篇文章提出了RigFace,一个基于扩散模型(LDM)的面部外观编辑模型,旨在提升面部编辑的精度和控制力。作者引入了空间属性提供器(Spatial Attribute Provider)和身份编码器(Identity Encoder),通过解耦条件和高度保留身份特征,释放了预训练扩散模型的生成能力。RigFace能够有效处理面部姿势、表情和光照的编辑任务,并且在编辑过程中保持高质量的面部细节,超越了传统的基于GAN和扩散模型的方法。实验结果证明了该模型在生成面部图像的质量和编辑控制方面的优越性,同时也指出了模型的局限性,如对DECA的依赖和计算资源的需求。尽管如此,RigFace在面部编辑和伪造检测等领域展示了巨大的潜力。
下面一起来阅读一下这项工作~
1. 论文信息
论文题目:Towards Consistent and Controllable Image Synthesis for Face Editing
作者:Mengting Wei, Tuomas Varanka等
作者机构:Center for Machine Vision and Signal Analysis, Faculty of Information Technology and Electrical Engineering, University of Oulu
论文链接:https://arxiv.org/pdf/2502.02465
2. 摘要
当前的面部编辑方法主要依赖于基于GAN的技术,但最近的研究重点已转向基于扩散模型的方法,因为它们在图像重建方面取得了成功。然而,扩散模型在操控细粒度属性和保持应保持不变的属性一致性方面仍面临挑战。为了解决这些问题并方便面部图像的编辑,我们提出了一种新方法,利用Stable-Diffusion模型和粗略的3D面部模型来控制肖像照片的光照、面部表情和头部姿态。我们观察到,这项任务本质上涉及目标背景、身份和不同面部属性的组合。我们的目标是充分解耦这些因素的控制,从而实现高质量的面部编辑。具体来说,我们的方法被命名为RigFace,包含:1) 一个空间属性编码器,提供背景、姿势、表情和光照的精确解耦条件;2) 一个身份编码器,将身份特征传递给预训练Stable-Diffusion模型的去噪UNet;3) 一个属性调节器,将这些条件注入到去噪UNet中。与现有的面部编辑模型相比,我们的模型在身份保持和真实感方面实现了可比甚至更优的性能。
3. 效果展示
一致和可控的面部编辑结果给定的身份图像。我们的方法能够用新的面部表情、姿势和灯光编辑任意身份,生成清晰稳定的结果,同时保持与无意改变的属性的一致性。
4. 主要贡献
-
我们提出了RigFace,一个面部编辑模型,旨在为给定身份提供头部姿态、光照和面部表情的精确控制。该模型高效且熟练地实现面部编辑,超越了现有的基于GAN和扩散的最先进方法。
-
我们提出了一个创新的空间属性提供器,独立生成3D渲染、目标扩展背景和表情参数作为解耦条件。这使得模型能够学习从特定条件到编辑图像的映射。
-
RigFace通过继承预训练潜在扩散模型的知识,具有较高的训练效率。通过释放去噪UNet中的所有参数,避免了生成图像的风格仅限于Stable-Diffusion模型的风格。
5. 基本原理是啥?
RigFace的基本原理是基于LDM(Latent Diffusion Model,潜在扩散模型)进行面部外观编辑的。这一模型利用扩散过程生成图像,并通过特定的结构和模块实现对面部的精准控制:
-
空间属性提供器(Spatial Attribute Provider)
:这个模块的作用是生成解耦的条件,这意味着它可以独立控制图像中的不同属性,比如面部的姿势、表情和光照等。通过这样的设计,RigFace能够有效地利用预训练的扩散模型来生成面部编辑效果。
推荐课程:
彻底搞懂大模型数学基础剖析、原理与代码讲解
。
-
身份编码器(Identity Encoder)
:这个模块旨在高度保留人脸的独特身份特征。通过精确编码面部的复杂身份信息,RigFace可以在进行面部编辑时,保持原始面孔的个性化特征,确保生成的图像忠实于输入的身份信息。
-
高效的控制能力
:RigFace通过上述两个模块的配合,实现了对面部编辑条件的高效控制,能够精细调整面部的各种细节,如姿势、表情和光照变化,而不失真。
这些设计使得RigFace在处理面部编辑任务时,比之前基于GAN(生成对抗网络)和扩散模型的方法表现得更加出色,能够更好地满足现实应用中的需求。
6. 实验结果
在RigFace的实验结果部分,作者展示了该模型在面部编辑任务中的表现,涵盖了定性和定量的评估,以验证其在不同场景下的优越性:
-
定性实验(Qualitative Experiments)
:
-
RigFace在面部编辑任务中展现了显著的优势,能够准确地控制面部的姿势、表情和光照等变化,同时保留了面部的独特身份特征。
-
在实验中,RigFace能够生成高度真实的面部图像,编辑后的人脸不仅保持了原始面孔的特征,还能自然地呈现出不同的姿势、表情和光照效果。
-
与传统的GAN和扩散模型相比,RigFace能够更加精确和稳定地进行面部编辑,生成的图像更加逼真,编辑效果更加细腻。
定量实验(Quantitative Experiments)
:
-
为了评估RigFace的性能,作者使用了一些标准的评价指标,如FID(Frechet Inception Distance)等,用于量化图像质量和生成的多样性。
-
结果表明,RigFace在这些量化指标上超越了现有的最先进的GAN和扩散模型,展示了其在图像生成质量和控制精度上的优势。
-
实验结果表明,RigFace在面部编辑任务中,尤其是在复杂的姿势、表情和光照编辑方面,具有显著的优势。
-
RigFace的表现优于之前的基于GAN的和扩散模型的最先进方法,在处理面部姿势、表情和光照等编辑任务时,能够实现更高质量的图像生成和更精确的控制。
-
该模型能够在保持面部身份特征的同时,进行细致的面部编辑,从而满足多种实际应用场景中的需求。