专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
目录
相关文章推荐
CareerIn投行PEVC求职  ·  中概股 “井喷日”:宁德、蜜雪、万国齐发IPO大招 ·  昨天  
HRTechChina  ·  2025HRTech机构会员,是您数智升级, ... ·  昨天  
智联招聘HR公会  ·  精准把握职场热搜爆点,做职场人求职风向标 ·  2 天前  
清华经管学院职业发展中心  ·  招聘|国信证券金融市场总部校园招聘 ·  3 天前  
51好读  ›  专栏  ›  极市平台

一文回顾2024年2D/3D生成方向工作进展

极市平台  · 公众号  ·  · 2024-06-11 22:00

正文

↑ 点击 蓝字 关注极市平台
作者丨陈冠英@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/700895749
编辑丨极市平台

极市导读

3D生成领域从2023年末到2024年的一些新进展的概述。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

去年我整理了一篇关于“Diffusion Model for 2D/3D Generation 相关论文分类”的知乎文章(https://zhuanlan.zhihu.com/p/617510702),简单列出了一些基于扩散模型实现2D/3D生成的论文。

一年过去了,3D生成领域得到了快速的发展。这篇文章列举了从2023年末到今年的一些工作。由于篇幅有限和时间跨度较长,有很多重要的文献没有列出,敬请理解,并欢迎在评论区指出。

回顾2023 上半年的一些工作

在2023年初,随着DreamFusion工作的爆火,基于扩散模型的3D生成方法主要通过利用2D扩散模型升维实现。由于需要对每个物体进行单独优化,这些方法通常需要较长的计算时间。以下是2023年上半年中几个重要的3D生成工作(因篇幅所限,还有很多重要的工作未列出):

  • DreamFusion (ICLR23) / Score Jacobian Chaining (CVPR23):提出利用2D扩散模型优化3D模型的方法
  • Magic3D (CVPR23): 利用两阶段coarse-to-fine的策略,大幅提升了生成的质量
  • Zero123 (ICCV23):展示了微调扩散模型可以实现新视角生成,并且可以保持较强的泛化性。
  • Fantasia3D (ICCV 23): 提出解耦几何与材质的生成方法,展示了很强的几何细节
  • ProlificDreamer (NeurIPS23): 提出VSD和一些技巧将3D生成的图像渲染视觉效果提升到一个新的高度
  • MVDream (ICLR24): 微调stable diffusion实现多视角图像生成的扩散模型,多视角图像生成可以更好的保持三维一致性,与减少多脸的问题

2024年的一些观察

下面是对3D生成领域近半年发展趋势的一些简单观察:

  • 高效三维表征的使用 :2023下半年,3D高斯表示的出现在很大程度上替代了NeRF。近期的工作大多与3D高斯表示有关。
  • 更关注生成效率 :相比于2D Diffusion升维方法需要动辄几个小时的优化时间,现在的3D生成方法可以在几秒内完成,极大提升了生成效率。
  • 结合视频生成模型 :轨迹连续的三维物体视图可以看作一段视频,结合视频生成模型(如Stable Video Diffusion, SVD)来辅助三维物体的生成是一个自然的思路。另外,视频生成模型在4D物体生成领域也起到了至关重要的作用。
  • 利用Transformer的前向计算实现生成 :一些工作开始使用Transformer直接学习图像到三维表示的映射(例如大重建模型LRM),从而无需较长时间的优化。
  • 考虑材质的建模 :三维物体不仅包含几何属性,还包含材质属性。最近有越来越多的工作关注PBR材质的生成,而不仅仅是生成表面颜色(耦合了光照与材质)。
  • 考虑更大规模的场景生成 :最早大家关注的是物体级别的生成,现在有很多工作在研究室内场景、室外场景乃至城市级别场景的生成。
  • 组合式生成 :不仅是简单地用一个全局的三维表示表达整个空间,而是每个小物体或者部件有独立的三维表示,从而可以更好地实现编辑和重组。
  • 4D动态场景生成 :从3D生成迁移到4D生成是一个很自然的方向,且有更大的发挥空间。3D生成领域目前已经竞争激烈,工作同质化问题日益严重(该文章没有列举4D生成相关论文,后续会再抽空梳理)。

更多资料

下面我列一下近期的综述(简单检索到,可能会漏掉)、Github awesome系列、常看的自媒体。可以了解最新的技术进展。

Survey

  • Advances in 3D Generation: A Survey: https://arxiv.org/abs/2401.17807
  • A Comprehensive Survey on 3D Content Generation: https://arxiv.org/abs/2402.01166
  • State of the Art on Diffusion Models for Visual Computing
  • Recent Advances in 3D Gaussian Splatting: https://arxiv.org/abs/2403.11134
  • A Survey on 3D Gaussian Splatting: https://arxiv.org/abs/2401.03890

Awesome系列

  • Awesome-AIGC-3D: https://github.com/hitcslj/Awesome-AIGC-3D
  • Awesome-CVPR2024-AIGC: https://github.com/Kobaayyy/Awesome-CVPR2024-AIGC
  • awesome-4d-generation: https://github.com/cwchenwang/awesome-4d-generation

自媒体

  • NeRF 3DGS日报:https://www.zhihu.com/people/yang-ji-heng-42 (每日更新最新的arxiv的论文)
  • 公众号AIGC Research:https://mp.weixin.qq.com/s/v92K8vnpdSaBU6jzViJ38g
  • AI产品汇: https://mp.weixin.qq.com/s/zM7RPWyIggWg92X0P_veDQ

3D 扩散模型

Shap-E: Generating Conditional 3D Implicit Functions, arXIV

Point-E的改进版,利用扩散模型生成SDF MLP的权重。

One-2-3-45++: Fast Single Image to 3D Objects with Consistent Multi-View Generation and 3D Diffusion, CVPR24

Text-to-3D Generation with Bidirectional Diffusion using both 2D and 3D priors, CVPR24

3DTopia: Large Text-to-3D Generation Model with Hybrid Diffusion Priors, arXiv24

沿着3DGen (3DGen: Triplane Latent Diffusion for Textured Mesh Generation)的思路,利用扩散模型生成基于Triplane的三维表示

Direct3D: Scalable Image-to-3D Generation via 3D Latent Diffusion Transformer, arXiv24

也是沿着3DGen的思路,采用了Diffusion Transformer (DiT)的结构。该工作专注图像到几何的生成,

引入几何先验

引入法线、点云等几何先验帮助3D生成

Wonder3D: Single Image to 3D using Cross-Domain Diffusion

GaussianDreamer: Fast Generation from Text to 3D Gaussians by Bridging 2D and 3D Diffusion Models, CVPR24

利用Shape-E作为几何先验

SweetDreamer: Aligning Geometric Priors in 2D Diffusion for Consistent Text-to-3D, ICLR24

RichDreamer: A Generalizable Normal-Depth Diffusion Model for Detail Richness in Text-to-3D, CVPR24

EpiDiff: Enhancing Multi-View Synthesis via Localized Epipolar-Constrained Diffusion, CVPR24

大重建模型(LRM)

Adobe这一系列工作均发表(LRM, PF-LRM, DMV3D, Instant3D)在ICLR 2024,主要思路是利用Transformer直接学习图像到三维表达(Triplane)的映射。

One-2-3-45: Any Single Image to 3D Mesh in 45 Seconds without Per-Shape Optimization

该工作不叫大重建模型,但结合多视角重建实现单图的三维生成,所以也列在此。给定一张图像,该工作首先利用zero123生成多视角图像,然后构建cost volume并用一个3D卷积网络估计SDF场的特征。

LRM: Large Reconstruction Model for Single Image to 3D, ICLR24

  • 2D图像特征和3D表示使用cross-attention进行关联

PF-LRM: Pose-Free Large Reconstruction Model for Joint Pose and Shape Prediction, ICLR24

  • 2D图像特征和3D表示使用self-attention进行关联

DMV3D:Denoising Multi-View Diffusionusing 3D Large Reconstruction Model, ICLR24

Instant3D: Fast Text-to-3D with Sparse-View Generation and Large Reconstruction Model, ICLR24

Triplane Meets Gaussian Splatting: Fast and Generalizable Single-View 3D Reconstruction with Transformers, arXiv24

提出结合3D高斯和Triplane的混合表征,加速LRM。高斯点的位置使用3D点云表达。

Splatter Image: Ultra-Fast Single-View 3D Reconstruction, CVPR24

提出利用图像存储3D高斯的参数,每一个像素存储一个3D高斯。这样就可以利用一个网络直接回归图像到3D高斯的参数。同时期的LGM和GRM采用了类似的思路("Pixel-aligned Gaussian")。

LGM: Large Multi-View Gaussian Model for High-Resolution 3D Content Creation, arXiv24

GRM: Large gaussian reconstruction model for efficient 3d reconstruction and generation, arXiv24

结合视频生成模型(多视角图像生成)

Stable Video Diffusion: Scaling Latent Video Diffusion Models to Large Datasets, arXiv23

这篇论展示了SVD-MV,利用Stable Video Diffusion生成多视角图像实现3D生成

ViVid-1-to-3: Novel View Synthesis with Video Diffusion Models, CVPR24

V3D: Video Diffusion Models are Effective 3D Generators, arXiv24

SV3D: Novel Multi-view Synthesis and 3D Generation from a Single Image using Latent Video Diffusion, arXiv24

CAT3D: Create Anything in 3D with Multi-View Diffusion Models

VideoMV: Consistent Multi-View Generation Based on Large Video Generative Model, arXiv24

PBR材质的生成

DreamMat: High-quality PBR Material Generation with Geometry- and Light-aware Diffusion Modelst, SIGGRAPH24

Collaborative Control for Geometry-Conditioned PBR Image Generation, arXiv24

MaPa: Text-driven Photorealistic Material Painting for 3D Shapes, SIGGRAPH 2024

Make-it-Real: Unleashing Large Multimodal Model's Ability for Painting 3D Objects with Realistic Materials, arXiv24

SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion Priors, CVPR24]

Paint-it: Text-to-Texture Synthesis via Deep Convolutional Texture Map Optimization and Physically-Based Rendering, CVPR24

数字人/衣服生成

数字人生成的有很多很好的工作,这里仅简单列几个工作。

HumanNorm: Learning Normal Diffusion Model for High-quality and Realistic 3D Human Generation, CVPR24

Make-A-Character: High Quality Text-to-3D Character Generation within Minutes, arXiv23

HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting, CVPR24

GaussianAvatars: Photorealistic Head Avatars with Rigged 3D Gaussians, CVPR24







请到「今天看啥」查看全文