Meta 3D Gen能够在不到一分钟的时间内高质量地生成3D资产。它支持基于物理的渲染(PBR),这对于在应用中实现生成资产的重新照明至关重要。经专业3D艺术家评估,Meta 3D Gen显著提高了生产级3D资产的关键指标,尤其是对于复杂的文本提示。其对文本提示的忠实度优于其他文本到3D的方法(无论是否为商业方法),并且在生成速度上超越了需要三分钟到一小时的技术。生成的3D形状和纹理的质量优于或至少与这些竞争对手相当,同时采用了一个可扩展的系统,该系统显著更快且更忠实。一旦对象生成,其纹理就可以在20秒内进一步编辑和自定义,与替代方案相比,质量更高且成本更低。同样的方法也可以应用于艺术家创建的3D网格的纹理处理,而无需进行修改。
Meta 3D Gen 是一种两阶段方法,结合了文本到 3D 生成和文本到纹理生成两个组件。这种集成使得沉浸式内容创建的 3D 生成质量更高。具体而言:
• 第一阶段:3D 资产生成。给定用户提供的文本提示,第一阶段使用我们的 Meta 3D AssetGen模型创建一个初始 3D 资产。这一步将生成具有纹理和 PBR(基于物理的渲染)材质图的 3D 网格。推断时间大约为 30 秒。
• 第二阶段,用例 1:生成性 3D 纹理细化。给定在第一阶段生成的 3D 资产和用于生成的初始文本提示,第二阶段为该资产和提示生成更高质量的纹理和 PBR 映射图。它利用我们的文本到纹理生成器 Meta 3D TextureGen。推断时间大约为 20 秒。
• 第二阶段,用例 2:生成性 3D(重新)纹理化。给定一个无纹理的 3D 网格和一个描述其期望外观的提示,第二阶段还可以用于从头开始为该 3D 资产生成纹理(网格可以是之前生成的或由艺术家创建的)。推断时间大约为 20 秒。
下面一起来阅读一下这项工作~
1. 论文信息
标题:Meta 3D Gen
作者:Raphael Bensadoun, Tom Monnier, Yanir Kleiman, Filippos Kokkinos, Yawar Siddiqui, Mahendra Kariya, Omri Harosh, Roman Shapovalov, Benjamin Graham, Emilien Garreau, Animesh Karnewar, Ang Cao, Idan Azuri, Iurii Makarov, Eric-Tuan Le, Antoine Toisoul, David Novotny, Oran Gafni, Natalia Neverova, Andrea Vedaldi
我们介绍了Meta 3D Gen(3DGen),这是一种最新且快速的文本到3D资产生成流程。3DGen能够在不到一分钟的时间内提供高提示保真度和高质量的3D形状及纹理的3D资产创建。它支持基于物理的渲染(PBR),这是现实世界应用中3D资产重新照明所必需的。此外,3DGen还支持使用用户提供的额外文本输入对先前生成(或艺术家创建)的3D形状进行生成性重新纹理化。3DGen集成了我们分别为文本到3D和文本到纹理生成而开发的关键技术组件Meta 3D AssetGen和Meta 3D TextureGen。通过结合两者的优势,3DGen以三种方式同时表示3D对象:在视图空间中、在体积空间中以及在UV(或纹理)空间中。这两项技术的结合使得与单阶段模型相比,其获胜率达到了68%。我们将3DGen与众多行业基线进行了比较,并表明它在处理复杂的文本提示时,在提示保真度和视觉质量方面优于这些基线,同时速度显著提高。
3. 效果展示
Meta 3D Gen将Meta的文本到3D和文本到纹理生成的基础模型集成在一个统一的管道中,实现了使用PBR材质图高效、最先进地创建和编辑多样化、高质量的纹理3D资产。
我们介绍了 3DGen,这是一个统一的流程,它将 Meta 的基础生成模型整合在一起,用于文本到 3D 的生成,并分别具备纹理编辑和材料生成能力,即 AssetGen 和 TextureGen。通过结合它们的优势,3DGen 能够在不到一分钟的时间内从文本提示中合成出非常高质量的 3D 对象。经过专业 3D 艺术家的评估,与业界其他方案相比,3DGen 的输出在大多数情况下更受欢迎,特别是对于复杂的提示,同时速度提高了 3 倍至 60 倍。