Skip to content

Latest commit

 

History

History
executable file
·
207 lines (147 loc) · 10.4 KB

README_zh.md

File metadata and controls

executable file
·
207 lines (147 loc) · 10.4 KB

匠心1.5:基于3D原生扩模型和交互式几何优化的高质量网格模型生成

1香港科技大学, 2光影幻象, 3香港科技大学(广州), 4腾讯 AI Lab

(不带纹理)(带纹理)

使用方案

from craftsman import CraftsManPipeline
import torch

# load from local ckpt
# pipeline = CraftsManPipeline.from_pretrained("./ckpts/craftsman", device="cuda:0", torch_dtype=torch.float32) 

# load from huggingface model hub
pipeline = CraftsManPipeline.from_pretrained("craftsman3d/craftsman", device="cuda:0", torch_dtype=torch.float32)

# inference
mesh = pipeline("https://pub-f9073a756ec645d692ce3d171c2e1232.r2.dev/data/werewolf.png").meshes[0]
mesh.export("werewolf.obj")

这个结果应该是:

一句话总结: CraftsMan (又名 匠心) 是一个两阶段的文本/图像到3D网格生成模型。通过模仿艺术家/工匠的建模工作流程,我们提出首先使用3D扩散模型生成一个具有平滑几何形状的粗糙网格(5秒),然后使用2D法线扩散生成的增强型多视图法线图进行细化(20秒),这也可以通过类似Zbrush的交互方式进行。

✨ 总览

这个仓库包含了我们3D网格生成项目的源代码(训练/推理)、预训练权重和gradio演示代码,你可以在我们的项目页面找到更多的可视化内容以及演示试玩生成结果。如果你有高质量的3D数据或其他想法,我们非常欢迎任何形式的合作。

完整摘要 我们提出了一个新颖的3D建模系统,匠心。它可以生成具有多样形状、规则网格拓扑和光滑表面的高保真3D几何,并且值得注意的是,它可以和人工建模流程一样以交互方式细化几何体。尽管3D生成领域取得了显著进展,但现有方法仍然难以应对漫长的优化过程、不规则的网格拓扑、嘈杂的表面以及难以适应用户编辑的问题,因此阻碍了它们在3D建模软件中的广泛采用和实施。我们的工作受到工匠建模的启发,他们通常会首先粗略地勾勒出作品的整体形状,然后详细描绘表面细节。具体来说,我们采用了一个3D原生扩散模型,该模型在从基于潜在集的3D表示学习到的潜在空间上操作,只需几秒钟就可以生成具有规则网格拓扑的粗糙几何体。特别是,这个过程以文本提示或参考图像作为输入,并利用强大的多视图(MV)二维扩散模型生成粗略几何体的多个视图,这些视图被输入到我们的多视角条件3D扩散模型中,用于生成3D几何,显著提高其了鲁棒性和泛化能力。随后,使用基于法线的几何细化器显著增强表面细节。这种细化可以自动执行,或者通过用户提供的编辑以交互方式进行。广泛的实验表明,我们的方法在生成优于现有方法的高质量3D资产方面十分高效。

内容

环境搭建

硬件 我们在32个A800 GPU上以每GPU 32的批量大小训练模型,训练了7天。

网格细化部分在GTX 3080 GPU上执行。

运行环境搭建

😃 为了方便使用,我们提供了docker镜像文件Setup using Docker.

  • Python 3.10.0
  • PyTorch 2.1.0
  • Cuda Toolkit 11.8.0
  • Ubuntu 22.04

克隆这个仓库.

git clone [email protected]:wyysf-98/CraftsMan.git

安装所需要的依赖包.

conda create -n CraftsMan python=3.10 -y
conda activate CraftsMan
conda install cudatoolkit=11.8 -c pytorch -y
pip install torch==2.3.0 torchvision==0.18.0 
pip install -r docker/requirements.txt

🎥 视频

观看视频

三维原生扩散模型 (Latent Set DiT Model)

我们在这里提供了训练和推理代码,以便于未来的研究。 The latent set diffusion model 在很大程度上基于Michelangelo, 采用了 DiT/Pixart-alpha DiT架构,并且参数量为500M.

预训练模型

目前,我们提供了以单视图图像作为条件的模型。 我们将根据实际情况考虑开源进一步的模型。

## 您可以直接使用 wget 下载:
wget https://huggingface.co/craftsman3d/craftsman/resolve/main/config.yaml
wget https://huggingface.co/craftsman3d/craftsman/resolve/main/model.ckpt

## 或者克隆模型仓库:
git lfs install
git clone https://huggingface.co/craftsman3d/craftsman

如果使用 wget 下载,应该手动将模型文件放置于 ckpts/craftsman 文件夹。

Gradio 示例

我们提供了gradio示例,为了更方便的使用。 要在本地机器上运行gradio演示,请简单运行:

python gradio_app.py --model_path ./ckpts/craftsman

模型推理

要通过命令行从图像文件夹生成3D网格,简单运行:

python inference.py --input eval_data --device 0 --model ./ckpts/craftsman

更多推理配置,请参考 inference.py

从头开始训练

我们提供了我们的训练代码以方便未来的研究。我们已经提供数据样本。 对于训练数据,请填写表格form获取下载链接。

由于部署数据的成本问题,如果您能帮助在社交媒体上分享我们的工作(任何形式都可),您将收到存储在AWS S3上的下载链接,这可以实现20-100 MB/s的下载速度。 有关更多的训练细节和配置,请参考configs文件夹。

### 训练形状自动编码器
python train.py --config ./configs/shape-autoencoder/l256-e64-ne8-nd16.yaml \
                 --train --gpu 0

### 训练单视图DiT模型
python train.py --config .configs/image-to-shape-diffusion/clip-dino-rgb-pixart-lr2e4-ddim.yaml \
                 --train --gpu 0

2D法线增强扩散模型(即将推出)

我们正在努力发布我们的三维网格细化代码。感谢您的耐心等待,我们将为这个激动人心的发展做最后的努力。" 🔧🚀

您也可以在视频中找到网格细化部分的结果。

❓常见问题

问题: 如何获得更好的结果? 0. 由于我们资源有限,将会逐步扩大数据集和训练规模,因此我们将在未来发布更多的预训练模型。

  1. 就像2D扩散模型一样,尝试不同的随机数种子,调整CFG比例或不同的调度器。
  2. 我们将在后期考虑提供一个以文本提示为条件的版本,因此您可以使用一些正面和负面的提示。

💪 待办事项

  • 推理代码
  • 训练代码
  • Gradio & Hugging Face演示
  • 模型库,我们将在未来发布更多的ckpt
  • 环境设置
  • 数据样本
  • 网格细化代码

🤗 致谢

  • 感谢光影幻像提供计算资源和潘建雄进行数据预处理。如果您对高质量的3D生成有任何想法,欢迎与我们联系!
  • Thanks to Hugging Face for sponsoring the nicely demo!
  • Thanks to 3DShape2VecSet for their amazing work, the latent set representation provides an efficient way to represent 3D shape!
  • Thanks to Michelangelo for their great work, our model structure is heavily build on this repo!
  • Thanks to CRM, Wonder3D and LGM for their released model about multi-view images generation. If you have a more advanced version and want to contribute to the community, we are welcome to update.
  • 感谢 Objaverse, Objaverse-MIX 开源的数据,这帮助我们进行了许多验证实验。
  • 感谢 ThreeStudio 实现了一个完整的框架,我们参考他们出色且易于使用的代码结构。

📑许可证

CraftsMan在AGPL-3.0下,因此任何包含CraftsMan代码或训练模型(无论是预训练还是自定义训练)的下游解决方案和产品(包括云服务)都应该是开源的,以符合AGPL的条件。如果您对CraftsMan的使用有任何疑问,请先与我们联系。

📖 BibTeX

@misc{li2024craftsman,
title         = {CraftsMan: High-fidelity Mesh Generation with 3D Native Generation and Interactive Geometry Refiner}, 
author        = {Weiyu Li and Jiarui Liu and Hongyu Yan and Rui Chen and Yixun Liang and Xuelin Chen and Ping Tan and Xiaoxiao Long},
year          = {2024},
archivePrefix = {arXiv preprint arXiv:2405.14979},
primaryClass  = {cs.CG}
}