论文链接:

http://arxiv.org/abs/2209.14988

发布时间:2022.9.29


一、研究方向:

Zero-shot 的 text-to-3D合成 的经典之作

二、研究动机:

  1. lift pretrained 2D generations to 3Ds. (当时还没有很好的方法来把预训练的2D生成模型用到3D生成任务上,再考虑到那时候diffusion和nerf都很火,dreamfusion成功地把它们结合起来了,效果在当时很优秀)
  2. 对标CLIP Loss,提出了SDS Loss(在一年后的今天,又出现了很多改进版的loss,例如之前讲的DDS,VSD,CSD)

三、方法与技术:

没什么好说的,就是把2D Diffusion固定住,然后重建目标是一个nerf的一个视角渲染,recon loss的梯度传回3D场而不是用于训练2D模型,这样就把2D pretrained模型的信息蒸馏到了3D场里。

显而易见的pipeline:

四、实验结果:

不重要,已经过去一年了。

五、主要贡献:

SDS Loss


评价:

  • SDS是过去一年几乎所有基于pretrained diffusion的3D generation任务的基石
  • 效果在如今已经算是一般般了,没必要看
  • 预计下半年会出现越来越多替代SDS的新型loss

推荐相关阅读:

  • Collaborative Score Distillation for Consistent Visual Synthesis
  • ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation
  • Delta Denoising Score