论文链接:http://arxiv.org/abs/2012.02190

发布时间:2021-05-30


一、研究方向:

少视角合成,单视图重建

二、研究动机:

issues:

  1. NeRF需要许多输入视图和逐场景大量优化时间
  2. 传统少视角合成方法的相机姿态受限
  3. 传统方法需要3D监督或者mask
  4. 大多数现有方法在canonical space中运行

motivation:

  1. 少视角合成,跨场景泛化
  2. PixelNeRF是完全前馈的,只需要相对的相机姿态
  3. 只需要image监督
  4. PixelNeRF 在view space中运行,可以更好地重建未见的对象类别,并且不鼓励记忆训练集

三、方法与技术:

  1. 单视角合成:

图片先过卷积得到特征W,然后对于沿着具有视角方向d的目标摄像机射线的查询点x,通过投影和插值从特征体W中提取相应的图像特征。然后将该特征与空间坐标一起传递到 NeRF 网络 f 中。输出的 RGB 和密度值经过体积渲染并与目标像素值进行比较。坐标 x 和 d 位于输入视图的相机坐标系中。

2. 少视角合成(数量可变):

对于每个已知视角同上思路计算中间值Vi:

聚合每个Vi预测最终的RGB和密度值:

四、实验结果:

单类别训练的:

单视角重建

2-视角重建

类别无关训练的:

泛化到未见类别:

360°重建:

真实数据集上:


评价:

  • 从论文呈现的结果来看真实数据集上的表现并不好
  • CNN限制了合成精度

推荐相关阅读:

  • pixelNeRF: Neural Radiance Fields from One or Few Images