Free360: Layered Gaussian Splatting for Unbounded 360-Degree View Synthesis from Extremely Sparse and Unposed Views
作者: Chong Bao, Xiyu Zhang, Zehao Yu, Jiale Shi, Guofeng Zhang, Songyou Peng, Zhaopeng Cui
发布时间: 2025-04-02
来源: arxiv
研究方向: 三维重建与渲染
主要内容
本文提出了一种名为Free360的新型神经网络渲染框架,用于从极稀疏和无姿态的视角中重建和解算无界360度场景。该框架能够有效地解决无界场景中空间模糊性问题,并通过迭代融合重建和生成过程,实现高质量的三维重建和新型视图合成。
主要贡献
1. 提出了一种新的神经网络渲染框架,用于无界360度场景的无姿态和极稀疏视角的三维重建。
2. 提出了一种基于分层高斯表示的方法,以解决无界场景中空间模糊性问题。
3. 引入了层特定引导优化技术,以细化分层表示中的重建误差。
4. 设计了重建和新型视图生成之间的迭代融合策略,以促进两个过程之间的相互条件和增强。
5. 提出了一个不确定性感知训练技术,以减少误差传播并确保稳健的重建。
研究方法
1. 分层高斯表示
2. 层特定引导优化
3. 迭代融合重建和生成
4. 不确定性感知训练
实验结果
在Mip-NeRF 360和Tanks and Temples数据集上进行的实验表明,Free360在渲染质量和表面重建精度方面优于现有方法。此外,消融实验表明,每个组件都可以有效地提高重建质量。
未来工作
将增强的视频扩散模型集成到框架中,以进一步提高重建质量。此外,探索解决具有广泛重复纹理的场景,这些场景中立体重建模型无法进行忠实全局重建。