Pre-training with 3D Synthetic Data: Learning 3D Point Cloud Instance Segmentation from 3D Synthetic Scenes
作者: Daichi Otsuka, Shinichi Mae, Ryosuke Yamada, Hirokatsu Kataoka
发布时间: 2025-04-03
来源: arxiv
研究方向: 三维点云实例分割与生成模型
主要内容
该研究提出了一种基于生成模型(Point-E)的3D点云实例分割模型预训练方法,通过使用3D合成数据来扩展3D场景数据集,并在此基础上进行模型训练,以提高3D点云实例分割的准确性。
主要贡献
1. 提出了一种基于3D合成数据的3D点云实例分割模型预训练方法。
2. 利用Point-E生成模型自动合成3D对象实例,扩展3D场景数据集。
3. 通过在扩展后的数据集上预训练和微调模型,提高了3D点云实例分割的准确性。
4. 证明了3D生成模型在3D点云实例分割中的有效性。
研究方法
1. 使用Point-E生成模型自动生成3D对象实例。
2. 将生成的3D对象实例随机放置在现有的3D场景数据集中。
3. 在扩展后的数据集上使用Mask3D模型进行预训练。
4. 在S3DIS数据集上进行模型微调。
实验结果
实验结果表明,与从头开始训练和仅使用ScanNetV2进行预训练相比,使用3D合成数据进行预训练的方法在S3DIS数据集上的平均精度(AP)提高了2.9个点。此外,在13个对象实例类别中有7个类别的AP最高,证明了该方法的有效性。
未来工作
未来工作可以包括使用更先进的3D生成模型,调整每个场景中对象实例的数量,以及探索3D合成数据在更多场景下的应用。