本申请公开了基于注意力机制的局部感知点云表示学习预训练方法及装置,涉及点云表示学习技术领域,包括:通过对三维模型表面进行点云数据采样确定预训练数据集;预训练数据集为点云形状的数据集;基于转换器模型结构及预设局部感知自注意力机制确定待训练模型,利用待训练模型、掩码建模的预训练策略对预训练数据集进行数据处理;基于数据处理结果、待训练模型进行局部与全局的特征提取,利用特征提取结果及待训练模型中的密度感知倒角距离损失计算机制确定训练损失,得到预训练后模型;采集目标产品的点云数据确定微调数据集,利用预训练后模型及微调数据集进行特征提取与点云分类,完成微调,得到目标模型。本申请提高了点云特征提取的质量。
背景技术
随着计算设备和深度学习的快速发展,点云数据逐渐成为感知领域中不可或缺的一环,点云表示学习也受到越来越多关注。受限于其数据标注的困难性,以及点云具有的无序性,这现有方案中采用转换器(Transformer)模型结构进行点云感知、点云理解任务。
然而,由于Transformer模型结构的预训练点云模型对局部特征感知较弱,这使得在现有方案中,针对作为点云表示学习中重要一环的局部特征提取的表现较差。虽然在视觉中已有许多工作对局部自注意力进行研究,但在点云中少有相关研究,并且由于其空间连续性的性质,视觉中相关的方法并不直接适用。同时Transformer由于其对序列长度的二次复杂度,限制了将Transformer应用在更大规模点云数据的能力。
实现思路