本技术提出了一种基于四元组损失网络的视觉地点识别模型构建方法及系统,涉及机器人和计算机视觉技术领域,针对的问题是:传统视觉识别技术在环境条件因素变化、视角变化等场景下无法保持鲁棒性,模型识别准确性差。通过四元金字塔编码器,得到全局特征描述符,将全局描述符输入至哈希编码器生成全局哈希码;基于全局哈希码对四元损失网络进行训练;采用贝叶斯四元损失网络进行概率估计,构建的最大似然函数提取候选地点。通过多通道注意力机制和掩码特征融合,增强地点识别模型的多尺度特征表达能力,引入四元损失函数提高模型的泛化性能和匹配准确性,解决了传统视觉识别技术在环境条件因素变化、视角变化等场景下鲁棒性和准确性差的问题。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
视觉地点识别是计算机视觉领域中的一个具有挑战性的任务,通过提取目标的特征,然后对特征点进行匹配,最终实现位置识别与回环检测。作为计算机视觉领域中的重要研究方向,这个任务在许多应用中都非常关键;在机器人导航领域,视觉地点识别可以帮助机器人通过摄像头捕捉周围环境的图像,并与预先构建的地图进行匹配,从而实现自主移动与回环检测;在自动驾驶领域,自动驾驶系统使用视觉地点识别来识别车道标记、交通标志和路标,从而进行车道保持和路径规划。
近年来,视觉地点识别面临了一些关键挑战,影响了其在实际应用中的表现和可靠性。视觉地点识别系统难以在不同的光照条件、天气变化(如雨、雪、雾)、季节性变化(如春夏秋冬)中保持鲁棒性;环境的变化会显著影响图像的特征,从而影响识别的准确性;同一地点从不同的距离、角度或视角拍摄可能会产生显著的视觉差异,使得传统的视觉特征匹配方法难以有效识别和对比。
通过上述分析,可知,现有视觉识别技术存在一定的不足:
(1)由于环境的变化会显著影响图像的特征,而现有的视频地点识别技术无法在不同的光照条件、天气变化(如雨、雪、雾)、季节性变化(如春夏秋冬)中保持鲁棒性,识别准确性差;
(2)同一地点从不同的距离、角度或视角拍摄可能会产生显著的视觉差异,而传统的视觉特征匹配方法在视角变化等场景下难以有效识别和对比。
实现思路