本技术介绍了一种适用于动态目标的光流语义SLAM技术。该技术通过获取连续的RGB图像,并每隔八帧使用深度学习算法进行光流估计,以实现对动态对象的精确定位和建图。
背景技术
SLAM(Simultaneous Localization and Mapping)是一种同时进行定位和建图的技术,精确且高效的SLAM技术是保证机器人、无人车等设备实现精准导航的关键因素。其中ORB-SLAM2是较为经典的视觉SLAM算法,该算法在光照变化不大且静态的简单场景下的定位与建图精度较高,但不适用于复杂场景,如:视角波动大时造成的动态模糊严重影响ORB特征点的质量;在有动态物体的场景中,往往出现跟踪失败或者动态区域中特征点错误匹配的情况。而目前基于ORB-SLAM2利用深度学习改进的算法仍存在着以下缺陷:(1)只能识别出预训练好的动态对象类别,若场景中出现未知动态物体则不能有效识别该物体并剔除其区域中的动态特征点。(2)特征点提取的效率不高,严重影响系统的实时性,且特征点分布的合理性欠佳,降低了系统的定位精度。因此,基于上述两个难点需要设计出更为高效的SLAM方法使得无人车具有更高的定位与建图精度。使其能够在实际工程中具备较高的鲁棒性。
实现思路