发布时间:2025-7-22
类别:行业动态
阅读:0
摘要:
无人系统智能感知与探索的核心技术之一
引言
基于视觉的同时定位与地图构建技术(Simultaneous Localization And Mapping ,SLAM)是无人系统智能感知与探索的核心技术之一,其被广泛应用于太空探索、灾后搜救、地下矿道探索、水下潜航等领域。然而现有大部分SLAM算法难以处理场景中的运动物体,进而导致SLAM方法的性能退化,给高精度位姿估计与地图构建带来挑战。
动态场景下视觉SLAM的主要挑战
目前,传统视觉SLAM都基于静态环境的假设,这使得视觉SLAM可以利用前端特征点匹配、后端回环检测等关键技术完成定位与环境理解。但这一假设限制了视觉SLAM在真实场景中的广泛应用,因此动态环境下可靠运行的视觉SLAM成为目前广泛关注的一个研究热点与难点。
从视觉SLAM定义出发,可以从两方面理解这一难点。首先动态目标会影响前后帧之间的匹配,从而大幅度降低视觉SLAM的定位精度,其次动态目标的出现会影响环境理解过程中所构造地图的稳定性,如常规特征地图、栅格地图和点云地图在动态场景下都无法展现真实的场景信息。
为克服环境中动态目标对视觉SLAM的影响,武汉大学高智教授智能无人系统团队提出了一种基于目标检测网络的视觉SLAM系统。
该方法首先利用被迫移动物体与动态目标间的空间位置关系,并结合光流约束判断真正的动态目标,从而剔除动态特征点,提升定位精度;其次提出一种基于超体素的快速点云分割方案,将基于静态区域构建的地图进行优化。同时,构建的语义地图可提供更高精度训练数据样本,又可以进一步提升目标检测网络性能。
武汉大学团队的方法
武汉大学高智教授带领的智能无人系统团队研究人员发现,现实场景中的动态目标可被分为两类:
一类为主动的动态目标,即在目标检测网络中可以通过先验设置的动态目标;
另一类为被动的动态目标,即这些目标原本应是静态的,但因为一些人为因素而运动,如被拿在手里的书本等,且这些被迫移动的物体都大概率会与动态目标相邻。
基于这一观察,结合目标检测网络,高智教授团队提出一种简单有效的方法检测实际移动目标,区分主动移动目标与被动移动目标。该方法克服了现有结合动态目标检测视觉SLAM方法不能区分虚假移动目标和静止目标的缺陷。
同时为验证通过目标检测网络判断出的结果是否可靠,团队又加入了光流约束模块,即通过计算符合几何约束的光流特征点的比例来判断潜在动态目标框内的目标是否真的存在运动。这一模块可以更加有效地针对诸如停在原地的汽车等,这类保持静止的潜在动态目标。
在地图构建方面,团队采用了循序渐进的方式建立多层次地图,每个层次的地图都有不同特点。首先是稠密语义点云地图,该地图在携带语义信息的同时能够更加直观地展现场景内容;
其次是语义分割地图,团队提出一种简便快速的点云分割方法,该方法基于超体素和邻接图思想,能够有效改善语义信息的误匹配和无法对齐等现象;最后是物体级语义地图,独立的三维模型被首次使用来表示每个不同物体类别。
实验结果分析
团队不仅在公开数据集上完成了相关验证实验,也通过Intel RealSense D400系列相机在真实室内场景下采集数据并进行实时实验。
通过将不同时刻生成的系统位置和姿态与对应的真实位置和姿态进行比较,可评估该视觉SLAM系统的定位精度。评价指标选用了被广泛使用的绝对轨迹误差ATE和相对误差RPE,其中绝对轨迹误差通过对真实值的位置偏移求和来评估轨迹的整体质量,而相对位姿误差则考虑局部运动误差,因此可以用来测量漂移。
为了能够提供更加完善的实验结果,本文对每个数据集进行连续5次的数据采集,记录每次的均方根误差,并将这5次的均值作为最终数据样本,数据结果。实验结果表明所提方法在高动态场景下,无论是ATE还是RPE,相比现有方法都有非常明显的提高。
所提方法构建的地图为稠密地图,因此可通过点云数量的对比及每个三维点的空间位置的比较来进行较为准确的评价。相较于现有地图重建方法,所提方法重建的地图与真实模型的重合度更高。
展示了在TUM的fr3-W-xyz数据集上生成多层次地图的最终结果,可以看出3张地图都没有受到数据集中大幅度走动的人的影响,并且都携带了一致的语义信息,其中绿色代表显示器,黄色为键盘,粉色为鼠标。而生成的地图作为物体级语义地图不仅可以为避障和抓取等高级任务提供有效帮助,还节省了更多的存储资源。
总结
武汉大学高智教授智能无人系统团队针对动态场景下的不确定性问题,利用动态场景中目标之间的相互关系,结合目标检测网络和光流约束,提出了一套完整的可适用于动态场景的视觉SLAM方案。该方案不仅能够提升动态场景下的定位精度,还利用提出的基于超体素的点云分割方案,完成动态场景下的多层次语义地图构建。该视觉SLAM方案可以用于避障、导航等真实应用场景。
下一篇:
下一个时代,共同见证。
Copyright 2024 gkzhan.com Al Rights Reserved 京ICP备06008810号-21 京