Improved vision/inertial guidance fusion localization algorithm for vision front-end
-
摘要: 针对移动机器人在GNSS拒止环境下的高精度定位问题,提出了一种自适应通用角点检测(adaptive and generic accelerated segment test,AGAST)算法改进移动机器人视觉/惯导融合定位系统的视觉前端. 该算法通过局部直方图均衡化和自适应阈值检测改进视觉里程计(visual odometry,VO)算法,改善特征点提取的质量,提高VO在复杂环境中的定位精度和稳定性;基于因子图优化(factor graph optimization,FGO)算法融合VO和惯性导航系统(inertial navigation system,INS),实现移动机器人的高精度定位. 分别采用公开室内、室外数据集进行测试,结果表明:改进算法相比VINS-Mono主流算法室内数据集定位精度平均提升22.8%,室外数据集定位精度平均提升59.7%.
-
关键词:
- 因子图优化(FGO) /
- 自适应通用角点检测(AGAST) /
- 视觉里程计(VO) /
- 视觉/惯导融合
Abstract: Aiming at the problem of high-precision positioning of mobile robot in Global Navigation Satellite System GNSS denied environment, An adaptive thresholding adaptive and generic accelerated segment test AGAST feature detection algorithm is proposed to improve the visual front-end of a vision/inertial guidance fusion localization system for mobile robots. The algorithm improves the visual odometry computation method by local histogram equalization and adaptive threshold detection, improves the quality of feature point extraction, and enhances the positioning accuracy and stability of visual odometry in complex environments. Visual odometry and inertial navigation system are fused based on factor graph optimization algorithm to realize high-precision positioning of mobile robot. The results show that, compared with the mainstream VINS-Mono algorithm, the proposed algorithm improves the positioning accuracy by 22.8% in the experiment of indoor data set and 59.7% in the experiment of outdoor data set, the proposed algorithm perform better than VINS-Mono algorithm in both two experiments and it can provide better positioning services for mobile robots. -
0. 引 言
随着机器人、自动驾驶、物联网等技术的发展,移动机器人的应用越来越广泛. 精度高、实时性好、稳定性强的自主导航定位模块是移动机器人应用的基础,视觉和惯性导航系统(inertial navigation system,INS)是目前自主导航的主流解决方案,但单一传感器往往不能满足应用需求. 视觉导航面对快速运动、光照变化、纹理缺失或重复等复杂环境时充满挑战,惯性传感器长时间运行产生的漂移会导致定位精度下降[1]. 视觉/惯导融合定位能够突破单一传感器的局限,提高定位精度,增强鲁棒性,成为移动机器人自主导航的研究热点.
视觉惯性导航系统(visual inertial navigation system,VINS)按照后端优化所采用的处理方法可以分为基于滤波和基于优化两类. 基于滤波的VINS提出较早,多采用改进的卡尔曼滤波模型. 最具代表性的是文献[2]提出的一种基于扩展卡尔曼滤波(extended Kalman filter,EKF)的即时定位与地图构建(simultaneous localization and mapping,SLAM)框架——多状态约束卡尔曼滤波器(multi-state constraint Kalman filter,MSCKF),后续采用滤波优化的VINS算法大多在此方案上改进实现;但基于滤波的VINS算法对于环境变化比较敏感,对数据质量及时间同步要求高,定位精度和稳定性容易受到影响. 基于优化的VINS是目前研究的热点,文献[3]最早提出了一种基于图优化的OKVIS算法,在滑动窗口内对视觉关键帧和惯性测量单元(inertial measurement unit,IMU)预积分进行非线性优化,采用IMU预积分的方法,避免了IMU重复积分的问题;OKVIS特征跟踪使用特征点匹配进行,占用计算资源,运行效率低,且不具备回环检测功能,无法进行误差校正. 文献[4]提出了一种基于滑动窗口因子图优化(factor graph optimization,FGO)的单目视觉/惯导融合定位算法VINS-Mono,添加了回环检测功能实现视觉重定位,减小累计误差;该团队后续推出的支持双目传感器的VINS-Fusion,能够更好地恢复深度信息;但两者使用Shi-Tomasi特征检测算法作为视觉前端,可能受到光照、纹理以及噪声等因素影响出现特征点冗余和误检. 文献[5]提出了一种纯视觉SLAM系统ORB-SLAM (oriented fast and rotated brief-simultaneous localization and mapping),视觉前端使用FAST (features from accelerated segment test)特征点和BRIEF (binary robust independent elementary features)描述子的ORB特征点,在环境出现重复纹理时易出现误匹配和冗余;后续该团队在ORB-SLAM的基础上,推出了支持双目相机和RGB-D相机的ORB-SLAM2;最新版本ORB-SLAM3引入了IMU预积分因子和视觉重投影因子,具备视觉/惯导融合功能,可以实现对所有历史关键帧的重用,进一步提高了算法的适应性和定位精度,但在长时间、大范围的场景运行时仍存在地图漂移的风险.
在移动机器人应用场景中,快速运动、光照变化、纹理重复或缺失等环境因素的变化会影响特征点提取的数量和质量,造成视觉导航系统性能下降,影响定位系统的精度和稳定性. 本文针对上述问题,提出了一种自适应阈值AGAST (adaptive and generic accelerated segment test)特征点检测算法改进视觉/惯导融合定位系统的视觉前端,设计了自适应阈值设定策略,根据图像的灰度信息自适应调整特征点检测阈值,提高视觉里程计(visual odometry,VO)的精度和稳定性;基于FGO模型[6]融合VO和INS实现移动机器人室内外精确定位.
1. 算法流程
本文的移动机器人视觉/惯导融合定位算法是一种基于VINS-Mono[4]改进的单目视觉/惯导组合定位算法. 算法流程如图1所示,主要包括测量预处理、估计器初始化和基于FGO的视觉/惯导融合定位三部分.
1)测量预处理:分别对采集的图像信息和IMU数据进行处理,采用自适应阈值AGAST特征点检测算法提取图像特征,使用LK (Lucas Kanade)稀疏光流法[7]进行特征点的跟踪与匹配;采用捷联惯性导航算法[8-9]对IMU数据预积分处理,得到相邻关键帧之间的位姿关系.
2)估计器初始化:对匹配的特征点进行三角测量恢复深度信息,使用PnP (Perspective-n-Point)算法估计相邻图像的相对姿态,再进行全局光束平差法(bundle adjustment,BA)优化相机位姿完成视觉位姿初始化;通过视觉/IMU联合校准算法对齐视觉和惯导数据,在线估计IMU偏差和重力,标定单目视觉尺度,完成视觉和惯导的联合初始化.
3)基于FGO的视觉/惯导融合定位:将初始化后的关键帧数据和预积分数据加入到滑动窗口中,对先验信息进行边缘化,建立视觉和IMU测量残差模型,进行因子图优化解算得到最优解,实现对移动机器人运动的实时精确定位.
VINS-Mono算法是目前视觉/惯导融合定位的主流算法,在多数场景有很好的适应性,但是VINS-Mono算法容易受到外界环境的影响. 快速运动、光照变化、纹理重复或缺失等环境因素的变化,容易引起视觉前端特征提取的不稳定,导致系统的定位精度和稳定性下降. 对此,本文主要改进了视觉预处理部分的VO特征点检测算法,提高视觉/惯导融合定位系统在外界环境变化时的稳定性.
2. VO改进算法
VO是VINS算法的核心,为提高VO的精度、稳定性和运行效率,本文提出一种自适应阈值AGAST特征点检测算法,算法流程如图2所示. 针对不同图像的灰度变化合理选择特征点,在保证定位精度的同时提高计算效率,改善VO在光照变化、图像纹理缺失或重复等挑战环境下的稳定性,提高定位精度.
2.1 直方图均衡化
通过使用局部直方图均衡化方法,解决由于图像整体亮度不均造成的特征点提取的数量不足和质量不佳的问题[10]. 灰度直方图通过统计每个灰度级上的像素数量来描绘图像的灰度分布,直观的反应像素的明暗程度对比和比例关系,可以将灰度直方图表示为一维离散函数
$$ p({s_k}) = {n_k}/n $$ (1) 式中:
$ p\left({s}_{k}\right) $ 表示灰度值出现的频率;$ {s}_{k} $ 表示灰度值;$ n $ 和$ {n}_{k} $ 分别表示像素总量和对应灰度级的像素数量.局部直方图均衡化[9]的原理是将图像分割成多个子块,计算各子块灰度值的累计概率分布函数,确定原始图像与目标图像之间的映射关系,独立的对各子块均衡化处理,增强局部区域内的对比度,避免全局均衡化时出现局部过度增强而造成图像特征丢失的情况.
$$ {t_k} = {f_E}H({s_k}) = \sum\limits_{i = 0}^k {{p_i}({s_i})} $$ (2) 式中:
$ {t}_{k} $ 为均衡化后各像素灰度;$ {f}_{E}H(\cdot) $ 为离散化后的灰度变换函数. 如图3所示,经过均衡化处理后,灰度直方图相对平缓,图像暗部细节变的更加清晰,较好地保留了图像特征.2.2 AGAST特征检测算法
本文提出了一种自适应阈值AGAST特征点检测算法,采用灰度质心法和图像金字塔等方法弥补AGAST特征点不具备旋转、尺度不变性的不足[11].
2.2.1 AGAST算法原理
AGAST特征点检测算法是基于FAST特征点检测算法的一个改进版本,两者检测原理相同[6]. FAST特征点检测原理是在图像中定义一个圆形窗口,比较圆心点
$ p $ 与圆周上各像素点的灰度值差异,根据像素点的灰度值与$ p $ 点的灰度值之间的差异大小,判断$ p $ 点是否为特征点,FAST特征提取窗口模板如图4所示.基于FAST特征提取原理[12],其特征提取的具体步骤如下:1)将图像转化为灰度图像,在图像中选取一像素点
$ p $ ,设$ p $ 点灰度值为$ I\left(p\right) $ ;2)设定一个合适的检测阈值$ T $ ;3)以像素点$ p $ 为圆心,半径$ R $ 作圆,该圆周上存在$ M $ 个像素点;4)设圆环上任意一像素点的灰度值为$ I\left(x\right) $ ,与中心像素点$ p $ (待检测像素点) 的灰度值$ I\left(p\right) $ 作差后,再与阈值$ T $ 比较. 根据特征点检测式(3)进行计算,当与中心像素点$ p $ 的灰度差值大于$ T $ 的像素点数量大于$ N $ 时,则可判断点p为特征点.$$ N = \sum {\left| {I(x) - I(p)} \right|} \geqslant T $$ (3) AGAST特征检测算法将FAST算法使用的ID3决策树改进为构建最优二叉决策树,通过在扩展的结构空间中寻找最优决策树,结合加速分割算法,在当前图像帧信息进行决策树的动态分配,加速特征点提取速度[13]. 同时AGAST算法将待检测像素点与周围像素的灰度差距进行了更为详细的配置,具体判定公式如式(4):
$$ {S_{p \to x}} = \left\{ {\begin{array}{*{20}{c}} {d,{\text{ }}{I_{{p \to x}}} \leqslant {I_{p}} - T} \\ {\overline d ,{\text{ }}{I_{{p \to x}}} \geqslant {I_p} - T \cap S'_{p \to x} = u} \\ {s,{\text{ }}{I_{{p \to x}}} \geqslant {I_p} - T \cap S'_{p \to x} = \overline b } \\ {s,{\text{ }}{I_{{p \to x}}} \leqslant {I_p} + T \cap S'_{p \to x} = \overline d } \\ {\overline b ,{\text{ }}{I_{{p \to x}}} \leqslant {I_p} + T \cap S'_{p \to x} = u} \\ {b,{\text{ }}{I_{{p \to x}}} \geqslant {I_{p}} - T} \end{array}} \right. $$ (4) 式中:
$ {S}'_{p\to x} $ 表示前一个状态,$ p\to x $ 表示像素点$ p $ 相对于$ x $ 的位置;$ {I}_{p\to x} $ 表示像素$ x $ 的灰度值;$ d $ 、$ \overline{d} $ 、$ s $ 、$ \overline{b} $ 、$ b $ 分别表示灰度值对比情况(暗、较暗、相似、较亮、亮);$ u $ 表示状态未知.2.2.2 图像金字塔和灰度质心法
图像金字塔通过对图像在不同的空间尺度上提取信息,得到多尺度、多分辨率的图像集合,构建高斯图像金字塔,再对每一层图像进行AGAST特征点检测,实现AGAST特征点的尺度不变性. 如图5所示,构建8层高斯图像金字塔,在每层图像上提取特征点[14]. 为了在每层图像上合理提取特征点,根据金字塔尺度因子计算得到每层图像需要提取的特征点数. 计算方法如式(5)
$$ N_f(1+1/s+1/s^2+\cdots+1/s^7)=M_f $$ (5) 式中:
$ M_f $ 为图像需提取的特征点总数;$ s $ 为尺度因子;$ N_f $ 为第0层期望提取的特征点数.灰度质心法是假设特征点所在图像块的灰度质心
$ c $ 与图像块的几何中心$ o $ 发生了偏移,以向量$ {{\boldsymbol{oc}}} $ 的方向作为特征点的方向,为特征点增加方向信息,实现AGAST特征点的旋转不变性[15]. 特征点方向的计算步骤如下:1)以待检测特征点为中心提取图像块B,定义图像块的矩为
$$ {m}_{pq}={\displaystyle \sum _{(x,y)\in B}{x}^{p}{y}^{q}}\cdot I(x,y) $$ (6) 式中:
$ p $ 和$ q $ 为图像块矩的阶系数$ \left(p,q\right)\in \left\{\mathrm{0,1}\right\} $ ;$ I(x,y) $ 为图像中坐标是$ (x,y) $ 的像素灰度值.2)根据图像块的矩确定图像块的质心
$$ c = \left( {\begin{array}{*{20}{c}} {\dfrac{{{m_{10}}}}{{{m_{00}}}}}&{\dfrac{{{m_{01}}}}{{{m_{00}}}}} \end{array}} \right) $$ (7) 3)连接图像块几何中心
$ o $ 与质心$ c $ 的方向向量$ {{\boldsymbol{oc}}} $ ,将特征点的方向$ \theta $ 定义为$$ \theta = \arctan \left( {\frac{{{m_{01}}}}{{{m_{10}}}}} \right) $$ (8) 2.3 自适应阈值提取
AGAST算法是一种依赖图像灰度变化的特征点检测算法,根据像素点与周围像素之间的灰度差值判断像素点是否为特征点[16]. 判断时需设定检测阈值,多数方法均采用人为设定固定阈值. 单一固定阈值会导致视觉导航系统出现稳定性差、提取效率低等问题,若阈值设定过大会导致在纹理较弱的图像上提取不到足够数量的特征点,无法满足VO运行;若将阈值设置过小在处理图像纹理强、光照良好的图像时又会导致特征点冗余,降低运行效率. 针对此问题,设计了一种自适应阈值设定策略[17],通过统计每帧图像的灰度信息设定提取阈值,保证特征点提取数量的同时避免特征点冗余. 设计的自适应阈值计算方法为
$$ T = 1/((I(x)) \cdot n)\sum\limits_{^{x = 1}}^n {{{(I(x) - \overline {I(x)} )}^2}} $$ (9) 式中:
$ T $ 为计算所得的当前帧图像AGAST特征点提取阈值;$ I\left(x\right) $ 为第$ x $ 个像素灰度值;$ \overline{I\left(x\right)} $ 为图像上各像素灰度平均值;$ n $ 为图像的像素总个数.3. 实验与结果分析
为验证本文算法的有效性和准确性,首先进行了自适应AGAST算法的性能分析实验,然后在室内的EuRoC无人机数据集[18]和室外的轮式机器人数据集[19]进行测试,通过对比本文算法与主流VINS算法VINS-Mono的绝对轨迹误差(absolute trajectory error,ATE)中的均方根误差(root mean square error,RMSE),定量分析算法的定位精度和稳定性. 实验平台为个人计算机,处理器为Core i5-8250U,操作系统为64位Ubuntu20.04,实验环境搭建在ROS2 (Robot Operating System2)下,在关闭回环检测的模式下对本文算法与VINS-Mono算法的融合定位性能进行分析.
3.1 自适应AGAST算法性能分析
为验证本文算法对于改善特征点提取的有效性,选取了一组包含光照不均、弱纹理场景的14幅图像,这些图像选取自四组视觉/INS数据集. 分别使用四种特征点检测算法:Shi-Tomasi算法、FAST算法、AGAST算法和本文提出的自适应AGAST算法,对这组图片进行特征提取,实验环境为Ubuntu20.04、C++14与OpenCV4.
图6为四种算法对序列10图像进行特征点提取的效果对比,其中图6(d)为本文自适应 AGAST算法提取的特征点. 结果表明,与其他三种算法相比,本文算法提取的特征点数量有显著提升. 特别是图中红线标注的光照不足区域内,其他三种算法没有提取出特征点或提取特征点数量较少,而自适应AGAST算法提取的特征点在图像上分布更均匀.
表1列出了四种算法提取的特征点数量. 从表中可以看出,除图像整体亮度较低的序列03和序列06两幅图像,相比其他三种检测算法,特征点提取数量分别提升55.39%、97.18%和88.87%,自适应AGAST算法能够提取更多的特征点,为VO稳定运行提供足够数量的特征点支持. 这是由于采用了局部直方图均衡化方法改善了图像亮度分布,改善了图像质量. 因此,自适应AGAST特征点检测算法有助于改善VO在光照不均等挑战环境下的稳定性,提高系统的定位精度.
表 1 特征点提取结果序列 Shi-Tomasi FAST AGAST 自适应AGAST 1 97 48 53 122 2 83 63 69 168 3 88 81 91 102 4 268 115 133 268 5 92 65 63 198 6 77 57 64 78 7 495 413 411 732 8 265 254 251 360 9 406 338 342 637 10 769 730 727 1005 11 767 840 847 948 12 1006 1188 1206 2247 13 546 551 569 1000 14 163 112 116 348 3.2 EuRoC数据集实验
EuRoC数据集由多旋翼无人机在室内环境采集,包括一个工厂和两个房间,传感器包括双目相机(Aptina MT9V034,分辨率752×480,采样频率20 Hz)、工业级MEMS (Micro Electromechanical System)-IMU(ADIS16448,陀螺仪偏置不稳定性为14.5°/h,采样频率200 Hz)传感器进行数据采集,采用动作捕捉系统和激光追踪扫描仪获取载体实时位置作为参考轨迹. 采用VINS输出轨迹与真实轨迹之间的ATE作为评估指标,对两种VINS算法的运行效果进行评估. 实验采用EuRoc数据集中的5种MH数据,5种数据采集场景的挑战性依次增加.
实验结果如表2、图7和图8所示,GT表示真实轨迹,VINS和Our分别表示VINS-Mono算法和本文算法的轨迹. 表2为本文VINS算法和VINS-Mono算法的精度对比. 除MH-03序列,本文算法定位精度均优于VINS-Mono,定位精度分别提高48.47%、31.08%、22.89%、23.65%. 图7为本文算法和VINS-Mono在MH-05数据运行轨迹对比,MH-05是EuRoC数据中最具挑战性的数据集,存在部分场景光照不足、纹理缺失的情形,从图8的绝对轨迹误差对比中可以看出两种算法均能成功运行,但本文在特征检测中引入了直方图均衡化和自适应阈值,直方图均衡化能够提高图像质量,自适应检测阈值保证VO始终提取到足够的特征点. 因此本文算法在面对室内数据集中的光照不足、纹理缺失等环境时对于精度的保持相较与VINS-Mono更好.
表 2 EuRoc数据集MH序列绝对轨迹误差对比m 数据序列 系统 RMSE Mean Min Max Std MH-01 VINS-Mono 0.295 0.213 0.038 1.699 0.203 VINS 0.152 0.137 0.032 0.361 0.067 MH-02 VINS-Mono 0.148 0.124 0.022 0.396 0.081 VINS 0.102 0.082 0.012 0.284 0.060 MH-03 VINS-Mono 0.181 0.157 0.015 0.467 0.091 VINS 0.203 0.174 0.040 0.491 0.106 MH-04 VINS-Mono 0.415 0.388 0.098 0.735 0.147 VINS 0.320 0.303 0.129 0.580 0.106 MH-05 VINS-Mono 0.334 0.325 0.146 0.476 0.078 VINS 0.255 0.237 0.077 0.479 0.094 3.3 i2nav数据集实验
i2nav数据集由轮式机器人在有树木、建筑物及行人的复杂校园场景中采集. 传感器包括单眼相机(Allied Vision Mako-G131,分辨率为1 280×1 024)、工业级MEMS-IMU(ADIS16465,陀螺仪偏置不稳定性为2°/h,采样频率200 Hz). 采用GNSS实时动态(real-time kinematic,RTK)和导航级IMU组合的高精度定位和定向系统输出的结果的作为真实轨迹.
两组数据集场景均为校园快速路室外环境,外界环境复杂,存在人流和车辆运动,并且有光照不均以及纹理重复区域,评估方法同EuRoc数据集实验相同. 图9表示campus数据集的运行轨迹,该数据集使用的MEMS-IMU精度较高,本文算法采用的高精度惯导算法优势得以凸显,相较于VINS-Mono算法表现很大优势,如红线标记区域内本文算法能够较好地反应真实轨迹,而VINS-Mono出现明显偏移. 图10表明本文算法的绝对轨迹误差相对于VINS-Mono算法显著降低,结合表3中两种算法的误差对比,本文算法的RMSE降低64.06%、均值误差(Mean)降低64.27%、最小误差(Min)降低40.25%、最大误差(Max)降低62.48%、标准差(Std)降低63.17%.
表 3 campus数据集绝对轨迹误差对比m 处理方法 RMSE Mean Min Max Std 本文 1.565 1.388 0.077 3.390 0.725 VINS-Mono 4.355 3.885 0.046 9.037 1.969 building数据同campus数据配置相同,但运行的时间较长,存在多次急转弯情况,具有较高的挑战性. 实验结果如图11所示,building为数据集的轨迹,可以看出由于运行时间较长,本文算法与VINS-Mono算法都相对于真实轨迹发生了一定程度偏移,但本文算法相对于VINS-Mono本文方法的系统稳定性较强,在转弯场景(红线区域内)下,本文方法能够更好地体现真实轨迹. 图12表示两算法运行绝对轨迹误差的对比,可以看出本文算法在定位精度上有明显提升,有效减小了系统的漂移;图13为本文算法和VINS-Mono算法的各项误差对比,本文算法的各误差均显著下降,本文算法RMSE为3.759 m,VINS-Mono算法为8.419 m. 在i2nav数据集中的两个数据的运行情况,本文算法都表现出了显著优势,定位精度分别提高了64.06%和55.35%.
4. 结束语
本文基于VINS-Mono算法,提出一种自适应阈值AGAST特征点检测算法改进移动机器人视觉/惯导融合定位系统的视觉前端,采用自适应阈值的AGAST特征提取算法改进VO,提高了VO在快速运动、光照变化、纹理重复或缺失场景下的定位精度和稳定性;后端优化使用因子图优化融合VO和INS,实现移动机器人的视觉/惯导融合定位. 在室内环境EuRoc数据集和室外环境i2nav数据集上的测试结果表明,本文改进的VINS算法能够改善现有主流算法的定位精度和系统稳定性,在室内外环境中的定位精度均优于VINS-Mono算法,尤其在室外环境中具有更好的环境适应性,提升定位精度的同时增强了系统的稳定性,为实现移动机器人在GNSS拒止环境下的高精度定位提供了新方案.
-
表 1 特征点提取结果
序列 Shi-Tomasi FAST AGAST 自适应AGAST 1 97 48 53 122 2 83 63 69 168 3 88 81 91 102 4 268 115 133 268 5 92 65 63 198 6 77 57 64 78 7 495 413 411 732 8 265 254 251 360 9 406 338 342 637 10 769 730 727 1005 11 767 840 847 948 12 1006 1188 1206 2247 13 546 551 569 1000 14 163 112 116 348 表 2 EuRoc数据集MH序列绝对轨迹误差对比
m 数据序列 系统 RMSE Mean Min Max Std MH-01 VINS-Mono 0.295 0.213 0.038 1.699 0.203 VINS 0.152 0.137 0.032 0.361 0.067 MH-02 VINS-Mono 0.148 0.124 0.022 0.396 0.081 VINS 0.102 0.082 0.012 0.284 0.060 MH-03 VINS-Mono 0.181 0.157 0.015 0.467 0.091 VINS 0.203 0.174 0.040 0.491 0.106 MH-04 VINS-Mono 0.415 0.388 0.098 0.735 0.147 VINS 0.320 0.303 0.129 0.580 0.106 MH-05 VINS-Mono 0.334 0.325 0.146 0.476 0.078 VINS 0.255 0.237 0.077 0.479 0.094 表 3 campus数据集绝对轨迹误差对比
m 处理方法 RMSE Mean Min Max Std 本文 1.565 1.388 0.077 3.390 0.725 VINS-Mono 4.355 3.885 0.046 9.037 1.969 -
[1] 许智理, 闫倬豪, 李星星, 等. 面向智能驾驶的高精度多源融合定位综述[J]. 导航定位与授时, 2023, 10(3): 1-20. [2] MOURIKIS A I, ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation[C]//IEEE International Conference on Robotics and Automation, 2007. DOI: 10.1109/ROBOT.2007.364024.
[3] LEUTENEGGER S, LYNEN S, BOSSE M, et al. Keyframe-based visual–inertial odometry using nonlinear optimization[J]. Journal of robotics research, 2015, 34(3): 314-334. DOI: 10.1177/0278364914554813
[4] QIN T, LI P L, SHEN S J. VINS-Mono: a robust and versatile monocular visual-inertial state estimator[J]. IEEE transactions on robotics, 2018, 34(4): 1004-1020. DOI: 10.1109/TRO.2018.2853729
[5] MUR-ARTAL R, MONTIEL J M M, TARDOS J D. ORB-SLAM: a versatile and accurate monocular SLAM system[J]. IEEE transactions on robotics, 2015, 31(5): 1147-1163. DOI: 10.1109/TRO.2015.2463671
[6] 赖正洪. 基于视觉惯导融合的单目里程计算法研究[D]. 哈尔滨: 哈尔滨工程大学, 2022. [7] 李成美, 白宏阳, 郭宏伟, 等. 一种改进光流法的运动目标检测及跟踪算法[J]. 仪器仪表学报, 2018, 39(5): 249-256. DOI: 10.19650/j.cnki.cjsi.J1803270 [8] 严恭敏, 翁浚. 捷联惯导算法与组合导航原理[M]. 第一版. 西安: 西北工业大学出版社, 2019. [9] 姜柏军, 钟明霞. 改进的直方图均衡化算法在图像增强中的应用[J]. 激光与红外, 2014, 44(6): 702-706. [10] 梁琳, 何卫平, 雷蕾, 等. 光照不均图像增强方法综述[J]. 计算机应用研究, 2010, 27(5): 1625-1628. [11] 龙思源, 张葆, 宋策, 等. 基于改进的加速鲁棒特征的目标识别[J]. 中国光学, 2017, 10(6): 719-725. [12] CAO M W, JIA W, LI Y J, et al. Fast and robust local feature extraction for 3D reconstruction[J]. Computers and electrical engineering, 2018(71): 657-666. DOI: 10.1016/j.compeleceng.2018.08.012
[13] MAIR E, HAGER G D, BURSCHKA D, et al. Adaptive and generic corner detection based on the accelerated segment test[C]//European Conference on Computer Vision Computer Vision (ECCV 2010), Berlin, Heidelberg: Springer, 2010: 183-196. DOI: 10.1007/978-3-642-15552-9_14.
[14] 禹鑫燚, 詹益安, 朱峰, 等. 一种基于四叉树的改进的ORB特征提取算法[J]. 计算机科学, 2018, 45(S2): 222-225. [15] 李国竣, 徐延海, 段杰文, 等. 利用局部自适应阈值方法提取ORB-SLAM特征点[J]. 测绘通报, 2021(9): 32-36,48. DOI: 10.13474/j.cnki.11-2246.2021.0269 [16] 丁尤蓉, 王敬东, 邱玉娇, 等. 基于自适应阈值的FAST特征点提取算法[J]. 指挥控制与仿真, 2013, 35(2): 47-53. [17] 张猛, 唐清岭, 蒋小菲. 基于自适应的AGAST特征均匀化提取算法[J]. 智能计算机与应用, 2023, 13(8): 66-72. [18] BURRI M, NIKOLIC J, GOHL P, et al. The EuRoC micro aerial vehicle datasets[J]. Journal of robotics research, 2016, 35(10): 1157-1163. DOI: 10.1177/0278364915620033
[19] NIU X J, TANG H L, ZHANG T S, et al. IC-GVINS: A robust, real-time, INS-CentricGNSS-visual-inertial navigation system[J]. IEEE robotics and automation letters, 2023, 8(1): 216-223. DOI: 10.1109/LRA.2022.3224367