点击上方“3D视觉车间,选择星标
第一时间送达干货
作者丨paopaoslam
来源泡泡机器人SLAM
标题:Continuous Scale-Space Direct Image Alignment for Visual Odometry from RGB-D Image
作者:Yassine Ahmine, Guillaume Caron, Fatima Chouireb, and El Mustapha Mouaddib
来源:2021 IEEE International Conference on Robotics and Automation (ICRA 2021)
编译:李健
审核:Zoe,王靖淇
本文提出了一种新的厚度 3D 根据像素强度估计一对相机位置之间的欧氏变换矩阵。其创新之处在于使用图像的尺度空间表示,在多分辨率图像金字塔的每个层级内进行自动尺度适应。通过在同一优化框架中不断优化尺度参数和相机位置参数。本文提出的方法显著提高了较大帧间运动直接图像对齐的鲁棒性。在TUM RGB-D 数据集中的实验表明,该算法优于基于固定尺度金字塔的前沿对齐方法。
图1. 算法目标是对齐一对图像{I1, I2}对齐产生的图像是 GI2(W, λ) 和 I2(W)。基于固定尺度金字塔的方法无法对齐图像,因为它陷入了局部最小值,而基于优化尺度金字塔的方法可以成功对齐,因为它可以适应调整图像光滑度以抑制局部最小值。
图2. 上图:如图所示,每个自由度的成本函数与最大粒度金字塔级的尺度空间自由度相结合。λ = 5 和 λref = 1 剖面图。λ = 0.1 和 λref = 1 剖面图(相当于固定比例)
图3. 光度误差的变化(对于每个金字塔层)和相应的规模参数。蓝线表示λ每次迭代的值(x红色虚线表示轴)λref。
表I. 本文提出的方法及PP-B方法在fr1/room序列上的RPE(相对位置误差)统计。
表II. 本文提出的方法及PP-B方法在fr1/desk序列上的RPE(相对位姿误差)统计。
表III. 本文提出的方法及PP-B方法在fr2/desk序列上的RPE(相对位置误差)统计。
表IV. 本文提出的方法及PP-B方法在fr2/desk序列上的RPE(相对位置误差)均方根误差和平均值。
表V. 本文提出的方法及PP-B方法在fr1/desk序列上的RPE(相对位姿误差)均方根误差和平均值。
表VI. 本文提出的方法及PP-B方法在fr1/room序列上的RPE(相对位置误差)均方根误差和平均值。
表VII. 本文提出的方法和PP-B方法在fr2/desk序列上的ATE(绝对轨迹误差)均方根误差和平均值。
图4. fr1/desk和fr1/room不同的图像步骤在序列中(image step,连续一组图像)中的图像对示例
表VIII. 本文提出的方法及PP-B方法在fr1/desk序列上的ATE均方根误差(绝对轨迹误差)。
表IX. 本文提出的方法和PP-B方法在fr2/desk序列上的ATE(绝对轨迹误差)均方根误差。
图5. fr1/floor序列中提到的图像步骤ATE(绝对轨迹误差)方根误差和平均值的变化(单位:m)
图6. fr1/desk在序列中,图像步为1时的相机速度(a)、相机加速度(b)和估计误差(c)随时间变化
图7. fr1/desk在序列中,图像步为4时的相机速度(a)、相机加速度(b)和估计误差(c)随时间变化
图8. 如图所示,每对误差如图所示。对于 fr1/room 考虑不同的图像步数:1 (a)、2 (b)、3 (d) 和 4 (e)。(c) 和 (f) 图像步为分别显示 1 和 4 估计轨迹和真实值(在 xy 平面上)。PP-B 和新的 OP-B 方法分别是红色和蓝色。真实轨迹为黑色。
图9. 如图所示,每对误差如图所示。对于 fr1/desk 考虑不同的图像步数:1 (a)、2 (b)、3 (d) 和 4 (e)。(c) 和 (f) 图像步为分别显示 1 和 4 估计轨迹和真实值(在 xy 平面上)。PP-B 和新的 OP-B 方法分别是红色和蓝色。真实轨迹为黑色。
图10. 如图所示,每对误差如图所示。对于 fr2/desk 考虑不同的图像步数:1 (a)、2 (b)、3 (d) 和 4 (e)。(c) 和 (f) 图像步为分别显示 1 和 4 估计轨迹和真实值(在 xy 平面上)。PP-B 和新的 OP-B 方法分别是红色和蓝色。真实轨迹为黑色。
图11. 每个轨迹的绝对误差如图所示。 fr1/floor 考虑每个图像(a)和 2取1的图像(c), (b) 和 (d) 分别显示了图像步为 1 和 2的估计轨迹和真值(在 xy 平面上)。PP-B 和新的 OP-B 方法是红色和蓝色。真实轨迹是黑色的。
In this paper, we propose a novel dense 3D image alignment algorithm that estimates the Euclidean transformation between pairs of camera poses from pixel intensities. The novelty consists in the automatic scale adaptation within each level of a multi-resolution image pyramid, using the scale-space representation of images. This is done through the continuous optimization of a scale parameter along with camera pose parameters in the same optimization framework. The proposed approach permits to significantly improve the robustness of the direct image alignment to large inter-frame motion. Various experiments on the TUM RGB-D dataset show that the proposed algorithm outperforms a fixed scale pyramidbased state-of-the-art alignment method.
如果您对本文感兴趣,请点击下载完整的文章
本文仅进行学术分享。如有侵权行为,请联系删除。
后台回复:
后台回复:
后台回复:
1.面向自动驾驶领域的多传感器数据融合技术
2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进4.国内首个面向工业级实战的点云处理课程5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)
9.从零搭建一套结构光3D重建系统[理论+源码+实践]
10.单目深度估计方法:算法梳理与代码实现
11.自动驾驶中的深度学习模型部署实战
12.相机模型与标定(单目+双目+鱼眼)
13.重磅!四旋翼飞行器:算法与实战
14.ROS2从入门到精通:理论与实战
15.国内首个3D缺陷检测教程:理论、源码与实战
扫码添加小助手微信,可
一定要备注:
▲长按加微信群或投稿
▲长按关注公众号
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、答疑解惑、助你高效解决问题