资讯详情

视觉SLAM总结——视觉SLAM面试题汇总

视觉SLAM总结-视觉SLAM面试题汇总

  • 视觉SLAM总结-视觉SLAM面试题汇总
    • 1. SIFT和SUFT的区别
    • 2. 相似变换、仿射变换和射影变换的区别
    • 3. Homography、Essential和Fundamental Matrix的区别
    • 4. 视差与深度的关系
    • 5. 描述PnP算法
    • 6. 常用的闭环检测方法
    • 7. 给最大连通域提供二值图
    • 8. 梯度下降、牛顿和高斯牛顿的区别
    • 9. 推导卡尔曼滤波,描述粒子滤波
    • 10. 如何求解 A x = b Ax=b Ax=b的问题
    • 11. 极限约束是什么?
    • 12. 单目视觉SLAM中尺寸漂移是如何产生的?
    • 13. 解释SLAM绑架问题
    • 14. 描述特征点法和直接法的优缺点
    • 15. EKF和BA的区别
    • 16. 边缘检测算子有哪些?
    • 17. 简单实现cv::Mat()
    • 18. 10个相机同时看到100个路标点BA雅克比矩阵的优化维度是多少?
    • 19. 介绍经典视觉SLAM框架
    • 20. 介绍您熟悉的非线性优化库
    • 21.室内SLAM与自动驾驶SLAM有什么区别?
    • 22. 紧耦合和松耦合是什么?优缺点。
    • 23. 地图点的构建方法是什么?
    • 24. 若一个3D点,我们在连续帧之间形成了2D特征点之间的匹配,但在这种匹配中可能存在错误的匹配。如何构建3D点?
    • 25. RANSAC选择最佳模型时使用的判断标准是什么?
    • 26. 除了RANSAC此外,鲁棒估计的方法是什么?
    • 27. 3D如何存储地图点?
    • 28. 给你m相机n点bundle adjustment。当我们模拟和迭代时,相机的位置会很快接近真实值。为什么地图点不能很快收敛?
    • 29. LM算法中的那个 λ \lambda λ 它是如何变化的?
    • 30. 说一下3D如何表达空间的位置?
    • 31. 李群与李代数的关系
    • 32. 求导 ? R 1 R 2 ? R 1 \frac{\partial R_{1} R_{2}}{\partial R_{1}} ?R1?R1 R 2​
    • 33. Mat是如何访问元素的?先访问行还是先访问列?
    • 34. 写出单目相机的投影模型,畸变模型。
    • 35. 安装2D lidar的平台匀速旋转的时候,去激光数据畸变,写代码
    • 35. 给两组已经匹配好的3D点,计算相对位姿变换,写代码
    • 36. ORB-SLAM初始化的时候为什么要同时计算H矩阵和F矩阵?
    • 37. 说一下Dog-Leg算法
    • 38. Vins-Mono里面什么是边缘化?First Estimate Jacobian?一致性?可观性?
    • 39. 说一下VINS-Mono的优缺点
    • 40. 推导一下VINS-Mono里面的预积分公式
    • 41. 在给定一些有噪声的GPS信号的时候如何去精准的定位?
    • 42. 如何标定IMU与相机之间的外参数?
    • 43. 给你xx误差的GPS,给你xx误差的惯导你怎么得到一个cm级别的地图?
    • 44. 计算H矩阵和F矩阵的时候有什么技巧呢?
    • 45. 给一组点云,从中提取平面。
    • 46. 给一张图片,知道相机与地面之间的相对关系,计算出图的俯视图。
    • 47. 双线性插值如何去做,写公式。
    • 48. RGB-D的SLAM和RGB的SLAM有什么区别?
    • 49 什么是ORB特征? ORB特征的旋转不变性是如何做的? BRIEF算子是怎么提取的?
    • 50 ORB-SLAM中的特征是如何提取的?如何均匀化的?
  • 参考
  • 个人面经
    • 51. 为什么射影变换自由度要减一?
    • 52. 解释下EPnP
    • 53. Lab色域是什么?
    • 54. 解释下并查集的结构
    • 55. Canny算子的流程?
    • 57. 简单说下其他边缘检测算子
    • 58. SLAM中采用逆深度的原因?
    • 59. SFM和SLAM里面的BA有什么区别?
    • 60. ORB SLAM里面的Local Map和VINS-mono里面的滑窗法有什么区别?
    • 61. RPE、ATE和RMSE分别是什么?
    • 62. ORB SLAM有什么缺点?

视觉SLAM总结——视觉SLAM面试题汇总

秋招基本上已经结束了,已经签到了自己向往公司的offer,下面是我准备秋招过程中从网上搜集的以及自己面试过程中遇到的一些和视觉SLAM相关的面试题,秋招不易,自己从前辈的分享中收获了很多,我也是希望通过自己的分享帮助到更多的人。

1. SIFT和SUFT的区别

  1. 构建图像金字塔,SIFT特征利用不同尺寸的图像与高斯差分滤波器卷积;SURF特征利用原图片与不同尺寸的方框滤波器卷积。
  2. 特征描述子,SIFT特征有4×4×8=128维描述子,SURF特征有4×4×4=64维描述子
  3. 特征点检测方法,SIFT特征先进行非极大抑制,再去除低对比度的点,再通过Hessian矩阵去除边缘响应过大的点;SURF特征先利用Hessian矩阵确定候选点,然后进行非极大抑制
  4. 特征点主方向,SIFT特征在正方形区域内统计梯度幅值的直方图,直方图最大值对应主方向,可以有多个主方向;SURF特征在圆形区域内计算各个扇形范围内x、y方向的haar小波响应,模最大的扇形方向作为主方向

2. 相似变换、仿射变换、射影变换的区别

:相当于是平移变换(t)和旋转变换(R)的复合,等距变换前后长度,面积,线线之间的角度都不变。自由度为6(3+3) :等距变换和均匀缩放(S)的一个复合,类似相似三角形,体积比不变。自由度为7(6+1) :一个平移变换(t)和一个非均匀变换(A)的复合,A是可逆矩阵,并不要求是正交矩阵,仿射变换的不变量是:平行线,平行线的长度的比例,面积的比例。自由度为12(9+3) :当图像中的点的齐次坐标的一般非奇异线性变换,射影变换就是把理想点(平行直线在无穷远处相交)变换到图像上,射影变换的不变量是:重合关系、长度的交比。自由度为15(16-1) 参考:·多视图几何总结——等距变换、相似变换、仿射变换和射影变换

3. Homography、Essential和Fundamental Matrix的区别

可以将一个二维射影空间的点变换该另一个二维射影空间的点,如下图所示,在不加任何限制的情况下,仅仅考虑二维射影空间中的变换,一个单应矩阵 H H H可由9个参数确定,减去scale的一个自由度,自由度为8。在这里插入图片描述 对两幅图像中任何一对对应点 x \bm x x和 x ′ \bm x' x′基础矩阵 F \bm F F都满足条件: x T F x ′ = 0 \bm{x^T F x' = 0} xTFx′=0,秩只有2,因此F的自由度为7。它自由度比本质矩阵多的原因是多了两个内参矩阵。 :本质矩是归一化图像坐标下的基本矩阵的特殊形式,其参数由运动的位姿决定,与相机内参无关,其自由度为6,考虑scale的话自由度为5。 参考多视图几何总结——基础矩阵、本质矩阵和单应矩阵的自由度分析

4. 视差与深度的关系

在相机完成校正后,则有 d / b = f / z d/b=f/z d/b=f/z,其中 d d d 表示视差, b b b 表示基线, f f f 是焦距, z z z 是深度。这个公式其实很好记,在深度和焦距确定的情况下,基线越大,视差也会越大。

5. 描述PnP算法

已知空间点世界坐标系坐标和其像素投影,公式如下 目前一共有两种解法,直接线性变换方法(一对点能够构造两个线性约束,因此12个自由度一共需要6对匹配点),另外一种就是非线性优化的方法,假设空间坐标点准确,根据最小重投影误差优化相机位姿。 目前有两个主要场景场景,其一是求解相机相对于某2维图像/3维物体的位姿;其二就是SLAM算法中估计相机位姿时通常需要PnP给出相机初始位姿。 在场景1中,我们通常输入的是物体在世界坐标系下的3D点以及这些3D点在图像上投影的2D点,因此求得的是相机坐标系相对于世界坐标系(Twc)的位姿 在场景2中,通常输入的是上一帧中的3D点(在上一帧的相机坐标系下表示的点)和这些3D点在当前帧中的投影得到的2D点,所以它求得的是当前帧相对于上一帧的位姿变换

6. 闭环检测常用方法

ORB SLAM中采用的是词袋模型进行闭环检测筛选出候选帧,再通过求解Sim3判断最合适的关键帧 LSD SLAM中的闭环检测主要是根据视差、关键帧连接关系,找出候选帧,然后对每个候选帧和测试的关键帧之间进行双向Sim3跟踪,如果求解出的两个李代数满足马氏距离在一定范围内,则认为是闭环成功

7. 给一个二值图,求最大连通域

这个之后单独写一篇博客来研究这个好了,二值图的连通域应该是用基于图论的深度优先或者广度优先的方法,后来还接触过基于图的分割方法,采用的是并查集的数据结构,之后再作细致对比研究。

8. 梯度下降法、牛顿法、高斯-牛顿法的区别

在BA优化、PnP、直接法里面都有接触到非线性优化问题,上面几种方法都是针对对非线性优化问题提出的方法,将非线性最优化问题作如下展开,就可以获得 是一个,通常也称为最速下降法。 要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。因此指保留一阶梯度信息。缺点是过于贪心,容易走出锯齿路线。 是一个,基本思想是利用迭代点处的一阶导数(梯度)和二阶导数(Hessen矩阵)对目标函数进行二次函数近似。因此保留二阶梯度信息。缺点是需要计算 H \bm H H矩阵,计算量太大。 Δ x ∗ = − J T ( x ) / H \Delta \bm x^* = -\bm {J^T}(\bm x)/\bm H Δx∗=−JT(x)/H 而把非线性问题,先进行一阶展开,然后再作平方处理就可以得到 对上式展开并对 Δ x \Delta \bm x Δx进行求导即可得高斯牛顿方程,其实其就是使用 J J T \bm {JJ^T} JJT对牛顿法的 H \bm H H矩阵进行替换,但是 J J T \bm {JJ^T} JJT有可能为奇异矩阵或变态, Δ x \Delta \bm x Δx也会造成结果不稳定,因此稳定性差 就是在的基础上对 Δ x \Delta \bm x Δx添加一个信赖区域,保证其只在展开点附近有效,即其优化问题变为带有不等式约束的优化问题,利用Lagrange乘子求解

9. 推导一下卡尔曼滤波、描述下粒子滤波

用自己的描述下,仅供参考: 卡尔曼滤波就是通过运动方程获得均值和方差的预测值,然后结合观测方程和预测的方差求得卡尔曼增益,然后在用卡尔曼增益更行均值和方差的预测值而获得估计值。 卡尔曼滤波推导的思路是(其中一种)先假定有这么一个修正公式 x ^ k = x ^ k ′ + K k ( z k − z ^ k ) = x ^ k ′ + K k ( z k − H x ^ k ′ ) \hat{x}_{k}=\hat{x}_{k}^{\prime}+K_{k}\left(z_{k}-\hat{z}_{k}\right)=\hat{x}_{k}^{\prime}+K_{k}\left(z_{k}-H \hat{x}_{k}^{\prime}\right) x^k​=x^k′​+Kk​(zk​−z^k​)=x^k′​+Kk​(zk​−Hx^k′​)构真实值和估计值之间的协方差矩阵,然后通过对对角线元素求和获得方差表达式,我们的修正公式是需要使得方差最小,因此把方差表达式对 K k K_k Kk​求导就可以获得卡尔曼增益的表达式,然后从先验到预测值的方差公式可以通过求预测值和真实值的协方差矩阵获得。 粒子滤波最常用的是SIR,其算法是用运动方程获得粒子的状态采样,然后用观测方程进行权值更新,通过新的粒子加权平均就获得新的估计状态,最后非常重要的一步就是重采用。 粒子滤波的推导中概念有很多,最重要的推导过程是重要性采样过程,其思路就是我原本的采样分布是不知道的,我如何从一个已知的分布中采样,通过加权的方式使得从已知的分布中采样的粒子分布和原本未知的分布中采样的粒子分布结果一致,从而引入SIS粒子滤波,再进一步加入重采样后就引入了SIR粒子滤波。 具体的可以参看我的另外两个总结博客 概率机器人总结——粒子滤波先实践再推导 概率机器人总结——(扩展)卡尔曼滤波先实践再推导

10. 如何求解 A x = b Ax=b Ax=b的问题

参看我的另外一个总结博客多视图几何总结——基础矩阵、本质矩阵和单应矩阵的求解过程

11. 什么是极线约束

所谓极线约束就是说同一个点在两幅图像上的映射,已知左图映射点p1,那么右图映射点p2一定在相对于p1的极线上,这样可以减少待匹配的点数量。如下图:

12. 单目视觉SLAM中尺寸漂移是怎么产生的

用单目估计出来的位移,与真实世界相差一个比例,叫做尺度。这个比例在单目初始化时通过三角化确定,但单纯靠视觉无法确定这个比例到底有多大。由于SLAM过程中噪声的影响,这个比例还不是固定不变的。修正方式是通过回环检测计算Sim3进行修正。

13. 解释SLAM中的绑架问题

绑架问题就是重定位,是指机器人在缺少之前位置信息的情况下,如何去确定当前位姿。例如当机器人被安置在一个已经构建好地图的环境中,但是并不知道它在地图中的相对位置,或者在移动过程中,由于传感器的暂时性功能故障或相机的快速移动,都导致机器人先前的位置信息的丢失,在这种情况下如何重新确定自己的位置。 可以阐述为一种通常状况初始化问题,可使用蒙特卡洛估计器,即粒子滤波方法,重新分散粒子到三维位形空间里面,被里程信息和随机扰动不断更新,初始化粒子聚集到/收敛到可解释观察结果的区域。,即在绑架发生之前,系统已经保存当前状态,则可以使用除视觉传感器之外的其他的传感器作为候补测量设备。

14. 描述特征点法和直接法的优缺点

:1. 没有直接法的强假设,更加精确;2. 相较与直接法,可以在更快的运动下工作,鲁棒性好 :1. 特征提取和特征匹配过程耗时长;2. 特征点少的场景中无法使用;3.只能构建稀疏地图 :1.省去了特征提取和特征匹配的时间,速度较快;2. 可以用在特征缺失的场合;3. 可以构建半稠密/稠密地图 :1. 易受光照和模糊影响;2.运动必须慢;3.非凸性,易陷入局部极小解

15. EKF和BA的区别

(1) EKF假设了马尔科夫性,认为k时刻的状态只与k-1时刻有关。BA使用所有的历史数据,做全体的SLAM (2) EKF做了线性化处理,在工作点处用一阶泰勒展开式近似整个函数,但在工作点较远处不一定成立。BA每迭代一次,状态估计发生改变,我们会重新对新的估计点做泰勒展开,可以把EKF看做只有一次迭代的BA

16. 边缘检测算子有哪些?

边缘检测一般分为三步,分别是滤波、增强、检测。基本原理都是用高斯滤波器进行去噪,之后在用卷积内核寻找像素梯度。常用有三种算法: :一种完善的边缘检测算法,抗噪能力强,用高斯滤波平滑图像,用一阶偏导的有限差分计算梯度的幅值和方向,对梯度幅值进行非极大值抑制,采用双阈值检测和连接边缘。 :一阶导数算子,引入局部平均运算,对噪声具有平滑作用,抗噪声能力强,计算量较大,但定位精度不高,得到的边缘比较粗,适用于精度要求不高的场合。 :二阶微分算子,具有旋转不变性,容易受噪声影响,不能检测边缘的方向,一般不直接用于检测边缘,而是判断明暗变化。

17. 简单实现cv::Mat()

18. 10个相机同时看到100个路标点,问BA优化的雅克比矩阵多少维

因为误差对相机姿态的偏导数的维度是2×6,对路标点的偏导数是2×3,又10个相机可以同时看到100个路标点,所以一共有10×100×2行,100×3+10×6个块。

19. 介绍经典的视觉SLAM框架

视觉SLAM总结——ORB SLAM2中关键知识点总结 视觉SLAM总结——SVO中关键知识点总结 视觉SLAM总结——LSD SLAM中关键知识点总结

20. 介绍下你熟悉的非线性优化库

非线性优化库一般有ceres和g2o两种,我比较熟悉的是g2o,看下g2o的结构图 它表示了g2o中的类结构。 首先根据前面的代码经验可以发现,我们最终使用的optimizer是一个对象,因此我们要维护的就是它(对它进行各种操作)。 一个是一个可优化图(),也是一个超图()。而图中有很多顶点()和边()。顶点继承于,边继承于。它们都是抽象的基类,实际有用的顶点和边都是它们的派生类。我们用向一个图中添加顶点和边,最后调用完成优化。

在优化之前还需要制定求解器和迭代算法。一个拥有一个,它继承自三者之一。同时,这个拥有一个,它含有两个部分。一个是 ,用于计算稀疏的雅可比和海塞矩阵;一个是线性方程求解器,可从三选一,用于求解迭代过程中最关键的一步: H Δ x = − b H \Delta x=-b HΔx=−b因此理清了g2o的结构,也就知道了其使用流程。在之前已经说过了,这里就再重复一遍: (1)选择一个线性方程求解器,PCG、CSparse、Choldmod三选一,来自g2o/solvers文件夹 (2)选择一个BlockSolver,用于求解雅克比和海塞矩阵,来自g2o/core文件夹 (3)选择一个迭代算法,GN、LM、DogLeg三选一,来自g2o/core文件夹 参考G2O图优化基础和SLAM的Bundle Adjustment(光束法平差)

这里我补充下: 注意到上面的结构图中,节点Basevertex<D,T>,BaseBinaryEdge<D,E,VertexXi,VertexXj>和BlockSolver<>等都是模板类,我们可以根据自己的需要初始化不同类型的节点和边以及求解器,以ORB SLAM2为例,分析下后端最典型的全局BA所用的边、节点和求解器: (1)边是EdgeSE3ProjectXYZ,它其实就是继承自BaseBinaryEdge<2, Vector2d, VertexSBAPointXYZ, VertexSE3Expmap>,其模板类型里第一个参数是观测值维度,这里的观测值是其实就是我们的像素误差 u , v u,v u,v,第二个参数就是我们观测值的类型,第三个第四个就是我们边两头节点的类型; (2)相机节点VertexSE3Expmap,它其实就是继承自BaseVertex<6, SE3Quat>,其模板类第一个参数就是其维度,SE3是六维的这没毛病,第二个就是节点的类型,SE3Quat就是g2o自定义的SE3的类,类里面写了各种SE3的计算法则; (3)空间点节点VertexSBAPointXYZ,它其实就是继承自BaseVertex<3, Vector3d>,其模板类第一个参数是说明咱空间点的维度是三维,第二个参数说明这个点的类型是Vector3d; (4)求解器是BlockSolver_6_3,它其实就是BlockSolver< BlockSolverTraits<6, 3> >,6,3分别指代的就是边两边的维度了。

我记得我刚开始学习SLAM的时候自己想办法写后端的时候很纳闷这个图是怎么构建起来的,在ORB或者SVO里面,所有的地图点和关键帧都是以类的形式存在的,例如在ORB中是先将关键帧的节点添加起来,然后添加空间点,然后遍历空间点中记录的与哪些关键帧有关系,然后相应ID的关键帧的节点和空间点的节点连接起来,然后就把图建立起来了,我觉得不写类好像没有什么其他更好的办法了。

21.室内SLAM与自动驾驶SLAM有什么区别?

这是个开放题,参考无人驾驶技术与SLAM的契合点在哪里,有什么理由能够让SLAM成为无人驾驶的关键技术?

22. 什么是紧耦合、松耦合?优缺点。

这里默认指的是VIO中的松紧耦合,这里参考深蓝学院的公开课里面介绍: 紧耦合是把图像的特征加到特征向量中去,这样做优点是可以免去中间状态的累计误差,提高精度,缺点是系统状态向量的维数会非常高,需要很高的计算量; 松耦合是把VO处理后获得的变换矩阵和IMU进行融合,这样做优点是计算量小但是会带来累计误差。 下面是对经典的VIO框架进行一个分类

vio filter-based optimization-based
紧耦合 MSCKF,ROVIO OKVIS,VINS
松耦合 ssf,msf Inertial Aided Dense & Semi-Dense Methods for Robust Direct Visual Odometry

23. 地图点的构建方法有哪些

(1)在ORB SLAM2中是根据三角化的方法确定地图点的,利用匹配好的两个点构建 A X = b AX=b AX=b的方程,然后利用SVD分解取最小奇异值对应的特征向量作为地图点坐标,参考多视图几何总结——三角形法 (2)在SVO中是利用深度滤波器进行种子点深度更新,当种子点深度收敛后就加入地图构建地图点。 (在LSD中好像没有维护地图点,不断维护的是关键帧上的深度图) 继续补充…

24. 如果对于一个3D点,我们在连续帧之间形成了2D特征点之间的匹配,但是这个匹配中可能存在错误的匹配。请问你如何去构建3D点?

毋庸置疑首先想到的是用RANSAC方法进行连续帧之间的位姿估计,然后用内点三角化恢复地图点,具体一点说使用RANSAC估计基础矩阵的算法步骤如下: (1)从匹配的点对中选择8个点,使用8点法估算出基础矩阵 F F F (2)计算其余的点对到其对应对极线的距离 d n d_n dn​,如果 d n ≤ d d_n≤d dn​≤d则该点为内点,否则为外点。记下符合该条件的内点的个数为 m i m_i mi​ (4)迭代 k k k次,或者某次得到内点的数目 m i m_i mi​占有的比例大于等于95%,则停止。选择 m i m_i mi​最大的基础矩阵作为最终的结果。 如果是利用非线性优化的方法获得位姿的话,可以在非线性优化代价函数中加入鲁棒核函数来减少无匹配所带来的误差,例如《视觉SLAM十四讲》里面提到的Huber核 H ( e ) = { 1 2 e 2  if  ∣ e ∣ ≤ δ δ ( ∣ e ∣ − 1 2 δ )  otherwise  H(e)=\left\{\begin{array}{ll}{\frac{1}{2} e^{2}} & {\text { if }|e| \leq \delta} \\ {\delta\left(|e|-\frac{1}{2} \delta\right)} & {\text { otherwise }}\end{array}\right. H(e)={ 21​e2δ(∣e∣−2 标签: 0804zb4m圆形电连接器tek线性传感器0216tek线性传感器0243h12高精度接触式数字传感器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台