资讯详情

无人驾驶动态避障策略调研 | 机器人动态避障策略 | 行人轨迹预测 | 机器人导航

目录

  • 1.无人驾驶
  • 2.无人驾驶避障
    • 2.1运动障碍物检测
    • 2.2运动障碍物碰撞轨迹预测
    • 2.3运动障碍物避障
  • 3.机器人导览避障场景
    • 3.1 动态避障机器人&自主导航
  • 4.如何处理行人
    • 4.1 行人轨迹预测
  • 5. 一些重要概念:
    • 5.1 动态窗口避障
    • 5.2 分布式强化学习和集中式强化学习
  • 6.个人总结
    • 6.1 避障步骤:
    • 6.2 协调路径规划 VS 机器人动态避障,机器人导航
    • 6.2 多智能体强化学习算法为何不直接使用?
最近研究了机器人协同路径规划策略,发现有paper中的obstacle它们都是静态的,但在实际场景中,经常会出现动态障碍,如行人行走等。 为了更好地了解相关技术,我开始研究无人驾驶领域的动态避障策略:

1.无人驾驶

无人驾驶技术是多种技术的集成,包括传感器、定位和深度学习、高精度地图、机械控制、系统集成与优化、能耗与散热管理等。虽然现有的各种无人驾驶汽车在实现上有很多不同,但在系统结构上是相似的。 在这里插入图片描述 上图中,主要用来,这里主要使用一些过滤算法,如卡尔曼滤波器与高精度地图进行比较或Iterative Closest Point(迭代最近点算法)的功能;,在这里,我们可以使用一些视觉算法来识别物体;最后,通过定位和物体识别,。可以使用类似的全球路径规划A-Star实现算法,可采用本地路径规划DWA(局部避障动态窗口算法)等算法实现。

在UGV领域,通常是,然后调整驾驶计划。车身周围的定量感知对无人驾驶技术至关重要。无人驾驶系统使用了大量的传感器,包括超声波雷达、毫米波雷达和激光雷达(LiDAR)和摄像头等。

物体的识别和跟踪以及车辆本身的定位:

  1. 物体的识别和跟踪:通过深度学习,我们可以识别行人、开放的驾驶空间、地面标志、红绿灯和附近的车辆。光流估计-从传统方法到深度学习 - 肖泽东 Shon的文章 - 知乎

  2. 车辆本身的定位:无人驾驶汽车可以根据拓扑和地标算法或几何视觉里程算法实时确定自己的位置,以满足自主导航的需要。

2.无人驾驶避障

  • :在运动过程中的环境中,主要由车载环境感知系统完成。(显然,从常识的角度来看,避免障碍物的第一步是检测障碍物。
  • :运动中可能遇到的障碍物的可能性,判断和无人驾驶车辆。(当你检测到障碍物时,你必须让机器判断它是否会与汽车相撞)
  • :通过,无人驾驶车辆的安全避障由车辆路径决策系统执行。(在判断了可能与汽车相撞的障碍物后,你必须让机器做出决定来避开障碍物)

2.1运动障碍物检测

主要有,一种是基于激光雷达和毫米波雷达,另一种是基于三维视觉

  1. :① 。根据高精度地图上障碍物与车辆在不同时间的相对位置之间的关系,解决障碍物的运动信息。也就是说,在整体坐标系中,静态障碍物的位置不会随着时间的推移而改变,而动态障碍物会随着时间的推移而改变,改变的部分被认为是运动障碍物。② 。将同一障碍物的点云数据聚成一类,一般采用长方体或多边形来描述车辆、自行车、行人等。 ③ 。目标跟踪法是指跟踪障碍物以获取运动信息。由于激光雷达传感器在多目标环境下的数据关联和不可避免的误差,需要根据情况对不同时刻的目标关联进行分类。
  2. :① 将地图分成多个网格,然后判断 ② scene flow segmentation(很火),Optical Flow它是图片序列或视频中像素级的密集对应关系,如在每个像素上估计一个2维偏移矢量Optical Flow以2D矢量场表示。③ 三维空间中点云形成的几何点云形成的几何形状。

2.2运动障碍物碰撞轨迹预测

无人车感知系统需要实时识别和跟踪多个运动目标(Multi-ObjectTracking,MOT),大量使用计算机视觉领域CNN,物体识别的准确性和速度大大提高,但一般来说,物体识别算法的输出一般都有噪音:物体识别可能不稳定,物体可能被屏蔽,可能有短期误识别等。 MOT问题中流行的Tracking-by-detection该方法解决了如何根据噪声识别结果获得鲁棒物体运动轨迹的困难。ICCV 在2015年会议上,斯坦福大学的研究人员发表了基于马尔可夫决策过程的声明(MDP)的MOT解决这个问题的算法。

  1. :不考虑任何运动特性,效果差
  2. :认为障碍物会保持当前运动状态,适用于直道匀速场景
  3. :前一种方法的改进预测了障碍物未来的行驶轨迹,可以获得高精度地图或结构化道路的预测信息。

2.3运动障碍物避障

在路段上,根据一定的评价标准,找到一条从起始状态到目标状态的无碰撞路径。典型的方法包括人工势场法、反应避障法(重新规划路线)、区域划分法(将周围划分为安全区和可能的碰撞区)。 路径规划分为全局规划和局部规划两类。为了提高全局重规划的计算效率,一般增加局部规划,以提高规划体系的实时性。

  • 指已知的全球环境信息,在有障碍物的全球地图中,按照一定的算法找到合适的无障碍、无碰撞路径。
  • 是指只能使用各种传感器获取移动机器人自身状态信息的局部环境信息,实时规划理想的不碰撞局部路径,一般只能在短时间内有效。 方法:基于数据集成的势场法、模糊逻辑法、神经网络法、占用网格法、空间搜索法和直接规划法。

3.机器人导游避障场景

  • 与无人驾驶不同的机器人导游场景主要是
  • 雷达,GPS该系统使汽车能够在未知的环境中成功避开障碍物。然而,在机器人指南场景中,室内地图已知,环境更简单。因此,在技术上应避免过于复杂的算法,特别是cv领域的方法。

3.1 动态避障机器人&自主导航

所以我又专门调查了一下。在机器人独立导航的方向上,发现了以下论文:

  1. 复杂环境下移动机器人的动态避障(哈尔滨工业大学):输入为,基于这些参数可以直接输送用于机器人灵活避障的速度指令。使用3D激光雷达与超宽带定位系统相结合的导航避障传感系统,同时优化了传感器的连接与供电方案,使得传感器得以顺利部署在莱卡狗机器人上。

  2. 基于势场法的无人车局部动态避障路径规划算法(北理):建立了包含障碍物和目标点的. 通过改进势场力来解决复杂环境下目标不可达和局部最优的问题. :根据障碍物的,建立一条以障碍物当前位置坐标为起点,指向障碍物借此判断是否会与车辆相撞。 当障碍物车辆靠近点P且到自我车辆的距离大于安全距离,那么自我车辆将维持原状态行驶. 若障碍物到自我车辆的距离小于安全距离,那么自我车辆就需提前减速甚至制动,以此来规避碰撞的发生。

  3. 移动机器人动态避障算法:利用,提取形心序列,利用RBFNN建立.在移动机器人实时规划时,根据.当检测到,才开始进行预测计算.根据动态障碍物相邻时刻的三个时间序列值,来预测障碍物下一时刻的运动轨迹,从而

  4. 全向移动机器人动态避障方法 :① 改进人工势场法通过,改善了传统人工势场法易陷入局部极小值点、目标点不可达及轨迹振荡等问题。② 通过,解决了改进人工势场法穿 透重叠障碍物的问题,保证了方法的可靠性。 机器人能获取到自身位置、目标点位置以及机器人利用传感器测得的障碍物距离和方向。出现动态障碍物,就改变势场。

  5. AS-R移动机器人的动态避障与路径规划研究:利用,通过红外传感器减少盲区和镜面反射带来的误差,通过间隔采样或分组采样技术避免多路串扰问题;对均值滤波与中值滤波进行实验对比后,提出一种递推型中值滤波方法,从而提高了数据在空间和时间上的连续性,有效地减少了超声波随机串扰信号及其它千扰信号,进而提高了探测模块的准确度。

  6. :在学习过程中机器人之间共享奖励、策略网络和值函数网络,通过来引导相互之间达成隐式的协作机制;,能用于100个机器人的大规模场景;分布式,根据环境信息进行场景分类,从而采取不同的运动策略,以提高效率和保证安全;用到的策略是policy gradient。也涉及到动态障碍物。视频 (

  7. Fully Distributed Multi-Robot Collision Avoidance via Deep Reinforcement Learning for Safe and Efficient Navigation in Complex Scenarios:多机器人、复杂环境、分布式,用到的是PG算法,适用于large-scale multi-robot systems;已经在真实机器人上部署过了。

  8. DeepMNavigate: Deep Reinforced Multi-Robot Navigation Unifying Local & Global Collision Avoidance

  9. Decentralized Non-communicating Multiagent Collision Avoidance with Deep Reinforcement Learning:使用RL,把开销巨大的在线的计算降解为离线的学习过程;(

  10. Socially Aware Motion Planning with Deep Reinforcement Learning:考虑到了机器人和人之间的避碰问题,在策略训练是引入一些人类社会的规则,让机器人的策略学习到显式的协调机制,达成机器人与人的行为之间的协作;可以在有许多行人的环境中实现以人类步行速度移动的机器人车辆的完全自主导航 (

:rl-collision-avoidance,Towards Optimally Decentralized Multi-Robot Collision Avoidance via Deep Reinforcement Learning的代码。使用的RL算法是PPO。

4.如何处理行人

存在行人时:

  1. 将行人视为,使用特定的反应规则来避免碰撞。但不能理解人类行为,有时会产生不安全、不自然的行为。尤其移速与行人相近时。
  2. 改进做法:推理行人的意图,并生成,再用传统路径规划算法生成无碰撞的路径。但将预测和规划分离的做法会导致freezing robot problem。
  3. 考虑协同(account for cooperation),建模并预测附件行人对机器人运动的影响。

4.1 行人轨迹预测

Social LSTM: Human Trajectory Prediction in Crowded Spaces :整合了行人自身轨迹和周围人群影响(人们会互相避让),把,在每个时刻把每个人, 这样就能体现这种。 针对的是一群行人(群体行为,行人行走会互相影响),使用到的数据集是 ETH和UCY(两个公开的行人轨迹数据集)。 下图是实验结果,可以明显看出行人间的避障现象: 和别的方法相比,可以更好地预测行人轨迹:

:是鸟瞰视角(类似监控视角下的轨迹预测)

  1. EWAP的数据集包括两个sequence:eth和hotel;:[frame_number pedestrian_ID pos_x pos_z pos_y v_x v_z v_y ]。也存在障碍物,但是在论文中未看见如何避障。
  2. UCY的数据集包括三个sequence:student、univ和zara,还有分zara01,zara02等,: [x y frame_number gaze_direction]

:主要是MSE

:我们将机器人看作行人,能获取到轨迹信息,那我们可以基于当前机器人和周围机器人的轨迹信息预测下一步位置。 : ① 我们并没有groundtruth来指导整个过程 -> 只能通过reward进行指导? ② 只考虑了agent间的信息,未考虑到行人信息 -> 想办法也获取到行人坐标? ③ 并没有历史运动轨迹信息,让机器人随机走构成初始数据,好像说服力不够。

SA-CADRL(socially aware collision avoidance deep reinforcement learning)更加适合人群防碰撞场景。

Social LSTM 实现代码分析

5. 一些重要概念:

5.1 动态窗口避障

:思想是对可行空间的,并对每一个,然后利用评价函数来对每一条轨迹进行评分,并取最优的速度样本发送给执行器执行。 注意哈,这里的动态窗口并不是xy坐标系的范围,而是

5.2 分布式强化学习与集中式强化学习

,多智能体中一般分为分布式强化学习和集中式强化学习: ① 中的各个agent都是学习的主体,它们分别学习对环境的响应策略和相互之间的协作策略。 ② 通常.承担学习任务的是一个全局性的中央学习单元,这个学习单元.采用标准的强化学习方法进行学习.逐渐形成一个最优的协作机制。

多智能体强化学习和分布式强化学习的区别?

其中还可以分类:根据系统中的可以分为,分别命名为

  • RLI方法不采用组合动作(joint-action),其agent仅凭自己的状态输入来决定采取的动作,可以看作是一种,可与社会模型或经济模型结合形成社会强化学习;RLI系统中的agent都是以自我为中心的,所以不易达到全局意义上的最优目标;但是RLI系统中agent的,容易动态增减agent的个数,而且,所以RLI方法较适用于agent个数较多的复杂系统.
  • RLG方法采用组合动作,每个agent都必须才能决定自己采取的动作,可以看作是一种紧密耦合的分布式强化学习系统;学习速度很慢,这种“紧密耦合”的方法一般,而且需要加速算法的支持.

现在很多方法都是,因为集中式的路径规划方法应对大规模智能体时需要很多算力,state-action空间组合爆炸。 虽然是分布式,但也要考虑协同:① 预测别的agent的动作,agent数量多了就不再适用; ② 可以一起训练所有agent的experience,即 集中式学习。

6.个人总结

6.1 避障步骤:

既然要避障,就需要知道周围障碍物的位置和速度,预测是否会相撞。一般分为三个步骤:

  1. :一般采用传感器或摄像头,关注到 可以估计物体的速度。
  2. : 比较简单的方法是基于行人过去的速度和方向,预测下一时刻的位置坐标,判断是否会与机器相撞。 如果采用摄像头的视觉信息判断,则涉及到图像识别;如果采用传感器,每台机器人配备多个方向的传感器,是不是更容易一点呢?
  3. :最简单的避障方法就是停下来,也可以选择转弯等方法

因此,整个避障板块的应该是传感器or摄像头收集到的信息,根据这些信息预测行人下一时刻的坐标,用于判断是否会相撞,机器人应采取的路径。

6.2 协同路径规划 VS 机器人动态避障、机器人导航

三者的任务很类似,不过也有一些区别:

  1. 以及上了,的问题。如: ① conflict-based search (无冲突搜索):低层次搜索负责找出一条路,高层次搜索负责检查路径冲突 ② 避障算法ORCA整理–精简版:考虑了速度和方向 ③ M*:改造A*算法,先为每个机器人单独规划,然后根据需要协调机器人之间的运动 ④ 基于RL的方法:比较有PRIMAL和PRIMAL2。But,现有方法大多并未用到多智能体强化学习的算法。 这类算法的action一般是 上、下、左、右、停止。

  2. 机器人动态避障和机器人导航文章中,他们的重点是:Socially Aware Motion Planning with Deep Reinforcement Learning, Decentralized Non-communicating Multiagent Collision Avoidance with Deep Reinforcement Learning, Towards Optimally Decentralized Multi-Robot Collision Avoidance via Deep Reinforcement Learning 这类方法的action一般是角速度和速度。

我们的:集中式训练 + 有动态行人障碍 + 有起始点和终点 + 自主导航(路径规划)

6.2 为什么不直接使用多智能体强化学习算法?

万字长文:详解多智能体强化学习的基础和应用 多智能体路径规划、多智能体动态避障,都涉及到了multi-agent,那为什么不直接将MARL的方法用上来呢? 其实很多用到了MARL的思想,比如MADDPG的集中式训练分布式执行。

个人思考,猜测是MARL的设定(完全竞争关系、完全合作关系、混合)并不能很好地挪用到当前场景? 他们也是基于single-agent方法设计的,那我们也可以根据MAPF场景设计更有针对性的算法。 MARL也只是一个概念吧,我们针对多个机器人的导航场景设计算法,不也是多智能体强化学习嘛

和MADDPG类似,很多multi-robot navigation方法也是集中式学习和分布式执行的机制。

标签: eth传感器1143水流式传感器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台