点击上方“3D视觉车间,选择星标
第一时间送达干货
作者丨paopaoslam
来源泡泡机器人SLAM
标题:The Hilti SLAM Challenge Dataset
作者:Michael Helmberger, Kristian Morin, Nitish Kumar, Danwei Wang, Yufeng Yue,Giovanni Cioffi, Davide Scaramuzza
来源:2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)
编译:李雨昊
审核:王靖淇,柴毅
据估计,无人驾驶系统在导航、建图等任务中具有非常基本的能力。但环境的多样性SLAM算法带来了场景稀疏、光照条件变化、动态目标干扰等巨大挑战。目前在SLAM该领域的学术研究主要集中在利用多模态数据构建更准确的鲁棒系统上。因此,本文提出了一个新的数据集Hilti,采集中使用的传感器(e.g.视觉、激光、IMU等)已经严格校准。处理所有原始数据。每个数据都包含准确的真实值,可以用来做不同的事情SLAM算法测试。数据集涵盖12种不同的场景,并提供相应的内外参考。数据集地址:https://hilti-challenge.com/dataset.html 。
Hilti本数据集中使用的传感器及相应的技术指标和数据质量,以及几种算法的测试如下:
数据采集设备包括三类7小种,统一集成在一个类中Phasma stick分别是:
1.Sevensense的AlphaSense
2.激光雷达分别是Ouster OS0-64和Livox MID70
3.IMU设备分别为:Analog Devices ADIS16445(内嵌于AlphaSense在相机系统模块中,帧率为800Hz)、Bosch BMI085(也嵌入AlphaSense在系统中,但精度稍差,时间同步严密,帧率为200Hz),以及InvenSense ICM-20948(内嵌于Ouster在雷达中,噪声和偏置稳定性比ADIS16445差,比Bosch BMI085好,于与Ouster雷达时间同步严密,帧率100Hz)
同时地面真值采用的是Hilti PLT全站仪采集300,精度可达3mm;6自由度的位置真值是Optical Tacking精度优于1mm,帧率可达200Hz。
硬件链接如下:
https://www.sevensense.ai/product/alphasense-position https://ouster.com/products/os0-lidar-sensor/
https://www.livoxtech.com/mid-70
https://www.analog.com/en/products/adis16445.html
https://www.bosch-sensortec.com/products/motion-sensors/imus/bmi085/ https://invensense.tdk.com/products/motion-tracking/9-axis/icm-20948
https://www.hilti.com/c/CLS MEA TOOL INSERT 7127
时间同步是在不同设备之间进行的。
相机内参由厂家校准,外参由标准棋盘格校准;激光雷达校准采用适当的校准模型,数据采集时已校正。整个Phasma stick系统载体坐标系的参考点是AlphaSense Bosch IMU在系的中心,所有数据都转换为坐标系。Phasma stick空间偏移通过CAD测量模型并校准旋转。运动捕捉系统标志和AlphaSense Bosch IMU手眼标定工具箱完成外参标定。
虽然经过严密的标定和安装,但是数据集中还是存在额外的问题:运动捕捉系统和数据记录系统之间存在时差;由于控制器过载导致丢帧现象。
图1. 所有设备集成在一起Phasma stick上。
图2.地下室、大学校园、建筑工地、办公室、实验室、办公室Mitte、公园和RPG跟踪区域主要是室内场景和室内外混合场景。数据集中在SLAM算法提供了光变化等特征缺失\高反射\透明表面等挑战。
图3.不同设备之间有严格的时间同步:AlphaSense, Bosch IMU and ADIS IMU之间通过FPGA硬件同步后,时差小于1ms;Ouster lidar and Invensense IMU之间通过Ouster硬件同步是内部时钟,时间差小于1ms;不同模块之间的同步是通过PTP完成网络时间协议后,时差小于1ms。
图4。实验室场景中不同传感器采集的数据。
表I:本数据集中不同方法的表现
表II:每个传感器都在ROS中的Topic
Accurate and robust pose estimation is a fundamental capability for autonomous systems to navigate, map and perform tasks. Particularly, construction environments pose challenging problem to Simultaneous Localization and Mapping (SLAM) algorithms due to sparsity, varying illumination conditions, and dynamic objects. Current academic research in SLAM is focused on developing more accurate and robust algorithms for example by fusing different sensor modalities. To help this research, we propose a new dataset, the Hilti SLAM Challenge Dataset. The sensor platform used to collect this dataset contains a number of visual, lidar and inertial sensors which have all been rigorously calibrated. All data is temporally aligned to support precise multi-sensor fusion. Each dataset includes accurate ground truth to allow direct testing of SLAM results. Raw data as well as intrinsic and extrinsic sensor calibration data from twelve datasets in various environments is provided. Each environment represents common scenarios found in building construction sites in various stages of completion.
如果您对本文感兴趣,请点击下载完整的文章
本文仅进行学术分享。如有侵权行为,请联系删除。
后台回复:
后台回复:
台回复:
1.面向自动驾驶领域的多传感器数据融合技术
2.面向自动驾驶领域的3D点云目标检测全栈学习路线!(单模态+多模态/数据+代码)3.彻底搞透视觉三维重建:原理剖析、代码讲解、及优化改进4.国内首个面向工业级实战的点云处理课程5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码讲解6.彻底搞懂视觉-惯性SLAM:基于VINS-Fusion正式开课啦7.彻底搞懂基于LOAM框架的3D激光SLAM: 源码剖析到算法优化8.彻底剖析室内、室外激光SLAM关键算法原理、代码和实战(cartographer+LOAM +LIO-SAM)
9.从零搭建一套结构光3D重建系统[理论+源码+实践]
10.单目深度估计方法:算法梳理与代码实现
11.自动驾驶中的深度学习模型部署实战
12.相机模型与标定(单目+双目+鱼眼)
13.重磅!四旋翼飞行器:算法与实战
14.ROS2从入门到精通:理论与实战
15.国内首个3D缺陷检测教程:理论、源码与实战
扫码添加小助手微信,可
一定要备注:
▲长按加微信群或投稿
▲长按关注公众号
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、答疑解惑、助你高效解决问题