资讯详情

介绍一篇路端传感器的cooperative perception(3D目标检测)论文

点击上方“计算机视觉工坊”,选择“星标”

第一时间送达干货

作者丨黄浴@知乎

来源丨https://zhuanlan.zhihu.com/p/287130155

编辑计算机视觉车间

arXiv2020年9月上传,10月底修改版 “Cooperative Perception for 3D Object Detection in Driving Scenarios using Infrastructure Sensors”。

单视角或单智体的感知,如3-D目标检测总是有一些无法解决的问题,如有限的视角、低云密度和屏蔽。这么多空间稀疏的传感器(甚至是单模式)可以提供协同感知来克服上述问题。

融合主要分为早期和晚期(也有中期特征等级)。本文评估了两种3-D点云目标检测的集成方法主要采用合成数据集模拟两种交通场景:环岛和T-十字路口。表面上,早期融合明显优于晚期融合。此外,融合的空间点也是一个因素。


如图所示,系统模型:数据在中央集成系统中总结各传感器的数据,形成周围车辆共享目标单的结果。

所有传感器的数据都应该转换为统一的坐标系

下图为早期(a-)和晚期(b-)协同目标检测集成示意图:

另一种混合方案:与晚期集成相比,早期集成方案可以提高测试目标的可能性,因为在测试前收集信息,但需要原始传感器数据共享,增加通信成本;作为中间解决方案,混合集成方案可以提高测试的可能性,而不显著增加通信成本;关键是息(晚期集成),共享低级信息(早期集成);接近传感器的目标具有较高的点密度,因此更有可能使用单个传感器的观测值进行检测;因此,无需将传感器附近的点传输到中央集成系统,以减少通信带宽。

首先,每个传感器节点采用晚期集成方案,并与中心集成系统共享检测到的目标框;然后,每个传感器节点选择半径R圆以外的点,与中心集成系统共享;半径R值用于调整早期集成和晚期集成之间的平衡;随着R的减少,中心集成系统共享更多的原始数据;然后,中心集成系统使用输入点云的早期集成方案,并进一步将检测到的边框与每个传感器节点的成结果进一步集成。

基于目标检测方法VoxelNet【19】:即Apple如图所示(方法不是问题的重点)

模拟器采用Carla,环岛和丁字口的模型场景如图所示:只有自动驾驶公司才能收集实际传感器数据,因为目前还没有可用的数据。

这里使用的传感器是RGB-D,丁字口有6个摄像头,环岛有8个摄像头。depth图像将转换为点云,即


这里给出一些结果:


注:这里不考虑道路协调,只与车辆共享道路端集成结果,而不是运动车辆传感器和道路传感器集成,将面临道路传感器数据转换为动态车辆坐标系的复杂问题。

本文仅进行学术分享。如有侵权行为,请联系删除。

在「计算机视觉车间」微信官方账号后台回复:,即可下载深度学习算法、3D深度学习、深度学习框架、目标测试,GAN相关内容近30本pdf书籍。

在「计算机视觉车间」微信官方账号后台回复:,下载计算机视觉相关17本pdf书籍包括计算机视觉算法,Python视觉实战、Opencv3.0学习等。

在「计算机视觉车间」微信官方账号后台回复:,独家下载即可SLAM相关视频课程包括视觉SLAM、激光SLAM精品课程。

扫码添加小助手微信,可申请添加3D视觉研讨会-学术论文写作和提交目的是微信交流群

也可以申请加入我们的细分交流群。目前主要有等待微信群,请扫描以下微信号加群,备注:研究方向 学校/公司 昵称,如:3D视觉 上海交大 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。也请联系。

▲长按加微信群或投稿

▲长按关注微信官方账号

:针对3D视觉领域的深耕四个方面,各大厂的算法工程师进行技术指导。同时,星球将与知名企业合作发布3家D视觉相关算法开发岗位和项目对接信息,打造集技术与就业于一体的铁杆粉丝聚集区,近2000星球成员打造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

圈子里有高质量的教程资料,可以回答问题,帮助你有效地解决问题

标签: 3d影像传感器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台