点击上方“计算机视觉工坊”,选择“星标”
第一时间送达干货
作者丨黄浴@知乎
来源丨https://zhuanlan.zhihu.com/p/287130155
编辑计算机视觉车间
arXiv2020年9月上传,10月底修改版 “Cooperative Perception for 3D Object Detection in Driving Scenarios using Infrastructure Sensors”。
单视角或单智体的感知,如3-D目标检测总是有一些无法解决的问题,如有限的视角、低云密度和屏蔽。这么多空间稀疏的传感器(甚至是单模式)可以提供协同感知来克服上述问题。
融合主要分为早期和晚期(也有中期特征等级)。本文评估了两种3-D点云目标检测的集成方法主要采用合成数据集模拟两种交通场景:环岛和T-十字路口。表面上,早期融合明显优于晚期融合。此外,融合的空间点也是一个因素。
如图所示,系统模型:数据在中央集成系统中总结各传感器的数据,形成周围车辆共享目标单的结果。
所有传感器的数据都应该转换为统一的坐标系
下图为早期(a-)和晚期(b-)协同目标检测集成示意图:
另一种混合方案:与晚期集成相比,早期集成方案可以提高测试目标的可能性,因为在测试前收集信息,但需要原始传感器数据共享,增加通信成本;作为中间解决方案,混合集成方案可以提高测试的可能性,而不显著增加通信成本;关键是息(晚期集成),共享低级信息(早期集成);接近传感器的目标具有较高的点密度,因此更有可能使用单个传感器的观测值进行检测;因此,无需将传感器附近的点传输到中央集成系统,以减少通信带宽。
首先,每个传感器节点采用晚期集成方案,并与中心集成系统共享检测到的目标框;然后,每个传感器节点选择半径R圆以外的点,与中心集成系统共享;半径R值用于调整早期集成和晚期集成之间的平衡;随着R的减少,中心集成系统共享更多的原始数据;然后,中心集成系统使用输入点云的早期集成方案,并进一步将检测到的边框与每个传感器节点的成结果进一步集成。
基于目标检测方法VoxelNet【19】:即Apple如图所示(方法不是问题的重点)
模拟器采用Carla,环岛和丁字口的模型场景如图所示:只有自动驾驶公司才能收集实际传感器数据,因为目前还没有可用的数据。
这里使用的传感器是RGB-D,丁字口有6个摄像头,环岛有8个摄像头。depth图像将转换为点云,即
这里给出一些结果:
注:这里不考虑道路协调,只与车辆共享道路端集成结果,而不是运动车辆传感器和道路传感器集成,将面临道路传感器数据转换为动态车辆坐标系的复杂问题。
本文仅进行学术分享。如有侵权行为,请联系删除。
在「计算机视觉车间」微信官方账号后台回复:,即可下载深度学习算法、3D深度学习、深度学习框架、目标测试,GAN相关内容近30本pdf书籍。
在「计算机视觉车间」微信官方账号后台回复:,下载计算机视觉相关17本pdf书籍包括计算机视觉算法,Python视觉实战、Opencv3.0学习等。
在「计算机视觉车间」微信官方账号后台回复:,独家下载即可SLAM相关视频课程包括视觉SLAM、激光SLAM精品课程。
扫码添加小助手微信,可申请添加3D视觉研讨会-学术论文写作和提交目的是微信交流群
也可以申请加入我们的细分交流群。目前主要有、、、、、等待微信群,请扫描以下微信号加群,备注:研究方向 学校/公司 昵称,如:3D视觉 上海交大 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。
▲长按加微信群或投稿
▲长按关注微信官方账号
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈子里有高质量的教程资料,可以回答问题,帮助你有效地解决问题