旋转目标检测rotation-yolov5
旋转目标检测综述
SSA旋转目标检测
旋转目标检测rotation-yolov5
旋转目标检测rotation-yolov5笔记_AI视觉网奇博客-CSDN博客_yolov5旋转目标检测
旋转目标检测综述
旋转目标检测综述(持续更新)_杀生丸变成了叔叔的博客-CSDN博客_旋转目标检测
七、R3det(19单阶) 1.表示方法和框架: 2.Rotation RetinaNet 3.Refined Rotation RetinaNet 4.Feature Refinment Module 5.实验 八、CAD-Net(19,69.9map) 1.整体组成 2.实验结果 九、 ROI-Transformer(CVPR19) 1.旋转anchor缺点 2.STN可变形卷积 3.RoI transformer 3.1RRoI Learner 3.2 Rotated Position Sensitive RoI Align 4.实验结果 十、 RSDet(19.12,DOTA上mAP74.1) 十一、SCRDet(ICCV2019,75.35) 1.前身:R2CNN 2.SCRDet: 1. SF-Net 2. MAD-Net 3. IoU-Smooth L1 Loss 4. 实验结果 十二.滑动顶点(Gliding vertex,2020CVPR,75.02) 1.网络结构 2.生成标签 3.损失函数 4.测试和实验 十三.P-RSDet(CVPR2020,DOTA上mAP72.3) 1.framework 2.极值提取(pole point extraction) 3.损失函数 4.实验结果 2.读入数据
SSA旋转目标检测
开源地址:
GitHub - csuhan/s2anet: Official code of the paper "Align Deep Features for Oriented Object Detection"

为了解决这个问题,一些研究人员提出了一个问题Single-shot Alignment Network(S2A-Net),由两个模块组成:一个特征对齐模块(FAM)定向检测模块(ODM)。FAM可以通过anchor优化网络生成高质量的优化网络anchor,并根据anchor boxes与新提出的对齐卷积来自适应对齐卷积特征。ODM首先采取主动active rotating filters编码方向信息,然后产生方向敏感和方向不变的特征,以缓解分类分数与定位精度的不一致性。此外,研究人员还进一步探索了在大尺寸图像中检测物体的方法,从而更好地权衡速度和精度。
大量的实验表明,种常用的数据集可以采用新的方法(DOTA和HRSC实现2016年最先进的性能,同时保持高效率!
与基于R-CNN与探测器相比,one-stage探测器返回边界框,并直接使用常规和密集的采样anchor对它们进行分类。该架构计算效率高,但精度往往落后于[G.-S. Xia, X. Bai, J. Ding, Z. Zhu, S. Belongie, J. Luo, M. Datcu, M. Pelillo, and L. Zhang, “DOTA: A large-scale dataset for object detection in aerial images,” inCVPR, 2018]。如下图所示,认为one-stage探测器出现严重错位。
-
启发定义anchor低质量,无法覆盖目标,导致目标和anchor之间的错位。例如,桥的展宽比通常在1/3到1/30之间,只有少数anchor甚至没有anchor可校准。这种错位通常会加剧前景背景的不平衡,阻碍性能。
-
主网络的卷积特征通常与固定的接受场轴对齐,而航空图像中的目标分布在任何方向和不同的外观上。即使是anchor boxes被分配给高可信度的例子(即IoU),anchor boxes卷积特征之间仍存在错位。换句话说,anchor boxes在某种程度上,很难表达整个目标。因此,最终分类分数不能准确反映定位精度,这也阻碍了后处理阶段的检测性能(如NMS)。
不同方法在相同设置下的性能比较
注意,RetinaNet通用目标检测设计,输出(如下图(a))表示为:
为了与目标检测兼容,研究人员将取代定向边界框RetinaNet回归输出。如上图所示(b),表示为:
事实上,它增加了角度参数θ范围[-π/4,3π/4]。
直接上图,看图说话。
如图所示。特征图上通过规则网格的标准卷积样本。DeformConv学习偏移场来增加空间采样位置。然而,它可能会在错误的地方采样,特别是对于包装密集的物体。研究人员提出添加额外的偏移字段anchor boxes引导提取网格分布的特征。DeformConv不同,AlignConv中间的偏移字段直接从anchor boxes推断出来的。上图中的例子。(c)和(d)说明了AlignConv可以在anchor boxes提取准确的特征。
(a)二维卷积(绿点)是常规采样位置的标准。(b)为Deformable Convolution,采样位置(蓝点)可变形。(c)和(d)这是研究人员提出的水平和旋转anchor boxes(AB)蓝色箭头表示偏移字段的两个例子(橙色矩形)。
采用输入特性和anchor预测。映射为输入,产生对齐特征。
ODM以缓解分类分数与定位精度的不一致性,然后进行精确的目标检测。
不同的RETINANET在DOTA数据集中的结果
研究人员将大图像切割成1024×1024chip步长为824的图像和大尺寸图像chip图像输入相同的网络,检测结果(如红框中的灰机)可以不调整大小。
不同的方法在DOTA数据集上的结果
在HRSC2016数据上的测试结果