资讯详情

Yolov7:最新最快的实时检测框架,最详细分析解释(附源代码)

94b8552d1bed59a535f472365a9039c1.gif

公众号ID|

学习群|

论文地址:https://arxiv.org/pdf/2207.02696.pdf

代码地址:https://github.com/WongKinYiu/yolov7

计算机视觉研究院专栏

YOLOv7相同体积下比YOLOv5精度高,速度快120%(FPS),比YOLOX快180%(FPS),比Dual-Swin-T快1200%(FPS),比ConvNext快550%(FPS),比SWIN-L快500%(FPS)。

01

概述

前段时间和大家分享了美团的产品Yolov6:

具体链接如下:

链接:爆炸!YOLOv6又快又准的目标检测框架开源啦(附源代码下载)七月又出来了,在5 FPS到160 FPS速度和精度在范围内达到新的高度GPU V100上具有30 FPS在所有已知的实时目标检测器中,精度最高的56.8%AP。目标检测器(56 FPS V100,55.9% AP)比基于Transform的检测器SWINL Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)速度和准确性分别高于509%和2%,以及基于卷积的检测器ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度提高551%,精度提高0.7%。

以及YOLOv7的表现优于:YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、DETR、Deformable DETR , DINO-5scale-R50, ViT-Adapter-B以及许多其他目标检测器的速度和准确性。

另外,研究者只在MS COCO数据集从头开始训练YOLOv7.不使用任何其他数据集或预训练的权重。

02

背景

最近,模型重参数化(model re-parameterization)配置动态标签(dynamic label assignment)它已成为网络训练和目标测试的重要课题。主要是在上述新概念提出后,目标探测器的训练发展出了许多新问题。

在今天的分享中,研究人员将介绍他们发现的一些新问题,并设计有效的解决方案。对于模型重参数,研究人员分析了适用于不同网络层的模型重参数策略,并提出了有计划的重参数模型。

此外,当发现使用动态标签分配技术时,多个输出层模型的培训将产生新的问题。即:如何为不同分支的输出分配动态目标? 针对这一问题,研究人员提出了一种新的标签分配方法,称为从粗到细的引导标签分配。

03

详细分析新框架

扩展的高效层聚合网络。提出的扩展ELAN(E-ELAN)梯度传输路径完全没有改变原有结构,而是使用组卷积来增加添加特征的基数shuffle和merge cardinality组合不同组特征的方式 . 这种操作方法可以增强不同特征图学到的特征,提高参数的使用和计算。

在大多数关于高效架构设计的文献中,主要考虑的因素不超过参数的数量、计算量和计算密度。有人分析了输入/输出通道比、架构的分支数量和element-wise操作对网络推理速度的影响。有些人还考虑激活执行模型缩放,即更多地考虑卷积层输出张中的元素数量。

模型缩放的主要目的是调整模型的一些属性,生成不同尺度的模型,以满足不同推理速度的需求。

例如EfficientNet缩放模型考虑宽度、深度和分辨率。Scale-yolov4.缩放模型是调整阶段数。一些研究人员分析了卷积和群积对参数和计算量的影响,并设计了相应的模型缩放方法。

基于串联模型的模型缩放。(a)到(b),我们观察到,当基于串联模型的深度缩放时,计算块的输出宽度也会增加。这种现象会增加后续传输层的输入宽度。因此,研究人员提出(c),即在对基于concatenation当模型缩放时,只需缩放计算块中的深度,并缩放其他传输层的相应宽度。

尽管RepConv在VGG在此基础上取得了优异的性能,但直接应用于ResNet、DenseNet与其他架构相比,其精度将显著降低。作者利用梯度流传播路径分析重参数的卷积应如何与不同的网络相结合。作者还设计了计划中的重参数卷积。

RepConv实际上结合了3×3卷积,1×1卷积,在一个卷积层中id连接。通过分析RepConv与不同架构的组合及其性能,作者发现RepConv中的id连接破坏了ResNet中的残差和DenseNet中间的连接为不同的特征图提供了更多的梯度多样性。

提出的重参数模型。在提出的计划重参数模型中,我们发现了一层有残差或串联连接的层RepConv不应该有恒等连接。在这种情况下,它可以不包括身份连接 RepConvN 替换。

Coarse for auxiliary and fine for lead head label assigner

与正常模型(a)相比,(b)中间模式有辅助中心。与通常的独立标签分配器 (c) 研究人员提出了不同的建议 (d) 引导头指导标签分配器 (e) 粗细引导头引导标签分配器。通过前导头预测和GT优化现场,同时获得训练前导头和辅助头的标签。附录中将详细介绍从粗到细的实现方法和约束设计细节。

04

实验和可视化

如上表所述:

  • 与YOLOv4相比,YOLOv7的参数减少了75%,计算量减少了36%,AP提高了1.5%

  • 与最先进的YOLOR-CSP相比,YOLOv7参数少43% ,计算量少了15%,AP高了0.4%

  • 在小模型的性能中YOLOv4-tiny相比,YOLOv7-Tiny参数量减少39%,计算量减少49%,但保持相同AP

  • 在云GPU模型上,YOLOv7模型仍然更高AP,同时,19%的参数和33%的计算量减少了

将所提出的方法与通用GPU上或边缘GPU上最先进的的目标检测器进行了比较,结果如下表所示:

计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!

VX:2311123606

往期推荐 

  • AI助力社会安全,最新视频异常行为检测方法框架

  • ONNX 浅析:如何加速深度学习算法工程化?

  • 劲爆!YOLOv6又快又准的目标检测框架开源啦(附源代码下载)

  • FastestDet:比yolov5更快!更强!全新设计的超实时Anchor-free目标检测算法(附源代码下载)

  • 目前精度最高效率最快存储最小的目标检测模型(附源码下载)

  • CVPR小目标检测:上下文和注意力机制提升小目标检测(附论文下载)

  • Double-Head:检测头上再创新,提升精度(附原论文下载)

  • 海康研究院出品:具有场景自适应概念学习的无监督目标检测(附论文下载)

  • 新技术:高效的自监督视觉预训练,局部遮挡再也不用担心!

  • VS Code支持配置远程同步了

  • 改进的阴影抑制用于光照鲁棒的人脸识别

  • 基于文本驱动用于创建和编辑图像(附源代码)

  • 基于分层自监督学习将视觉Transformer扩展到千兆像素图像

  • 霸榜第一框架:工业检测,基于差异和共性的半监督方法用于图像表面缺陷检测

  • CLCNet:用分类置信网络重新思考集成建模(附源代码下载)

标签: 度180度连接器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台