YOLOV5改进:CVPR 2023

2023-11-12

显著的渠道或空间有效性注意力产生机制更加可辨特征表示用各种计算机进行了说明视觉任务。然而,跨通道建模关系与通道降维可能在提取深度视觉表征时带来副作用。本文提出了一种新的高效多尺度注意力(EMA)方法。模块提出。专注于保留信息每个通道上,并减少计算在上方,我们将部分通道重塑为批处理尺寸并将通道尺寸分组为多个子特征构成空间语义特性在每个特性组中分布良好。具体来说,除了将全局信息编码到重新校准每个平行通道的权重支路,两个并联支路的输出特征为的跨维度交互进一步聚合捕获像素级成对关系。我们的行为广泛的消融研究和图像实验分类和目标检测任务很受欢迎基准测试(例如CIFAR-100, ImageNet-1k, MS COCO)和VisDrone2019),以评估其性能。代码网址:https://github.com/YOLOonMe/EMAattention-module

本文yolov5版本为7.0

1.在models/common.py文件中加入如下代码

import torch
from torch import nn

class EMA(nn.Module):
    def __init__(self, channels, factor=8):
        super(EMA, self).__init__()
        self.groups = factor
        assert channels // self.groups > 0
        self.softmax = nn
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

YOLOV5改进:CVPR 2023 的相关文章

随机推荐