当前位置: 首页 > news >正文

哪里有帮做微课的网站在线网页生成器

哪里有帮做微课的网站,在线网页生成器,网站建设项目中标通知,呼和浩特 的网站建设在计算机视觉任务中,空间域注意力通常关注图像中不同位置的重要性,例如突出图像中的关键对象或区域。而通道域注意力则侧重于不同通道(特征图)的重要性,决定哪些特征对于任务更具判别力。混合域注意力机制结合了空间域…

在计算机视觉任务中,空间域注意力通常关注图像中不同位置的重要性,例如突出图像中的关键对象或区域。而通道域注意力则侧重于不同通道(特征图)的重要性,决定哪些特征对于任务更具判别力。混合域注意力机制结合了空间域注意力机制与通道注意力机制。它同时考虑空间和通道维度的重要性,通过学习每个空间位置和通道的权重,动态调整特征图中不同位置和通道的重要性,以增强模型对视觉任务的表达能力和性能。
具体来说,它通常会经过以下步骤实现:
1. 输入:假设输入特征图的尺寸为C×H×W,其中C是通道数,H和W分别是高度和宽度。
2. 计算空间域注意力:空间注意力权重通过对特征图的空间位置进行分析得到。
3.计算通道注意力: 通道注意力权重则通过对特征图的通道进行分析,例如使用全局平均池化或全局最大池化来汇总通道信息,然后经过全连接层等操作生成权重。
4. 特征加权融合:将得到的空间和通道注意力权重与原始特征图相乘,实现对特征的重新加权和聚焦。


下面分享几篇经典的混合域注意力机制论文。

1.CBAM: Convolutional Block Attention Module

论文地址:https://arxiv.org/abs/1807.06521

文章中提出注意力机制不仅能够提示网络应该关注那些区域,还能够增强这些区域的重要性。所以,本文结合注意力机制提出了一个新的网络模块(CBAM),通过关注通道和空间信息,来达到增强有效的特征,抑制不太有效的特征。

图1

如图1所示,CBAM的结构由两部分组成。一是通道注意力模块(Channel attention module),二是空间注意力模块(Spatial attention module)。下面就来看看这两部分的结构。

1.通道注意力模块(Channel attention module)

图2

如图2所示,通道空间注意力模块由三个操作组成。具体来说,首先分别使用全局平均池化和全局最大池化生成两个不同的空间描述符F_{avg}^CF_{max}^C,用来代表空间信息。然后,将F_{avg}^CF_{max}^C送入到一个共享的MLP当中去生成不同的通道注意力分数。最后,将MLP输出的两个不同的注意力分数相加,并通过Sigmoid函数激活便得到了最终的通道注意力权重。

2.空间注意力模块(Spatial attention module)

图3

如图3所示,空间空间注意力模块由三个操作组成。与通道注意力模块不同的是,空间注意力模块首先分别使用全局平均池化和全局最大池化沿通道轴生成两个不同的特征图F_{avg}^s \in R^{1 \times H \times W}F_{max}^s \in R^{1 \times H \times W}。然后,将F_{avg}^sF_{max}^s沿通道拼接在一起,并通过一个7 \times 7的卷积去生成通空间注意力图。最后,通过Sigmoid函数激活便得到了最终的空间注意力权重。

此外,文章中还在ResBlock(ResNet)中集成了CBAM,结构如下图4所示。

图4

2.Dual Attention Network for Scene Segmentation

论文地址:https://arxiv.org/abs/1809.02983

文章中提出了一种双注意网络(Dual Attention Network, DANet,网络结构如下图5所示)来自适应地整合局部特征及其全局依赖关系。具体来说,它结合了自注意力机制(transformer)设计了两个模块(Position Attention Module和Channel Attention Module),用来捕获空间和通道维度上的特征依赖关系,然后将这两个模块的输出进行融合,进一步增强特征的表达。下面就来看看这两个模块的结构。

图5

1.Position Attention Module(PAM)

图6

PAM的结构如图6所示,它通过以下步骤来实现。

1. 输入特征图A \in R^{C \times H \times W},其中C是通道数,H和W分别是高度和宽度。

2. 将A用不同卷积层生成新的特征图B和C,其中B和C都\in R^{C \times H \times W}。然后将B和C除通道外拉成一条向量变形成R^{C \times HW}

3. 将C和B的转置进行矩阵乘法,再使用softmax操作即得到空间注意力图S\in R^{HW \times HW}

4.将A用卷积层生成特征图D,并将D拉成一条向量变形成R^{C \times HW}。然后,再将D与上一步得到的空间注意力图S的转置执行矩阵乘法,并将结果重塑成R^{C \times H \times W}

5. 最后,对上一步得到的结果乘以尺度参数\alpha,并与原始输入特征执行元素加法,便得到最终的输出特征。输出特征实现了有选择性的聚合上下文信息。

2.Channel Attention Module(CAM)

图7

CAM的结构如图6所示,它通过以下步骤来实现。

1. 输入特征图A \in R^{C \times H \times W},其中C是通道数,H和W分别是高度和宽度。

2. 将A变形成R^{C \times HW},与A的转置执行矩阵乘法,然后通过softmax操作得到通道注意力图X\in R^{C \times C}

4.将A的转置与上一步得到的通道注意力图X执行矩阵乘法,并将结果重塑成R^{C \times H \times W}

5. 最后,对上一步得到的结果乘以尺度参数\beta,并与原始输入特征执行元素加法,便得到最终的输出特征。


混合域注意力机制能够有效地提升模型的性能,增强模型对关键信息的捕捉能力,从而在图像分类、目标检测、语义分割等计算机视觉任务中取得更好的效果。

最后,欢迎关注公众号“AI小家”。

http://www.dinnco.com/news/49812.html

相关文章:

  • 建设网站如何赢利新闻热搜榜 今日热点
  • 做网站国外网站潍坊网站排名提升
  • 做相册的网站佛山优化网站关键词
  • 阿里云虚拟主机如何上传网站厦门网站建设公司
  • 地方资讯网站源码网站快速收录教程
  • 网站活动怎么做的女教师遭网课入侵直播录屏曝
  • 做盗版网站会怎样100个免费推广b站
  • 哪个浏览器可以看禁止网站找客户资源的软件免费的
  • 贵阳网站建设app开发软文技巧
  • 做网站需要注册的那种百度推广信息流有用吗
  • 商务网站开发与建设制作网页的基本步骤
  • 忘记php网站后台密码seo搜索排名优化是什么意思
  • 万网云虚拟主机上传网站网站网络营销
  • 网站标题改动google网站推广
  • 国家工商登记网河南自助建站seo公司
  • 小程序app定制百度seo如何做
  • 服装网站建设2019网站seo
  • 做网站可以自由职业吗百度seo可能消失
  • 做推广什么网站好域名信息查询
  • 长葛网站建设公司中国军事新闻最新消息
  • 外贸网站建设网站西藏自治区seo 标题 关键词优化
  • 网站建设要多少费用找培训机构的app
  • 徐州网站建设案例最新seo网站优化教程
  • 做网站要不要学ps网页设计模板html代码
  • 网站建设vip教程免费站长工具
  • 网站建设中技术程序今日时政新闻热点
  • 如何做网站直播入口网络营销的策略
  • 上海公安门户网站下载网络营销公司是做什么的
  • 永兴城乡住房建设部网站2024最火的十大新闻有哪些
  • 安徽网站开发公司怎么开网店新手入门