当前位置: 首页 > news >正文

网站宣传推广seo 的作用和意义

网站宣传推广,seo 的作用和意义,苏州网站建设技术,网站如何做外链论文《Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions》 1、作用 这篇论文提出了全局注意力机制(Global Attention Mechanism, GAM),旨在通过保留通道和空间方面的信息来增强跨维度交互&#xf…

论文《Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions》

1、作用

这篇论文提出了全局注意力机制(Global Attention Mechanism, GAM),旨在通过保留通道和空间方面的信息来增强跨维度交互,从而提升深度神经网络的性能。GAM通过引入3D排列与多层感知器(MLP)用于通道注意力,并辅以卷积空间注意力子模块,提高了图像分类任务的表现。该方法在CIFAR-100和ImageNet-1K数据集上的图像分类任务中均稳定地超越了几种最新的注意力机制,包括在ResNet和轻量级MobileNet模型上的应用。

2、机制

1、通道注意力子模块

利用3D排列保留跨三个维度的信息,并通过两层MLP放大跨维度的通道-空间依赖性。这个子模块通过编码器-解码器结构,以一个缩减比例r(与BAM相同)来实现。

2、空间注意力子模块

为了聚焦空间信息,使用了两个卷积层进行空间信息的融合。同时,为了进一步保留特征图,移除了池化操作。此外,为了避免参数数量显著增加,当应用于ResNet50时,采用了分组卷积与通道混洗。

3、独特优势

1、效率与灵活性

GAM展示了与现有的高效SR方法相比,如IMDN,其模型大小小了3倍,同时实现了可比的性能,展现了在内存使用上的高效性。

2、动态空间调制

通过利用独立学习的多尺度特征表示并动态地进行空间调制,GAM能够高效地聚合特征,提升重建性能,同时保持低计算和存储成本。

3、有效整合局部和非局部特征

GAM通过其层和CCM的结合,有效地整合了局部和非局部特征信息,实现了更精确的图像超分辨率重建。

4、代码

import torch.nn as nn
import torchclass GAM_Attention(nn.Module):def __init__(self, in_channels, rate=4):super(GAM_Attention, self).__init__()# 通道注意力子模块self.channel_attention = nn.Sequential(# 降维,减少参数数量和计算复杂度nn.Linear(in_channels, int(in_channels / rate)),nn.ReLU(inplace=True),  # 非线性激活# 升维,恢复到原始通道数nn.Linear(int(in_channels / rate), in_channels))# 空间注意力子模块self.spatial_attention = nn.Sequential(# 使用7x7卷积核进行空间特征的降维处理nn.Conv2d(in_channels, int(in_channels / rate), kernel_size=7, padding=3),nn.BatchNorm2d(int(in_channels / rate)),  # 批归一化,加速收敛,提升稳定性nn.ReLU(inplace=True),  # 非线性激活# 使用7x7卷积核进行空间特征的升维处理nn.Conv2d(int(in_channels / rate), in_channels, kernel_size=7, padding=3),nn.BatchNorm2d(in_channels)  # 批归一化)def forward(self, x):b, c, h, w = x.shape  # 输入张量的维度信息# 调整张量形状以适配通道注意力处理x_permute = x.permute(0, 2, 3, 1).view(b, -1, c)# 应用通道注意力,并恢复原始张量形状x_att_permute = self.channel_attention(x_permute).view(b, h, w, c)# 生成通道注意力图x_channel_att = x_att_permute.permute(0, 3, 1, 2).sigmoid()# 应用通道注意力图进行特征加权x = x * x_channel_att# 生成空间注意力图并应用进行特征加权x_spatial_att = self.spatial_attention(x).sigmoid()out = x * x_spatial_attreturn out# 示例代码:使用GAM_Attention对一个随机初始化的张量进行处理
if __name__ == '__main__':x = torch.randn(1, 64, 20, 20)  # 随机生成输入张量b, c, h, w = x.shape  # 获取输入张量的维度信息net = GAM_Attention(in_channels=c)  # 实例化GAM_Attention模块y = net(x)  # 通过GAM_Attention模块处理输入张量print(y.shape)  # 打印输出张量的维度信息
http://www.mmbaike.com/news/22842.html

相关文章:

  • 企业网站建设管理及推广邯郸网站建设优化
  • 个人网站的设计与实现的任务书外贸网站有哪些平台
  • 舞钢市城乡建设局网站优化设计答案六年级上册语文
  • 做医疗网站建设网络营销的公司有哪些
  • 北京营销型网站建设培训郑州seo代理外包
  • ssh可以做wap网站么关键词搜索引擎又称为
  • 长沙做营销型网站公司国内新闻最新消息简短
  • 做it行业招标网站有哪些域名
  • 有没有能帮人快速网站备案的机构舆情分析系统
  • 翻译网站建设百度搜索官网
  • 做那种事免费网站推广普通话图片
  • 青海公路建设市场信用息服务网站做网页的网站
  • 安徽网站开发公司建网站需要什么
  • 浙江做网站找谁个人推广app的妙招
  • 建站宝盒nicebox手机版常用的搜索引擎有哪些?
  • wordpress支持视频播放器插件下载梧州网站seo
  • wordpress企业 破解主题下载做seo需要用到什么软件
  • 建设工程平台网站网络营销推广活动
  • w7自己做网站网站怎么被收录
  • 星座 网站 建设seo网站介绍
  • 做网站站长开通vip极速建站网站模板
  • wordpress数据库不稳定seo网站培训
  • 做装修网站推荐客户靠谱吗ip域名查询网站入口
  • 网站干什么的seo关键词优化外包公司
  • 八度 网站建设公司管理培训课程大全
  • 做网站赚钱吗 怎么赚钱seo流量是什么意思
  • 个人备案可以做影视网站吗淘宝推广怎么推
  • 网络营销推广的问题正规seo关键词排名哪家专业
  • 做做做网站全国31省市疫情最新消息今天
  • 从零开始学做网站百度快照是干嘛的