当前位置: 首页 > news >正文

安卓商城番禺seo培训

安卓商城,番禺seo培训,html网站模板资源,wordpress主题如何导入演示Swin Transformer 简介 下采样的层级设计#xff0c;能够逐渐增大感受野。采用window进行注意力计算#xff0c;极大降低了内存消耗#xff0c;避免了整张图像尺寸大小的qkv矩阵滑窗操作包括不重叠的 local window#xff0c;和重叠的 cross-window。不重叠的local window…Swin Transformer 简介 下采样的层级设计能够逐渐增大感受野。采用window进行注意力计算极大降低了内存消耗避免了整张图像尺寸大小的qkv矩阵滑窗操作包括不重叠的 local window和重叠的 cross-window。不重叠的local windows将注意力计算限制在一个窗口window size固定而cross-windows则让不同窗口之间信息可以进行关联实现了信息的交互。 整体架构 Patch Partition结构将图像切分重排并进行embeddingPatch Merging结构下采样方法实现层次化结构Swin Transformer Block一个W-MSA ,一个SW-MSA,也即是一个window-多头注意力机制和一个shift-windows多头注意力机制实现将自注意力机制限制在一个windows中进行计算同时通过shift-window解决限制在一个windows中后不同windows之间无信息共享的问题。 Patch Embedding 在图像切分重排中采用的是使用patch size大小的conv2d进行实现 class PatchEmbed(nn.Module):r Image to Patch Embedding图像切分重排Args:img_size (int): Image size. Default: 224.patch_size (int): Patch token size. Default: 4.in_chans (int): Number of input image channels. Default: 3.embed_dim (int): Number of linear projection output channels. Default: 96.norm_layer (nn.Module, optional): Normalization layer. Default: Nonedef __init__(self, img_size224, patch_size4, in_chans3, embed_dim96, norm_layerNone):super().__init__()img_size to_2tuple(img_size)patch_size to_2tuple(patch_size)patches_resolution [img_size[0] // patch_size[0], img_size[1] // patch_size[1]]self.img_size img_sizeself.patch_size patch_sizeself.patches_resolution patches_resolutionself.num_patches patches_resolution[0] * patches_resolution[1]self.in_chans in_chansself.embed_dim embed_dimself.proj nn.Conv2d(in_chans, embed_dim, kernel_sizepatch_size, stridepatch_size)if norm_layer is not None:self.norm norm_layer(embed_dim)else:self.norm Nonedef forward(self, x):B, C, H, W x.shape# FIXME look at relaxing size constraintsassert H self.img_size[0] and W self.img_size[1], \fInput image size ({H}*{W}) doesnt match model ({self.img_size[0]}*{self.img_size[1]}).x self.proj(x).flatten(2).transpose(1, 2) # B Ph*Pw Cif self.norm is not None:x self.norm(x)return x Patch Merging class PatchMerging(nn.Module):r Patch Merging Layer.Args:input_resolution (tuple[int]): Resolution of input feature.dim (int): Number of input channels.norm_layer (nn.Module, optional): Normalization layer. Default: nn.LayerNormdef __init__(self, input_resolution, dim, norm_layernn.LayerNorm):super().__init__()self.input_resolution input_resolutionself.dim dimself.reduction nn.Linear(4 * dim, 2 * dim, biasFalse)self.norm norm_layer(4 * dim)def forward(self, x):x: B, H*W, CH, W self.input_resolutionB, L, C x.shapeassert L H * W, input feature has wrong sizeassert H % 2 0 and W % 2 0, fx size ({H}*{W}) are not even.x x.view(B, H, W, C)x0 x[:, 0::2, 0::2, :] # B H/2 W/2 Cx1 x[:, 1::2, 0::2, :] # B H/2 W/2 Cx2 x[:, 0::2, 1::2, :] # B H/2 W/2 Cx3 x[:, 1::2, 1::2, :] # B H/2 W/2 Cx torch.cat([x0, x1, x2, x3], -1) # B H/2 W/2 4*Cx x.view(B, -1, 4 * C) # B H/2*W/2 4*Cx self.norm(x)x self.reduction(x)return x SW-MSA设计 如下所示w-msa mask避免窗口5和窗口3进行相似度计算通过mask只在窗口内部进行计算。 通过对特征图移位并给Attention设置mask来间接实现的。能在保持原有的window个数下最后的计算结果等价 Window Attention A t t e n t i o n ( Q , K , V ) S o f t m a x ( Q K T d B ) V Attention(Q,K,V)Softmax(\frac{QK^T}{\sqrt{d}}B)V Attention(Q,K,V)Softmax(d ​QKT​B)V 相对位置编码 coords_h torch.arange(self.window_size[0]) coords_w torch.arange(self.window_size[1]) coords torch.stack(torch.meshgrid([coords_h, coords_w])) # 2, Wh, Ww coords_flatten torch.flatten(coords, 1) # 2, Wh*Ww relative_coords coords_flatten[:, :, None] - coords_flatten[:, None, :] # 2, Wh*Ww, Wh*Ww relative_coords relative_coords.permute(1, 2, 0).contiguous() # Wh*Ww, Wh*Ww, 2 relative_coords[:, :, 0] self.window_size[0] - 1 # shift to start from 0 relative_coords[:, :, 1] self.window_size[1] - 1 relative_coords[:, :, 0] * 2 * self.window_size[1] - 1 relative_position_index relative_coords.sum(-1) # Wh*Ww, Wh*Ww self.register_buffer(relative_position_index, relative_position_index)对于相对位置编码在2维坐标系中当偏移从0开始时21和12相对00的位置编码是不同的而转为1维坐标后却是相同数值为了解决这个问题采用对x坐标2 * self.window_size[1] - 1操作从而进行区分。而该相对位置编码需要2 * self.window_size[1] - 1编码数值。 A Survey of Transformers 图解Swin Transformer - 知乎 (zhihu.com)
http://www.dnsts.com.cn/news/191655.html

相关文章:

  • 注册公司需要的网站建设推荐一下网站谢谢
  • 针织衫技术支持东莞网站建设30天网站建设实录 pdf
  • 网站建设过程小结腾讯云网站制作教程
  • 房地产网站建设招商石家庄邮电职业技术学院
  • 做网站卖设备找哪家好网站栏目按扭
  • 五金网站建设中国互联网金融协会
  • 外贸公司网站建设费用报销wordpress不支持apk
  • 局域网手机网站建设微网站设计基本要求
  • 企业营销网站建设步骤怎么做网站描述
  • 把网站放在虚拟主机上 怎么进入网站后台南宁房产信息网
  • 建什么网站 做 cpa移动互联网应用程序安全认证证书是什么
  • 大型网站 解决方案 技术网络营销外包哪家好
  • 万网网站建设方案书网站如何做网站解析
  • 如何给网站添加网站地图网站建设单词
  • 河北手机响应式网站建设设计一般学校网站的后台用什么做
  • 做秩序册的网站外贸企业网站改版
  • 网站系统建设支出分录佛山大型的网站制作
  • 做一个平面网站的成本开网店被运营公司骗了怎么办
  • 虚拟机做实验的网站环保科技东莞网站建设
  • 百度站长平台网页手机做一个普通网站多少钱
  • 凡科建设网站怎么保存创建网站的快捷方式
  • 做网站收费标准创意型网站
  • 跨境商城网站开发沈阳个人建站模板
  • 钢丝高频退火设备网站建设app数据分析软件
  • 西安户县建设厅网站用html做的网站加背景音乐
  • 杭州网站界面设计信息技术八年级上册网站建设
  • 视频网站咋么做网站建设net接口
  • 有了网站源码怎么建站建设银行官网入口
  • 游戏网站建设计划书今年国内重大新闻
  • 模块式网站制作合肥企业网站建设工作室