当前位置: 首页 > news >正文

获取网站访客信息卖东西专业网站网上

获取网站访客信息,卖东西专业网站网上,wordpress用闲聊,做网站站长先把作息和身体搞好以下记录自己对transformer的学习笔记#xff0c;可能自己看得懂【久了自己也忘了看不懂】#xff0c;别人看起来有点乱。以后再优化文档~ 小伙伴请直接去看学习资源#xff1a; Transformer的理解T-1_哔哩哔哩_bilibili 首先#xff0c;时序处理#xff1a;一些模型的出…以下记录自己对transformer的学习笔记可能自己看得懂【久了自己也忘了看不懂】别人看起来有点乱。以后再优化文档~ 小伙伴请直接去看学习资源 Transformer的理解T-1_哔哩哔哩_bilibili 首先时序处理一些模型的出现。 NLP方面继续 GPT2 - GPT3 - GPT4,  chatGPT 图像方面 分类VIT  Swin Transformer,  TNTTRM in TRM 检测DERT等基于trm的目标检测模型 分割VisTR等基于trm的图像分割模型A Survey of Visual Transformers 预训练模型进阶【大一统CV大模型初步】MAE - SAM(segment anything) Transformer Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.    谷歌 NIPS 2017 Transformer改进了RNN最被人诟病的训练慢的缺点利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度充分发掘DNN模型的特性但是模型本身很简洁提升模型准确率。 Inputs比如一句话四个词语Input Embedding: 四个词语每个embedding成512维 X4*512   [x1,x2,x3,x4] 分别1*512Positional Encoding: 位置编码 【一句话中每个词之间有一种相对位置同一个词不同位置让每一个位置都有不同的编码才更有意义 最终用Final Embedding.】 pos:第几个位置i:第几个编码维度d-model同embedding一致的总维度如512 奇数维度sin偶数维度cos 【公式第几个位置的第几维度得到一个position值】 纵坐标位置 横坐标维度 对于Multi-Head Attention QqueryKkeyVvalue 每一个词语的每一个q k v都是1*512  来源 q1 x1*Wq [1 512] * [512 512] [1 512]     k1和v1同理【第2-4个词同理】 QKT  [4 512]*[512 4] [4 4]  根号dk为常熟负责缩减值。 *V [4 4] * [4*512] [4 512]  因此最终self-attation值还是4*512 X4*512 值得一提的是当有多个句子每个句子有不同的数量的词语计算中矩阵需要进行补充掩码 比如5个有的只有3个。不够的全都掩码到5个 有的是Q-padding 有的是K-padding 【常用】 三个句子3个词4个词5个词最终都是5*512 对于多头注意力的体现 假如Q K V  4*512  分层成4*256与 4*256 【图中是三份这里两份】 每个4*256分别计算自己的四个样本词的自注意力最后它们再concat合并起来 对于Masked Multi-head attention 不同于encoder中对输入数据X的自注意力计算decoder中是需要逐个预测output的输出的因此第一次保留第一个词语开始符sos掩盖住后面的第二次保留前两个词语掩盖住后边的知道最后得到结束符eos预测结束。 这里的mask方式是对V构造上三角掩盖 补充句子长度一致q-padding或者k-padding掩掉句子长度 这里decoder是每次预测结果掩盖后边句子是把QKT掩盖构造的上三角矩阵再乘V 对于结构中剩余模块多头注意力后的短接归一化前馈神经网络最后线性层softmax等等。最终输出Output Probability比如4*C的矩阵C是类别数量。 Visual Transformer Dosovitskiy A , Beyer L , Kolesnikov A ,et al.An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale[C]//International Conference on Learning Representations.2021.   谷歌 问题transformer 从NLP到 CV 复杂度高且每个像素值作为一个token并不合理 思路 图片分块固定大小线性嵌入特征位置编码特征喂给TRM的encoder~ 增加可扩展的分类token 优点有局部合起来也有全局 vit中TRM与TRM原论文有点结构上的变化norm提前了而且没有PAD掩码【猜测是样本图resize统一分割出来的token是一样的】 具体的如下步骤 一些VIT的细节解释 首先输出特征怎么利用 一般可以两种⽅式⼀种是使⽤【CLS】token另⼀种就是对所有tokens的输出做⼀个平均 最后选择加一个分类用的token-0因为计算中也会和每一个算自注意力【不用每个token的高阶encoder输出再合并特征接全连接层了用token0的也行隐藏着特征带有全图全局信息了的了】 一些计算过程 P图片块分辨率H*W/P*P N数量图分成了N块 【要看论文一开始博主讲的P2块】 C每块图通道比如3 D维度比如 512  【代码中一块图P*P*3-convfc-D维embedding】 E输入特征【N*D】比如 N9块这里9*512  Epos位置编码特征维度保持一致D【这里是10*512】 Z0VIT里边的patchposition的综合embedding了【加Xclass的token-0】 MSA多头注意力LNnorm   加后边的Zl-1残差机制 MLP一行同理1  以上在图中也可以loop循环堆叠。
http://www.dnsts.com.cn/news/57262.html

相关文章:

  • 网站维护的方法安卓网站开发视频
  • 邢台网站建设最新报价线上推广渠道和方式
  • 大良网站设计价位昆明seo
  • 网站开发过程中出现的问题手机网站菜单设计模板
  • 绿色大气漂亮dedecms茶叶企业网站html5 wap网站
  • 东莞微信网站建设信息有什么公司建网站
  • 网站后台界面 园林设计常德公司做网站
  • 青州网站是做网站设计好还是杂志美编好
  • 定制建站方案免费网站服务器推荐
  • dedecms电影网站源码本地环境如何安装wordpress
  • 网站前台如何做访问量显示网络公司推广方案
  • c 可以做网站吗网站页面设计工作流程
  • 网站建设费应入什么科目直播网站源码免费
  • 网站验证钱的分录怎么做南昌市有帮做网站的吗
  • 网站建设安全性wordpress设置超链接
  • 在网页做动态图片的网站建筑信息平台app
  • 如何分析对手网站关键词图片上传分享平台
  • 网站建设的基础资料东道设计应届生收入
  • 网站制作_做网站_耐思智慧公司做的网站打开慢
  • 网站的功能建设方案神农架网站建设
  • 保定建设信息网站整合营销传播的概念
  • 英文网站制作 官网网站打开空白页面
  • 浙江建设厅网站如何做好外贸网络营销
  • 贵阳拍卖网站开发公司怎么免费建立个人网站
  • 装修网站模板12免费建站网站
  • 网站开发代理江苏wordpress自建主题
  • 济宁专业网站建设wordpress 演示数据
  • 网站怎么管理维护电商常用的erp系统有哪些
  • 001做淘宝代码的网站如何创建wordpress
  • 博客网站开发报告文库网站建设用户画像例子