当前位置: 首页 > news >正文

网站内容建设和管理网站建设成本报表

网站内容建设和管理,网站建设成本报表,网站 上一篇 下一篇,网站升级改造建设方案CLIP论文精度 Zero-shot CLIP多模态模型 Image Endecoder是一个图片编码器#xff0c;既可以是ResNet,也可以是Vision Transformer. Text Encoder和Image Encoder产生的两组特征进行对比学习#xff08;无监督训练#xff09; 分类头#xff1f;“分类头” 是指网络结…CLIP论文精度 Zero-shot CLIP多模态模型 Image Endecoder是一个图片编码器既可以是ResNet,也可以是Vision Transformer. Text Encoder和Image Encoder产生的两组特征进行对比学习无监督训练 分类头“分类头” 是指网络结构中用于执行具体分类任务的一组层将网络提取的特征转化为分类或检测结果。 CLIP训练好后没有使用微调所以也就没有分类头而利用它做推理的过程是借用了自然语言处理NLP的方法也就是prompt template. 把每个分类类别变成相应的句子句子通过之前训练好的文本编码器Text Encoder后就会得到对应数量文本的特征。做这一步的原因是因为在训练过程中输入到Text Encoder中的是一个句子为了保证模型输出的效果所以采用输入形式的一致。 关于如何将分类的每个标签变成一个句子OpenAI也提出了prompt engineering和prompt ensemble这两种方式来提高模型的准确率。 在推理的过程中对于输入的图片经过ImageEncoder后得到图片特征然后跟所有的文本特征去计算一个cosine similarity相似性将与图片最相近的一个文本挑出来完成分类任务。 categorical label限制。需要在训练或者推理时提前准备一个标签的列表以编写分类头。而CLIP则是摆脱了这种限制。 CLIP迁移性非常强因为他学习到的语义性强。 CLIP的应用图像生成、物体检测和分割、视频检索clifs。 Abstract CLIP出来前先进的视觉系统训练都需要一个提前定义好的标签集合但采用这样有限制性的监督学习很可能会模型的泛化性。所以CLIP从NLP中得到监督信息因为本文描述的监督信号非常广。CLIP使用4亿个文本-图像训练集去进行了大模型的训练。生成的模型可以直接用于下游的Zero-shot推理。OpenAI公开了CLIP的预训练模型和推理代码但没公开预训练代码。 Introduction 从原始的文本里去预训练一个模型在NLP领域取得了成功。如GPT它的模型架构同样也是与下游任务无关的所以直接应用在下游应用时无需去设计分类头等特殊处理。所以CLIP将NLP里面的这套框架应用到了视觉里面。自监督学习transformer、对比学习、掩码填空、自回归。CLIP主打泛化性。 Approach 利用自然语言的监督信号来训练一个比较好的视觉模型。好处 不需要标注数据只需要文本-图片配对集。训练时图片和文字绑定所以学习到的是一个多模态特征。 Transformer出现后为NLP带来革命性的改变开始使用具有上下文语义环境的学习方式去替代传统且复杂的Topic model和n-gram等。让其可以比较方便地进行跨模态训练。 大数据集WebImageText:WIT 由于数据集巨大训练成本高时间长所以训练效率对多模态的训练效果有直接影响。所以CLIP由于训练效率的原因使用了对比学习的方法而非预测性的方法。 仅仅把预测型的目标函数改为对比型的目标函数训练效率就提升了4倍。 模型预训练伪代码与其他对比学习没有太大区别主要是将单模态正样本替换成了多模态正样本。 CLIP数据集较大不太会产生过拟合的情况。它在最后的投射中表示和对比学习层之间仅使用了线性的投射层。同时由于数据集太大也不需要做过多的数据增强(?)唯一使用的是随机的剪裁。由于模型太耗时不好做微调所以将对比学习中的超参数temperature在模型中重新设置为可学习的参数。 训练过程 视觉方面训练了8种模型ResNet-50,ResNet-101,和三个基于EfficientNet-style model改进的ResNet变体。同时还使用了3个Vision Transformers包括ViT-B/32,ViT-B/16,ViT-L/14。 32 epochs。 使用Adam optimizer优化器 对超参数进行了grid searches,random search或者manual tuning。 bitch size 32768 使用了混精度训练 工程上的问题 训练Vision transformer比训练残差网络高效。 Experiments Zero-shot Transfer: 动机一旦借助文本训练好了这个又大又好的模型之后就可以使用文本做引导去灵活地做zero shot的迁移学习。而不必再进行微调。推理过程 Prompt engineering and ensembling: Prompt是在微调或者直接推理时用的一种方法。需要使用Prompt,是因为1.单个单词具有歧义性。2.预训练的时候输入是文本信息而非单词为了防止出现分布偏移(distribution gap)问题。所以作者使用Prompt template A photo of a {label}来描述推理时的输入可以使模型准确率得到提升。如果你已经提前知道类别那么可以添加更多的提示词来使模型的输出更加准确。Prompt ensemble就是利用多段提示词最后将结果聚合起来。 few-shot transfer每个类别拿出少量图片来做微调:将CLIP里面的图片编码器拿出来“冻住”去做linear probe对最后的分类头进行训练。 如果下游任务用全部的数据而不是zero/few shot 方法1linear probe方法2fine-tune ,把整个网络都放开直接去做端对端的学习。比linear probe更灵活、数据集大的时候效果更好。 而在CLIP中作者专门使用了linear probe是因为(1)CLIP本来就是用来研究跟数据集无关的预训练方式的能能好地反映出预训练模型的好坏(2)linear probe不用调参来适应各个数据集。 Limitations CLIP在大多数模型平均下来来看只是与比较简单的机械模型打成平手而无法与state of the art(SOTA,最前沿)的结果媲美。 扩大训练数据集是一个不太可能的方案要达到SOTA的效果需要再训练当前的1000X,所以需要有新的方法在计算和数据上更加高效。CLIP在细分类任务和抽象概念的处理上表现得较差。CLIP的泛化性较好但推理数据集不能out-of-distribution。虽然CLIP可以用zero-shot去做推理但仍然是从给定的类别里去做的选择。所以OpenAI还是想将其作为生成式的模型。数据利用率不高效。预训练数据没有经过清洗可能会带着社会的偏见。 Conclusion CLIP的宗旨就是想把NLP领域当中与下游任务无关的训练方式带到其他领域中去。CLIP方法总结在预训练阶段使用对比学习利用文本的提示去做zero shot的迁移学习。在大数据和大模型的双向加持下CLIP的效果能和之前精心设计的且是有监督训练出来的基线模型打成平手。
http://www.dnsts.com.cn/news/74616.html

相关文章:

  • 电子商务网站建设主要内容云南工程建设信息网站
  • 中山企业网站制作闸北品牌网站建设
  • 网站怎么做404页面seo流量排名工具
  • 贵州省城乡建设部官方网站手机如何申请个人邮箱
  • 文化馆网站建设的意义3天引流800个人技巧
  • 长沙经开区建设局网站怎样发展网站
  • 山东省建设安全生产协会网站钦州网站推广
  • 淘宝客怎么做的网站推广wordpress 站外链接
  • 三明网站建设公司公司后台网站怎么做
  • 建设网站需要的技术邯郸网络广播电视台
  • 国外注册品牌 建设网站石狮外贸网站建设公司报价
  • 深圳住房和建设局网站置换平台商城网站制作多少钱
  • 网站建设计算机人员招聘网站对比
  • 织梦网站源码好吗直接进网站的浏览器打开
  • 网站建设合同前期需注意哪些问题松江专业做网站
  • 花乡做网站公司wordpress修改导航
  • 企业官网建设 创意网站建设注册公司一般多少费用
  • 深圳做公司网站的公司网站建设制作模板
  • win10 wordpress安装教程视频百度提升优化
  • 网站多套系统如何调用wordpress 图片并列
  • 网站建设的案例东莞骄阳网站建设
  • 如何跟客户销售做网站wordpress配置页面
  • 天河做网站系统比较大的做网站的公司
  • 昆明市网站建设公司室内装修软件
  • 网站模板可以自己做华文细黑做网站有版权吗
  • 网站表单功能做网站杭州
  • 做网站商城需要什么条件wordpress微信联系
  • asp.net网站开发项目化教程上海天华建筑设计有限公司怎么样
  • 网站怎么做排名微信网站制作合同
  • 替朋友做网站wordpress纯静态网站