当前位置: 首页 > news >正文

网站域名有了 网站如何建设logo智能设计

网站域名有了 网站如何建设,logo智能设计,店铺装修一平方大概多少钱,网站建设维护费合同前言 自然语言处理是人工智能的一个分支。在自然语言处理领域#xff0c;有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的#xff0c;那一年BERT以不可抵挡之势#xff0c;让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在#…前言 自然语言处理是人工智能的一个分支。在自然语言处理领域有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的那一年BERT以不可抵挡之势让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在由GPT-3.5模型产生的chatGPT则以一己之力让整个世界重新认识了人工智能。现在用妇孺皆知来形容chatGPT一点也不为过。是什么让GPT在后来完成复仇碾压BERT模型这篇文章带你了解这两个模型的“恩恩怨怨”。 自然语言处理背景 自然语言处理Natural Language Processing简称NLP是人工智能领域的一个重要方向。NLP主要处理四类任务分别是序列标注、文本分类任务、句子关系判断和生成式任务。 序列标注是NLP中最基础的任务应用十分广泛如词性标注、命名实体识别、语义角色标注等实质上都属于序列标注的范畴。 文本分类任务是NLP中的经典问题包括主题分析和情感分析等。 句子关系判断任务的输入是两个句子输出是句子间的关系常用的判别有语义相似度、语义关系推理蕴含/中立/矛盾、问答对匹配、搜索相关性排序等。 生成式任务包括对话生成、摘要生成、机器翻译等。 其中生成式任务就是我们的chatGPT最擅长的任务。我们问它问题它可以自动生成回答。 自然语言处理的一些早期处理方法铺垫 在计算机领域我们一般不喜欢文字更喜欢数字。所以怎么把文字转换成计算机可以理解的数字就是一个很重要的问题。 独热编码 比较早的转换方式是独热编码one-hot encoding。独热编码的处理方式是把N个要处理的字或者单词转换为一个N维向量第 i i i个字转换后的向量为 ( 0 , 0 , … , 0 , 1 , 0 , … , 0 , 0 ) (0,0,\dots,0,1,0,\dots,0,0) (0,0,…,0,1,0,…,0,0)其中第 i i i维为1其它维都是0。这样的弊端也非常明显那就是当处理的字数比较多的时候维数会非常高。比如中国有约10万个汉字为了表示这些汉字需要10万的向量。这显然是我们无法接受的。 word2vec模型 2013年google提出了word2vec模型。这个模型的提出使得NLP进入神经网络时代。顾名思义这个模型就是专门把单词或者字转换成向量的模型。通过这个模型给每个单词赋予了一个低维向量。且意思相近的单词之间其向量的距离也会越近。向量的每一维也不再是0或1而是一个0-1之间的实数。这种把高维的文字表示成低维的向量的方式叫做词嵌入word embedding。这样的一个最大的缺点是无法识别多义词。因为一个词在不同的上下文中所表达的意思可能是不一样的而静态的向量没有办法处理这些情况。 特征提取器 神经网络、深度学习最擅长的事情就是提取特征。而在NLP领域字与字之间会有一些特征句与句之间也会有一些特征可以把这些特征统称为语言学知识。而我们要做的就是找到一个优秀的特征提取器把这些语言学知识提取出来。常见的特征提取器有RNN循环神经网络、LSTMRNN的一种特殊形式、CNN卷积神经网络、Transformer。Transformer是目前最好的特征提取器。Transformer就像其另一个霸气的名字“变形金刚”一样被更多人研究并不断地变化。 自然语言处理元年正文 我们的故事要从2018年开始。2018年被称为自然语言处理元年。这一年许多重要模型相继发布为NLP带来了里程碑式的进展。这一年无监督预训练微调的模式开始流行。这些重要的模型中就包含我们的主角BERT模型和GPT模型。 ELMo模型配角登场 2018年3月ELMo模型被提出。ELMo模型基于LSTM这个特征提取器采用双向训练的模式会根据上下文的含义来动态产生表示这个词的向量解决了word2vec不能表示多义词的弊端。ELMo模型先让模型在大量无标注数据集上进行训练通过双向LSTM提取数据特征学习到基本的语言学特征。当应用于下游任务时只需要给少量的有标注数据集进行训练模型就能达到不错的效果。这种模式称为预训练微调这种模式也被GPT和BERT所采用。无标注数据集的获取相对来说较容易所以这种无监督预训练微调也逐渐流行。 GPT模型男主登场 2018年6月GPT诞生了。GPT (Generative Pre-Training Transformer) 是 OpenAI GPT 系列的开山之作。 从名字上可以看出GPT是基于Transformer的生成式预训练模型。它主要处理的是自然语言处理四大任务中的生成式任务。因为在做生成式任务时是看不到下文的只能给出上文来生成下文所以像ELMo这种双向训练的模式不适合GPT。 Transformer以其卓越的性能击败了LSTMGPT也以优异的表现战胜了ELMo。 BERT模型男二登场 2018年10月BERT模型横空出世BERT当年的成绩可谓是拳打ELMo脚踩GPT霸占了各大自然语言处理榜单的榜首。而且在后面几年BERT的追随者越来越多衍生出了一系列跟BERT相关的模型比如RoBERTa、SpanBERT、ALBERT、MacBERT等等大家都在BERT的基础上进行优化。BERT的影响力可见一斑。 关于BERT前亚马逊首席科学家李沐曾在2021年11月说过“如果对自然语言处理在过去三年里面最重要的文章做排序的话你把BERT排在第二的位置那么很难有另外一篇论文能够名正言顺地排在第一的位置。BERT及后续的一系列文章使得自然语言处理在过去三年里面有一个质的飞跃。” 那么BERT为什么这么厉害呢因为BERT结合了ELMo和GPT的优势。相比于ELMoBERT把特征提取器换成了更加厉害的Transformer当然还有其它的一些改变但是这里略过。相比于单向训练的GPT它采取了双向训练的方式使得其产生的向量更加贴合上下文的意思。 GPT VS BERT决战 和GPT相比BERT所使用的掩码语言模型任务Masked Language Model虽然让它失去了直接生成文本的能力但换来的是双向编码的能力这让模型拥有了更强的文本编码性能直接的体现则是下游任务效果的大幅提升。而GPT为了保留生成文本的能力只能采用单向编码。以当年的眼光来看BERT绝对是一个更加优秀的模型。因为既然BERT和GPT两者都是采用预训练微调的范式并且下游任务依然是分类、匹配、序列标注等等经典的NLP任务形式那么像BERT模型这种更注重特征编码的质量下游任务选一个合适的损失函数去配合任务做微调显然比GPT这种以文本生成的方式去迂回地完成这些任务更加直接。从BERT模型出来以后无监督训练下游任务微调的范式便奠定了它的霸主地位各类沿着BERT的思路琢磨如何获得更好的文本特征编码的方法大量涌现以至于GPT这个以生成式任务为目标的模型显得像一个异类。马后炮地说如果当时OpenAI顺应大势放弃生成式预训练这条路也许我们要等更长的时间才能见到ChatGPT这样的模型。 总结 在自然语言处理四大任务中GPT更擅长生成式任务而BERT更擅长其它三个。而在如今以对话任务为代表的生成式任务成为了主流且随着参数量的增大GPT系列的效果也越来越好这也是GPT后来能打败BERT的重要原因吧。 参考文章 自然语言处理技术的模型和任务 OpenAI是如何胜过谷歌的ChatGPT发展简史 语言大模型的进化轨迹 ChatGPT的前世今生OpenAI的技术“执拗”与“豪赌”
http://www.dnsts.com.cn/news/73710.html

相关文章:

  • 展示系统 网站模板免费下载wordpress 无法登录
  • 庆阳北京网站建设汉字叔叔花了多少钱做网站
  • 即墨市城乡建设局网站三明北京网站建设
  • discuz下载官网网站优化外包价格
  • 电子商务网站设计与维护论文东莞网站推广技巧
  • 什么网站可以做字体效果好淘宝店铺怎么运营起来
  • 公司网站维护怎么做如何网站开发语言
  • 精品网站建设费用 搜搜磐石网络做花语的网站
  • wordpress百度pingseo推广要多少钱
  • 网站实名制注册怎么做四川住房与城乡建设厅网站
  • 山西成宁做的网站杭州专业建设网站哪里好
  • 教着做美食的网站泰来县城乡建设局网站
  • 有哪些网站是做采购招标的星空传媒苏清歌孟若羽
  • 专业做婚庆的网站有哪些上海app开发和制作公司
  • 可不可以异地建设网站在线ip代理网页
  • 建设网站观澜中国做的比较好的电商网站有哪些
  • 淘宝返利网站怎么做的摄影网站模板源码
  • 火狐 开发者 网站shopex更改数据密码后网站打不开了
  • 网站直播怎样做网站建设前期准备方案
  • 盐城网站建设方案微信公众号平台手机端
  • 500做网站做淘宝需要知道什么网站
  • 360网站怎么做链接石家庄网架公司
  • 盐山做网站网站建设文字教程视频
  • 清远市建设工程交易中心网站福建工商网上登记平台
  • 免费素材网站 可商用心理咨询网站
  • 网站怎么设关键词杭州外贸网站多少钱
  • 提供网站建设工具网页结构有哪几种
  • 静态网站怎么做优化wordpress有赞收款插件
  • 成品ppt的网站免费观看山东网络营销
  • 品牌网站建设方网站设计制作行业排行