当前位置: 首页 > news >正文

人工智能自动做网站wordpress导航栏文字大小不一

人工智能自动做网站,wordpress导航栏文字大小不一,比价 wordpress 插件,拓者吧室内设计网模型前言 自然语言处理是人工智能的一个分支。在自然语言处理领域#xff0c;有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的#xff0c;那一年BERT以不可抵挡之势#xff0c;让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在#…前言 自然语言处理是人工智能的一个分支。在自然语言处理领域有两个相当著名的大语言模型——BERT和GPT。两个模型是同一年提出的那一年BERT以不可抵挡之势让整个人工智能届为之震动。据说当年BERT的影响力是GPT的十倍以上。而现在由GPT-3.5模型产生的chatGPT则以一己之力让整个世界重新认识了人工智能。现在用妇孺皆知来形容chatGPT一点也不为过。是什么让GPT在后来完成复仇碾压BERT模型这篇文章带你了解这两个模型的“恩恩怨怨”。 自然语言处理背景 自然语言处理Natural Language Processing简称NLP是人工智能领域的一个重要方向。NLP主要处理四类任务分别是序列标注、文本分类任务、句子关系判断和生成式任务。 序列标注是NLP中最基础的任务应用十分广泛如词性标注、命名实体识别、语义角色标注等实质上都属于序列标注的范畴。 文本分类任务是NLP中的经典问题包括主题分析和情感分析等。 句子关系判断任务的输入是两个句子输出是句子间的关系常用的判别有语义相似度、语义关系推理蕴含/中立/矛盾、问答对匹配、搜索相关性排序等。 生成式任务包括对话生成、摘要生成、机器翻译等。 其中生成式任务就是我们的chatGPT最擅长的任务。我们问它问题它可以自动生成回答。 自然语言处理的一些早期处理方法铺垫 在计算机领域我们一般不喜欢文字更喜欢数字。所以怎么把文字转换成计算机可以理解的数字就是一个很重要的问题。 独热编码 比较早的转换方式是独热编码one-hot encoding。独热编码的处理方式是把N个要处理的字或者单词转换为一个N维向量第 i i i个字转换后的向量为 ( 0 , 0 , … , 0 , 1 , 0 , … , 0 , 0 ) (0,0,\dots,0,1,0,\dots,0,0) (0,0,…,0,1,0,…,0,0)其中第 i i i维为1其它维都是0。这样的弊端也非常明显那就是当处理的字数比较多的时候维数会非常高。比如中国有约10万个汉字为了表示这些汉字需要10万的向量。这显然是我们无法接受的。 word2vec模型 2013年google提出了word2vec模型。这个模型的提出使得NLP进入神经网络时代。顾名思义这个模型就是专门把单词或者字转换成向量的模型。通过这个模型给每个单词赋予了一个低维向量。且意思相近的单词之间其向量的距离也会越近。向量的每一维也不再是0或1而是一个0-1之间的实数。这种把高维的文字表示成低维的向量的方式叫做词嵌入word embedding。这样的一个最大的缺点是无法识别多义词。因为一个词在不同的上下文中所表达的意思可能是不一样的而静态的向量没有办法处理这些情况。 特征提取器 神经网络、深度学习最擅长的事情就是提取特征。而在NLP领域字与字之间会有一些特征句与句之间也会有一些特征可以把这些特征统称为语言学知识。而我们要做的就是找到一个优秀的特征提取器把这些语言学知识提取出来。常见的特征提取器有RNN循环神经网络、LSTMRNN的一种特殊形式、CNN卷积神经网络、Transformer。Transformer是目前最好的特征提取器。Transformer就像其另一个霸气的名字“变形金刚”一样被更多人研究并不断地变化。 自然语言处理元年正文 我们的故事要从2018年开始。2018年被称为自然语言处理元年。这一年许多重要模型相继发布为NLP带来了里程碑式的进展。这一年无监督预训练微调的模式开始流行。这些重要的模型中就包含我们的主角BERT模型和GPT模型。 ELMo模型配角登场 2018年3月ELMo模型被提出。ELMo模型基于LSTM这个特征提取器采用双向训练的模式会根据上下文的含义来动态产生表示这个词的向量解决了word2vec不能表示多义词的弊端。ELMo模型先让模型在大量无标注数据集上进行训练通过双向LSTM提取数据特征学习到基本的语言学特征。当应用于下游任务时只需要给少量的有标注数据集进行训练模型就能达到不错的效果。这种模式称为预训练微调这种模式也被GPT和BERT所采用。无标注数据集的获取相对来说较容易所以这种无监督预训练微调也逐渐流行。 GPT模型男主登场 2018年6月GPT诞生了。GPT (Generative Pre-Training Transformer) 是 OpenAI GPT 系列的开山之作。 从名字上可以看出GPT是基于Transformer的生成式预训练模型。它主要处理的是自然语言处理四大任务中的生成式任务。因为在做生成式任务时是看不到下文的只能给出上文来生成下文所以像ELMo这种双向训练的模式不适合GPT。 Transformer以其卓越的性能击败了LSTMGPT也以优异的表现战胜了ELMo。 BERT模型男二登场 2018年10月BERT模型横空出世BERT当年的成绩可谓是拳打ELMo脚踩GPT霸占了各大自然语言处理榜单的榜首。而且在后面几年BERT的追随者越来越多衍生出了一系列跟BERT相关的模型比如RoBERTa、SpanBERT、ALBERT、MacBERT等等大家都在BERT的基础上进行优化。BERT的影响力可见一斑。 关于BERT前亚马逊首席科学家李沐曾在2021年11月说过“如果对自然语言处理在过去三年里面最重要的文章做排序的话你把BERT排在第二的位置那么很难有另外一篇论文能够名正言顺地排在第一的位置。BERT及后续的一系列文章使得自然语言处理在过去三年里面有一个质的飞跃。” 那么BERT为什么这么厉害呢因为BERT结合了ELMo和GPT的优势。相比于ELMoBERT把特征提取器换成了更加厉害的Transformer当然还有其它的一些改变但是这里略过。相比于单向训练的GPT它采取了双向训练的方式使得其产生的向量更加贴合上下文的意思。 GPT VS BERT决战 和GPT相比BERT所使用的掩码语言模型任务Masked Language Model虽然让它失去了直接生成文本的能力但换来的是双向编码的能力这让模型拥有了更强的文本编码性能直接的体现则是下游任务效果的大幅提升。而GPT为了保留生成文本的能力只能采用单向编码。以当年的眼光来看BERT绝对是一个更加优秀的模型。因为既然BERT和GPT两者都是采用预训练微调的范式并且下游任务依然是分类、匹配、序列标注等等经典的NLP任务形式那么像BERT模型这种更注重特征编码的质量下游任务选一个合适的损失函数去配合任务做微调显然比GPT这种以文本生成的方式去迂回地完成这些任务更加直接。从BERT模型出来以后无监督训练下游任务微调的范式便奠定了它的霸主地位各类沿着BERT的思路琢磨如何获得更好的文本特征编码的方法大量涌现以至于GPT这个以生成式任务为目标的模型显得像一个异类。马后炮地说如果当时OpenAI顺应大势放弃生成式预训练这条路也许我们要等更长的时间才能见到ChatGPT这样的模型。 总结 在自然语言处理四大任务中GPT更擅长生成式任务而BERT更擅长其它三个。而在如今以对话任务为代表的生成式任务成为了主流且随着参数量的增大GPT系列的效果也越来越好这也是GPT后来能打败BERT的重要原因吧。 参考文章 自然语言处理技术的模型和任务 OpenAI是如何胜过谷歌的ChatGPT发展简史 语言大模型的进化轨迹 ChatGPT的前世今生OpenAI的技术“执拗”与“豪赌”
http://www.dnsts.com.cn/news/20611.html

相关文章:

  • 兰州网站制作联系方式完全删除wordpress
  • 搭建源码下载站网站广州互联网公司排行榜
  • 厦门 网站建设公司肇庆做网约车
  • 淘宝刷单网站制作宁波网站推广方式
  • 建设网站要求有哪些小程序开发模板
  • 深圳龙华汽车网站建设图片免费设计在线生成
  • 做亳州旅游网站的目的网站名字备案
  • 建设一个网站价格eclipse 网站开发过程
  • 个人适合建什么网站太极seo
  • 东莞市住建局官网网站如何开通企业邮箱
  • 网站开发游戏程序开发什么叫专业建设
  • 做网站接口多少钱vps主机访问网站
  • 做交通分析的网站谷歌云宝塔搭建WordPress
  • 高端网站建设公司名称直播视频网站建设
  • 彩票网站 在哪里做代理网页浏览
  • php招聘网站建设网站开发兼职网站
  • 网站下载免费做个软件需要多少钱
  • 哈尔滨营销网站建设公司qq怎么分享wordpress
  • 看汽车图片的网站可以做壁纸浙江软装公司
  • 网站建设的搜索功能百度推广优化是什么?
  • 怎么知道网站用什么软件做的建筑网站设计
  • qq查冻结网站怎么做科技之全球垄断
  • 定制一个高端网站免费网上开店
  • Dw做网站怎么加logo什么样的企业要做网站
  • 装饰公司怎样做网站磁力下载
  • 网站建设技术进行开发特种设备企业服务平台
  • 手机如何创造网站黄冈网站推广软件视频
  • 网站由什么组成网站建设代码
  • 建网站html5广告设计培训班有用吗
  • 阿里云 部署网站柳州建设网站