当前位置: 首页 > news >正文

青岛网站设计公司哪家好公司建设网站流程图

青岛网站设计公司哪家好,公司建设网站流程图,工商注册登记系统官网,做一个小程序需要多少钱?近半年来#xff0c;通过对多款主流大语言模型进行了调研#xff0c;我们针对其训练方法和模型特点进行逐一分析#xff0c;方便大家更加深入了解和使用大模型。本文将重点分享ChatGLM2-6B基于UCloud云平台的UK8S实践应用。 01各模型结构及特点 自从2017年6月谷歌推出Transf…近半年来通过对多款主流大语言模型进行了调研我们针对其训练方法和模型特点进行逐一分析方便大家更加深入了解和使用大模型。本文将重点分享ChatGLM2-6B基于UCloud云平台的UK8S实践应用。 nbsp; 01各模型结构及特点 自从2017年6月谷歌推出Transformer以来它已经成为自然语言处理领域的重要里程碑和核心模型之一。从2018年至今推出的主流模型GPT、BERT、T5、ChatGLM、LLaMA系列模型都是以Transformer为基本架构实现的。 BERT 使用了Transformer中Encoder编码器。 特点 1. 双向注意力也就是说每个时刻的Attention计算都能够得到全部时刻的输入可同时感知上下文。 2. 适合文本理解但不适合生成任务。 GPT 使用Transformer中Decoder解码器。 特点 1. 单向注意力无法利用下文信息。 2. 适合文本生成领域。 T5 采用Transformer的Encoder-Decoder结构。 改动 1. 移除了层归一化的偏置项。 2. 将层归一化放置在残差路径之外。 3. 使用了相对位置编码且是加在Encoder中第一个自注意力的Query和Key乘积之后。 特点 1. 编码器的注意力是双向的解码器的注意力是单向的所以可以同时胜任理解和生成任务。 2. 参数量大。 LLaMA 使用Transformer中Decoder解码器。 改动 1. 预归一化。对每个Transformer子层的输入进行规范化而不是对输出进行规范化。 2. SwiGLU激活函数。采用SwiGLU激活函数替换了ReLU。 3. 旋转嵌入。删除了绝对位置嵌入而在网络的每一层增加了旋转位置嵌入。 特点 1. LLaMA-13B比GPT-3参数量为175B小10倍但在大多数基准测试中都超过了GPT-3。 2. 没有将中文语料加入预训练LLaMA在中文上的效果很弱。 ChatGLM ChatGLM是基于GLM-130B训练得到的对话机器人。GLM使用了一个单独的Transformer。 改动 1. 自定义Mask矩阵。 2. 重新排列了层归一化和残差连接的顺序。 3. 对于输出的预测标记使用了一个单独的线性层。 4. 将ReLU激活函数替换为GeLU函数。 5. 二维位置编码。 特点 通过Mask矩阵GLM把BERT、GPT、T5这3个模型优点结合起来 1. 当整个的文本被Mask时空白填充任务等价于无条件语言生成任务。 2.nbsp;当被掩码的片段长度为1时空白填充任务等价于掩码语言建模任务。 3. 当文本1和文本2拼接在一起时再将文本2掩码掉空白填充任务等价于有条件语言生成任务。 随机从一个参数为3的泊松分布中采样片段的长度直到至少遮盖了原始Token的15。然后在文本中随机排布填空片段的位置如Part B所示。另外Position 1表示的是Mask后的文本中的位置Position 2表示的是在Mask内部的相对位置。 02训练方法及训练目标 各大语言模型的训练基本都是基于大规模无标签语料来训练初始的语言模型再利用下游任务的有标签训练语料进行微调训练。 BERT BERT使用了Transformer的Encoder作为Block既参考了ELMo模型的双向编码思想参考了GPT用Transformer作为特征提取器的方法又参考了 Word2Vec所使用的CBOW方法。 BERT的训练方法 分为两个阶段分别是多任务训练目标的预训练阶段和基于有标签语料的微调阶段。 BERT的预训练目标 •nbsp;掩码语言模型Masked Language ModelMLM目的是提高模型的语义理解能力即对文本进行随机掩码然后预测被掩码的词。 •nbsp;下句预测Next Sentence PredictionNSP目的是训练句子之间的理解能力即预测输入语句对A,B中句子B是否为句子A的下一句。 T5 T5模型采用Transformer的Encoder和Decoder把各种NLP任务都视为Text-to-Text任务。 T5的训练方法 同样采用了预训练和微调的训练策略。 T5模型采用了两个阶段的训练Encoder-Decoder Pretraining编码器-解码器预训练和 Denoising Autoencoder Pretraining去噪自编码器预训练。 在Encoder-Decoder Pretraining阶段T5模型通过将输入序列部分遮盖用特殊的占位符替换然后让模型预测被遮盖掉的词或片段。这可以帮助模型学习到上下文理解和生成的能力。在Denoising Autoencoder Pretraining阶段T5模型通过将输入序列部分加入噪声或随机置换然后将模型训练为还原原始输入序列。这可以增强模型对输入的鲁棒性和理解能力。 T5的预训练目标 类似BERT的MLM。T5中可Mask连续多个Token让模型预测出被Mask掉的Token到底有几个并且是什么。 GPT GPT采用两阶段式训练方法 第一阶段在没有标注的数据集中进行预训练得到预训练语言模型。 第二阶段在有标注的下游任务上进行微调。有监督任务上进行了实验包括自然语言推理、问答、语义相似度和文本分类等。 除了常规的有监督微调引入RLHF人类反馈强化学习之后还需要 收集数据并训练奖励模型。使用强化学习对语言模型进行微调。 GPT的训练目标 是从左到右的文本生成无条件生成。 GPT2 在无Finetune的Zero-Shot场景下进行也就是“无监督多任务”。在原始Input上加入任务相关Prompt无需微调也可做任务。 nbsp; GPT3 2020年5月模型参数规模增加到1750亿大力出奇迹预训练后不需要微调。提出了In-Context Learning。2020年9月GPT3引入RLHF。2022年3月的OpenAI发布InstructGPT也就是GPT3Instruction TuningRLHFPPO。 GPT4 2023年3月GPT4支持图片形式输入。 LLaMA 训练一系列语言模型使用的更多的Token进行训练在不同的推理预算下达到最佳的性能。 模型参数包括从7B到65B等多个版本 LLaMA的训练方法 无监督预训练。有监督微调训练奖励模型根据人类反馈进行强化学习。 LLaMA的任务 零样本和少样本任务并在总共20个基准测试上报告了结果 零样本。提供任务的文本描述和一个测试示例。模型要么通过开放式生成提供答案要么对提出的答案进行排名。少样本。提供任务的几个示例1到64个和一个测试示例。模型将这个文本作为输入并生成答案或对不同选项进行排名。 LlaMA2相比于LLaMA 1. 支持更长的上下文是LLaMA的2倍。 2. 提出Grouped-Query Attention加速推理。 3. 提出Ghost Attention让多回合对话前后一致。 ChatGLM 对话机器人ChatGLM是基于GLM-130B模型训练得到的。结合模型量化技术得到可在普通显卡部署的ChatGLM-6B。 GLM的预训练目标 文档级别的目标从原始本文长度的50%到100%之间均匀分布的范围中进行抽样得到片段。该目标旨在生成较长的文本。句子级别的目标限制被Mask的片段必须是完整的句子。抽样多个片段句子来覆盖原始Tokens的15。该目标旨在用于Seq2seq任务其中预测通常是完整的句子或段落。 nbsp;ChatGLM的训练方法 无标签预训练有监督微调、反馈自助、人类反馈强化学习等技术。 nbsp;大语言模型小结 大语言模型的训练方式基本是海量无标签数据预训练下游再用有标签数据微调。从GPT3开始ChatGLM、LLaMA系列模型也都引入了基于人类反馈的强化学习让模型与人类偏好对齐这是一个很酷的想法。 03ChatGLM2-6B在K8S上的实践 获取项目代码和模型文件相关链接如下 https://github.com/THUDM/ChatGLM2-6B/tree/main。 基于UCloud云平台的K8S实践 可参照UCloud文档中心https://docs.ucloud.cn登录UCloud控制台https://console.ucloud.cn/uhost/uhost/create创建UFS、创建UK8S。 创建文件存储UFS 先创建文件系统将模型文件存储到UFS中之后记得添加挂载点。 这是可选项UFS优点是可多节点挂载。如果不使用UFS模型文件可放在其他位置需要在后续的ufspod.yml文件中做相应修改。 创建容器云UK8S 首选创建集群 可自由选择Node节点到配置 创建好了之后界面如下 接下来可点击右侧的“详情”按钮在跳转到的新页面左侧点击“外网凭证”对应行的“查看”可以看到如下图所示 根据提示保存文本内容到/.kube/config文件中。 在UK8S中的Node节点 安装Docker安装英伟达GPU驱动安装NVIDIA Container Toolkit 在UK8S中使用UFS 根据在UK8S中使用UFShttps://docs.ucloud.cn/uk8s/volume/ufs?id在uk8s中使用ufs的文档说明创建PV和PVC。 nbsp;登录UK8S的Node节点 首先参照文档安装及配置Kubectlhttps://docs.ucloud.cn/uk8s/manageviakubectl/connectviakubectl?id安装及配置kubectl。 1.nbsp;先放上配置文件Ufspod.yml apiVersion: apps/v1kind: Deploymentmetadata:nbsp;nbsp;name: myfrontendspec:nbsp;nbsp;selector:nbsp;nbsp;nbsp;nbsp;matchLabels:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;app: myfrontendnbsp;nbsp;replicas: 1nbsp;nbsp;template:nbsp;nbsp;nbsp;nbsp;metadata:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;labels:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;app: myfrontendnbsp;nbsp;nbsp;nbsp;spec:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;containers:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;- name: myfrontendnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;image: uhub.service.ucloud.cn/yaoxl/chatglm2-6b:y1nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;volumeMounts:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;- mountPath: /app/modelsnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;name: mypdnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;ports:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;- containerPort: 7861nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;volumes:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;- name: mypdnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;persistentVolumeClaim:nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;claimName: ufsclaim---apiVersion: v1kind: Servicemetadata:nbsp;nbsp;name: myufsservicespec:nbsp;nbsp;selector:nbsp;nbsp;nbsp;nbsp;app: myfrontendnbsp;nbsp;type: NodePortnbsp;nbsp;ports:nbsp;nbsp;nbsp;nbsp;- name: httpnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;protocol: TCPnbsp;nbsp;nbsp;nbsp;nbsp;nbsp;port: 7861nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;targetPort: 7861nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nodePort: 30619 2.nbsp;执行配置文件Ufspod.yml kubectl apply -f ufspod.yml 3.nbsp;进入Pod 首先通过命令得到Pod Name kubectl get po#NAME nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;READY nbsp;nbsp;STATUS nbsp;nbsp;nbsp;RESTARTS nbsp;nbsp;AGE#myfrontend-5488576cb-b2wqw nbsp;nbsp;1/1 nbsp;nbsp;nbsp;nbsp;Running nbsp;nbsp;0 nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;nbsp;83m 在Pod内部启动一个Bash Shell kubectl exec -it pod_name -- /bin/bash 4.nbsp;打开网页版的Demo 执行 python3 web_demo.py 得到 UCloud将持续关注大语言模型的发展并在后续发布有关LlaMA2实践、LangChain构建云上推理环境等方面的文章。欢迎大家保持关注并与我们进行更多交流探讨
http://www.dnsts.com.cn/news/147637.html

相关文章:

  • 做视频直播类型的网站带分销的小程序
  • wordpress 谷歌广告插件免费网站建设seo
  • 厦门网站建设 九来微信微官网开发
  • 网站群建设 公司企查查企业信息查询在线
  • 不用源码做网站搜索引擎入口大全
  • 重庆永川微网站建设大发快三网站自做
  • 网站备案网站要有内容吗成都华阳有没有做网站的
  • 网站怎么做舆情监测flash个人网站动画
  • 枣阳网站建设建材网站开发
  • 从零开始做一个网站需要多少钱wordpress 优化''
  • 怎么查询菠菜网站做没作弊成都网站建设网站建设
  • 有网站地图的网站工作证模板word
  • 做网站收费吗seo整站优化解决方案
  • 民族服装的网站建设小程序店铺怎么弄
  • 医院网站建设价格哈尔滨网站公司哪家好
  • 中山 做网站海外网站推广公司
  • 新浪做网站wordpress学院主题
  • 缙云建设局网站建筑工程网校排行榜
  • 上传文档到网站上怎么做北京建筑公司有哪些
  • 商务网站开发流程有三个阶段重庆制作网站首页
  • 国内高端品牌网站建设wordpress好还是dz好
  • 公司网站建设项目的成本计划广东省建设行业数据开放平台
  • 网站建设目标规划wordpress登录vip
  • 建设工程查询网站谷歌seo专员
  • wap建站教程东营新闻联播在线直播
  • 五金加工东莞网站建设集美网站建设
  • 网站排名优化软件有哪些外包公司的优势和劣势
  • 西安做网站电话国际大型门户网站
  • 深圳门户网站建设方案宣讲家网站 家风建设
  • 狼们求个没封的免费网站网站开发软件英文版