当前位置: 首页 > news >正文

广东工程承包网站制作网站的公司(深圳)

广东工程承包网站,制作网站的公司(深圳),seo网站排名优化案例,网站设置不能手机访问Introduction sat#xff08;SwissArmyTransformer#xff09;是一个灵活而强大的库#xff0c;用于开发您自己的Transformer变体。 sat是以“瑞士军刀”命名的#xff0c;这意味着所有型号#xff08;例如BERT、GPT、T5、GLM、CogView、ViT…#xff09;共享相同的backo…Introduction satSwissArmyTransformer是一个灵活而强大的库用于开发您自己的Transformer变体。 sat是以“瑞士军刀”命名的这意味着所有型号例如BERT、GPT、T5、GLM、CogView、ViT…共享相同的backone代码并通过一些超轻量级的mixin满足多种用途。 sat由deepspeed ZeRO和模型并行性提供支持旨在为大模型100M\~20B参数的预训练和微调提供最佳实践。 从 SwissArmyTransformer 0.2.x 迁移到 0.3.x 导入时将包名称从 SwissArmyTransformer 更改为 sat例如从 sat 导入 get_args。删除脚本中的所有--sandwich-ln使用layernorm-ordersandwich。更改顺序 from_pretrained(args, name) from_pretrained(name, args)。我们可以直接使用 from sat.model import AutoModel;model, args AutoModel.from_pretrained(roberta-base) 以 仅模型模式 加载模型而不是先初始化 sat。 安装 pip install SwissArmyTransformer 特征 添加与模型无关的组件例如前缀调整只需一行 前缀调整或 P 调整通过在每个注意力层中添加可训练参数来改进微调。使用我们的库可以轻松地将其应用于 GLM 分类或任何其他模型。 class ClassificationModel(GLMModel): # can also be BertModel, RobertaModel, etc. def __init__(self, args, transformerNone, **kwargs):super().__init__(args, transformertransformer, **kwargs)self.add_mixin(classification_head, MLPHeadMixin(args.hidden_size, 2048, 1))# Arm an arbitrary model with Prefix-tuning with this line!self.add_mixin(prefix-tuning, PrefixTuningMixin(args.num_layers, args.hidden_size // args.num_attention_heads, args.num_attention_heads, args.prefix_len)) GPT 和其他自回归模型在训练和推理过程中的行为有所不同。在推理过程中文本是逐个令牌生成的我们需要缓存以前的状态以提高效率。使用我们的库您只需要考虑训练期间的行为教师强制并通过添加 mixin 将其转换为缓存的自回归模型 model, args AutoModel.from_pretrained(glm-10b-chinese, args) model.add_mixin(auto-regressive, CachedAutoregressiveMixin()) # Generate a sequence with beam search from sat.generation.autoregressive_sampling import filling_sequence from sat.generation.sampling_strategies import BeamSearchStrategy output, *mems filling_sequence(model, input_seq,batch_sizeargs.batch_size,strategyBeamSearchStrategy(args.batch_size)) 使用最少的代码构建基于 Transformer 的模型。我们提到了 GLM它与标准转换器称为 BaseModel仅在位置嵌入和训练损失上有所不同。我们在编码的时候只需要关注相关的部分就可以了。 扩展整个定义 class BlockPositionEmbeddingMixin(BaseMixin):# Here define parameters for the mixindef __init__(self, max_sequence_length, hidden_size, init_method_std0.02):super(BlockPositionEmbeddingMixin, self).__init__()self.max_sequence_length max_sequence_lengthself.hidden_size hidden_sizeself.block_position_embeddings torch.nn.Embedding(max_sequence_length, hidden_size)torch.nn.init.normal_(self.block_position_embeddings.weight, mean0.0, stdinit_method_std)# Here define the method for the mixindef position_embedding_forward(self, position_ids, **kwargs):position_ids, block_position_ids position_ids[:, 0], position_ids[:, 1]position_embeddings self.transformer.position_embeddings(position_ids)block_position_embeddings self.block_position_embeddings(block_position_ids)return position_embeddings block_position_embeddingsclass GLMModel(BaseModel):def __init__(self, args, transformerNone, parallel_outputTrue):super().__init__(args, transformertransformer, parallel_outputparallel_output)self.add_mixin(block_position_embedding, BlockPositionEmbeddingMixin(args.max_sequence_length, args.hidden_size)) # Add the mixin for GLM 全方位的培训支持。 sat 旨在提供预训练和微调的最佳实践您只需要完成forward_step 和 create_dataset_function但可以使用超参数来更改有用的训练配置。 通过指定 --num_nodes、--num_gpus 和一个简单的主机文件将训练扩展到多个 GPU 或节点。 DeepSpeed 和模型并行性。 ZeRO-2 和激活检查点的更好集成。 自动扩展和改组训练数据和内存映射。 成功支持CogView2和CogVideo的训练。 目前唯一支持在 GPU 上微调 T5-10B 的开源代码库。 快速浏览 在 sat 中使用 Bert用于推理的最典型的 python 文件如下 # File: inference_bert.py from sat import get_args, get_tokenizer, AutoModel # Parse args, initialize the environment. This is necessary. args get_args() # Automatically download and load model. Will also dump model-related hyperparameters to args. model, args AutoModel.from_pretrained(bert-base-uncased, args) # Get the BertTokenizer according to args.tokenizer_type (automatically set). tokenizer get_tokenizer(args) # Here to use bert as you want! # ... 然后我们可以通过以下方式运行代码 SAT_HOME/path/to/download python inference_bert.py --mode inference 所有官方支持的模型名称都在 urls.py 中。 # File: finetune_bert.py from sat import get_args, get_tokenizer, AutoModel from sat.model.mixins import MLPHeadMixindef create_dataset_function(path, args):# Here to load the dataset# ...assert isinstance(dataset, torch.utils.data.Dataset)return datasetdef forward_step(data_iterator, model, args, timers):inputs next(data_iterator) # from the dataset of create_dataset_function.loss, *others model(inputs)return loss# Parse args, initialize the environment. This is necessary. args get_args() model, args AutoModel.from_pretrained(bert-base-uncased, args) tokenizer get_tokenizer(args) # Here to use bert as you want! model.del_mixin(bert-final) model.add_mixin(classification_head, MLPHeadMixin(args.hidden_size, 2048, 1)) # ONE LINE to train! # args already includes hyperparams such as lr, train-iters, zero-stage ... training_main(args, model_clsmodel, forward_step_functionforward_step, # user definecreate_dataset_functioncreate_dataset_function # user define ) 然后我们可以通过以下方式运行代码 deepspeed --include localhost:0,1 finetune_bert.py \--experiment-name ftbert \--mode finetune --train-iters 1000 --save /path/to/save \--train-data /path/to/train --valid-data /path/to/valid \--lr 0.00002 --batch-size 8 --zero-stage 1 --fp16 这里我们在 GPU 0,1 上使用数据并行。我们还可以通过 --hostfile/path/to/hostfile 在许多互连的机器上启动训练。请参阅教程了解更多详细信息。 要编写自己的模型您只需要考虑与标准 Transformer 的差异。例如如果你有一个改进注意力操作的想法 from sat.model import BaseMixin class MyAttention(BaseMixin):def __init__(self, hidden_size):super(MyAttention, self).__init__()# MyAttention may needs some new params, e.g. a learnable alpha.self.learnable_alpha torch.nn.Parameter(torch.ones(hidden_size))# This is a hook function, the name attention_fn is special.def attention_fn(q, k, v, mask, dropoutNone, **kwargs):# Code for my attention.# ...return attention_results 这里的attention_fn是一个钩子函数用新函数替换默认动作。所有可用的钩子都在transformer_defaults.py中。现在我们可以使用 add_mixin 将更改应用到所有转换器例如 BERT、Vit 和 CogView。请参阅教程了解更多详细信息。 教程 How to use pretrained models collected in sat?Why and how to train models in sat? Citation Currently we dont have a paper, so you dont need to formally cite us!~ If this project helps your research or engineering, use \footnote{https://github.com/THUDM/SwissArmyTransformer} to mention us and recommend SwissArmyTransformer to others. The tutorial for contributing sat is on the way! The project is based on (a user of) DeepSpeed, Megatron-LM and Huggingface transformers. Thanks for their awesome work. 训练指导 The Training API 我们提供了一个简单但功能强大的训练APItraining_main()它不仅限于我们的Transformer模型还适用于任何torch.nn.Module。 from sat import get_args, training_main from sat.model import AutoModel, BaseModel args get_args() # to pretrain from scratch, give a class obj model BaseModel # to finetuned from a given model, give a torch.nn.Module model AutoModel.from_pretrained(bert-base-uncased, args)training_main(args, model_clsmodel,forward_step_functionforward_step,create_dataset_functiondataset_func,handle_metrics_functionNone,init_functionNone ) 以上是使用 sat 的标准训练计划的不完整示例。 Training_main 接受 5 个参数必需model_cls继承 torch.nn.Module 的类型对象或我们训练的 torch.nn.Module 对象。 必需forward_step_function一个自定义函数输入 data_iterator、model、args、timers、returns loss、{#39;metric0#39;: m0, ...}。 必填create_dataset_function返回一个torch.utils.data.Dataset用于加载。我们的库会自动将数据分配给多个worker并将数据迭代器交给forward_step_function。 可选handle_metrics_function在评估过程中处理特殊指标。 可选init_function在训练之前更改模型的钩子对于继续训练很有用。 有关完整示例请参阅 Finetune BERT 示例。
http://www.dnsts.com.cn/news/197050.html

相关文章:

  • 服务器主机 网站国际军事新闻最新消息头条
  • 重庆网站建设模板服务电子商务网站系统规划
  • 宁波网站制作设计做网站需要用到哪些开发软件
  • 做网站回答南京网站设计是什么
  • 重庆长寿网站设计公司天津网站建设座机号
  • 网站做下载文件模块运营策划怎么做
  • 滨州做网站多少钱年底 网站备案
  • 做玩网站怎么上传图片六安网红
  • 如何制作一个简易网站网站做贷款许可证
  • 旅游网站建设前的市场分析wordpress分类目录 404
  • 深圳网站建设公司好洪梅网站建设
  • 网站开发多少钱一天是wordpress大全
  • 做网站用什么后台网站建设及服务合同
  • 建筑网站大全玻璃北京优化网站推广
  • 建一个网络商城的网站素材搜集预算是什么做空eth网站
  • 做网站电销国外开源 企业网站
  • 带导航栏的网站广州有什么好玩的景点
  • 生态建筑建设公司网站注册公司流程流程图
  • 网站建设类行业资讯怎么建设一个国外的网站
  • 如何更改网站标签logo上海在线
  • 男直接做的视频网站网店seo名词解释
  • 用小程序做视频网站西安专业做网站
  • 怎么做响应式网站合肥建行网站
  • 网站备案系统源码网站联系我们的地图怎么做
  • 网站推广怎么写icp对网站内容
  • 哪里有做网站app的监控网站开发
  • 网站建设清单表格做网站的公司风险大不大
  • 怎么学网站建设淮安住房和城乡建设厅网站
  • 城市旅游网站开发aardio 网站开发
  • 网站建设分为哪些内容ideas wordpress theme 2.0