当前位置: 首页 > news >正文

高端建站模版帮别人做网站开价

高端建站模版,帮别人做网站开价,济宁最新通知今天,南京建站推广公司指令微调的局限性 指令微调对于训练llm的能力至关重要#xff0c;而模型的有用性在很大程度上取决于我们从小指令数据集中获得最大信息的能力。在本文中#xff0c;我们提出在微调正向传递的过程中#xff0c;在训练数据的嵌入向量中添加随机噪声#xff0c;论文实验显示这…指令微调的局限性 指令微调对于训练llm的能力至关重要而模型的有用性在很大程度上取决于我们从小指令数据集中获得最大信息的能力。在本文中我们提出在微调正向传递的过程中在训练数据的嵌入向量中添加随机噪声论文实验显示这个简单的技巧可以提高指令微调的效果通常有很大的优势而不需要额外的计算或数据开销。 NEFTune虽然简单但对下游的会话质量有很大的影响。当像LLaMA-2-7B这样的原始LLM被噪声嵌入所微调时AlpacaEval从29.8%提高到64.7%图1令人印象深刻地提高了约35个百分点。NEFTune可以实现在会话任务上惊人的性能跳跃同时在事实问题回答基线上保持性能这种技术似乎是LLM微调的免费午餐。 代码仓库https://github.com/neelsjain/NEFTune 论文链接https://arxiv.org/abs/2310.05914 NEFTune原理 指令模型是在由指令和响应对组成的数据集上进行训练的。 NEFTune的每一步都首先从数据集中采样一条指令并将其标记转换为嵌入向量。 然后NEFTune通过向嵌入中添加一个随机噪声向量来脱离标准训练。 噪声通过采样iid均匀分布产生每个样本都在范围内[−1,1]然后将整个噪声向量缩放为 α / L d α/\sqrt{Ld} α/Ld ​其中L为序列长度d为嵌入维数α为可调参数。 for step_count in range(start_step_count, args.max_steps):train_loss 0for _ in range(accumulation_steps):try:data next(epoch_iterator)except StopIteration:sampler.set_epoch(sampler.epoch 1)dataloader dataloader_fullepoch_iterator iter(dataloader)data next(epoch_iterator)if args.neftune_alpha is not None:if isinstance(model, torch.distributed.fsdp.fully_sharded_data_parallel.FullyShardedDataParallel):embed_device model._fsdp_wrapped_module.model.embed_tokens.weight.deviceembeds_init model._fsdp_wrapped_module.model.embed_tokens.forward(data[input_ids].to(embed_device))### add noise to embedsinput_mask data[attention_mask].to(embeds_init) # B x Linput_lengths torch.sum(input_mask, 1) # Bnoise_ torch.zeros_like(embeds_init).uniform_(-1,1)delta noise_ * input_mask.unsqueeze(2)dims input_lengths * embeds_init.size(-1)mag args.neftune_alpha / torch.sqrt(dims)delta (delta * mag.view(-1, 1, 1)).detach()data[inputs_embeds] delta embeds_initdata[input_ids] None### add noise to embedsout model(**data)(out.loss/accumulation_steps).backward()train_loss out.loss.item()/accumulation_stepsmodel.clip_grad_norm_(args.max_grad_norm实验结果 NEFTune提高了文本质量 从表1中我们可以看到7B尺度的所有数据集的增加平均增加了15.1%这表明NEFT训练显著提高了对话能力和回答质量。此外我们可以从图2中看到我们也看到了对旧模型的改进如LLaMA-1和OPT。有趣的是根据ChatGPT我们看到ShareGPT的改进不如其他数据集改进。然而这并没有反映在GPT-4的评估中。 从表2中我们可以看到在NEFTune加入70B参数模型后WinRate从75.03%上升到88.81%13.78% NEFTune可以改进Chat模型 从表2中我们可以看到在Evol-指令上进一步对LLaMA-2 Chat进行微调7B可以将LLaMA-2聊天的性能提高3%。这个模型已经被广泛地调整了使用了多轮的RLHF。然而在NEFTune中我们看到了相当大的额外性能增长10%尽管我们注意到这个检查点模型的一些功能可能会受到影响比如它避免输出有毒行为的能力。 基础能力的影响 一个潜在的担忧是NEFTune会牺牲其他能力为代价来提高会话能力但是比较微小。我们评估了OpenLLM排行榜任务使用LMEval利用MMLU、ARC、HellaSwag和真实QA。这些基准让我们得以评测模型知识、推理和真实性。图3显示了分数保持稳定NEFTune保留了模型功能。 NEFTune对QLORA有效 论文表明NEFTune还通过使用量化低等级适配器QLORA进行训练提高了在受限资源环境下的性能。对于30B论文将有效批处理规模增加一倍并将学习率提高一半。表3显示当使用QLORA进行训练时在所有研究的模型大小和数据集中空间性能都有所提高。然而性能的提高没有全面微调的明显。这可能是因为需要不同的超参数即微调周期的数量或者因为量化到4位。 一个定性的例子 在这里论文展示了一个来自LLaMA-2的含NEFT的羊驼的定性例子。我们从这个例子中可以看到羊驼产生的回复更短只给出了量子计算的一个非常基本的定义提到了量子位元、叠加、纠缠和增加的复杂计算。在Alpaca-NEFT回复中该模型提供了一个更流畅的答案对这些主题更清晰的解释了叠加和量子纠缠并提到了潜在的应用。我们认为这个例子代表了由NEFT引起的各种变化。 结论 NEFTune的成功指出了算法和正则化器在LLM训练中的重要性被忽视。与多年来一直在研究正则化和过拟合的计算机视觉社区不同LLM社区倾向于使用标准化的训练循环而不是泛化。在这种环境下LLM的研究人员已经专注于数据集和模型缩放作为前进的主要路径。考虑到NEFTune的一致性收益以及在小指令数据集上的过拟合的倾向似乎正则化值得在LLM设置中重新加入。 论文的研究有几个局限性 采用AlpacaEval作为llm教学遵循能力的中心指标它受到单一法官GPT-4偏见的影响。此外由于有限的计算资源无法验证在多个数据集的更大的70B变体上的成功不得不对大多数NEFTune运行依赖固定的超参数而不是扫描。最后尽管我们进行了实证研究但我们尚未确定NEFTune工作的原因。
http://www.dnsts.com.cn/news/248334.html

相关文章:

  • 网站带app建设外贸营销型网站建设公司
  • 做网站什么系统好wordpress 报表
  • 网站广告图怎么做企业网站开发信息
  • 推广业务网站建设刷百度关键词排名
  • 往届生做网站编辑成都设计研究院
  • 怎么可以做自己的网站网站建设战略
  • 网站维护一年多少钱潍坊高新区建设局门户网站
  • dw怎么做百度网站情趣官方网站怎么做代理
  • 营销型高端网站建设价格wordpress joomla drupal
  • 兼职开发网站开发酒店网站建设设计
  • 金华网站制作价格英文站用wordpress
  • 网站建设制作和wordpress类似的框架
  • 网站制作论坛wordpress用户系统插件
  • 网站图片要多少像素wordpress 主题乱了
  • php网站开发 pdf杭州网站制作工作室
  • 简单的网站源码深圳网站设计在哪济南兴田德润联系电话
  • 婚庆网站的设计意义炫酷html5网站模板
  • ps做的网站保存不了jpg做网站价格多少
  • 怒江网站制作网站做com合net的区别
  • 网站怎么产品做推广游戏网站建设的必要性
  • 网站用wordpress还是wpwordpress插件破解下载
  • 只做瓶子包装设计的创意网站廊坊网站制作报价
  • 怎么查看网站是asp还是phpwordpress自定义表
  • 贵阳网站建设天锐科技海珠网站建设
  • 石家庄论坛建站模板wordpress 新建文件
  • 网站标题是什么创建全国文明城市工作要求
  • 网站统计页面模板莱芜网站建设公众号建设
  • 东莞常平建设局网站彭州做网站的公司
  • 网站建设岗位能力免费企业网站开源系统
  • 辅助购卡网站怎么做网站大致内容