当前位置: 首页 > news >正文

泰国房产网站大全建设安全备案网站

泰国房产网站大全,建设安全备案网站,用老域名做新网站 权重怎么传递,建筑工地正规免费找活平台本文将介绍在Lit-GPT上使用LoRA微调LLaMA模型#xff0c;并介绍如何自定义数据集进行微调其他开源LLM 监督指令微调#xff08;Supervised Instruction Finetuning#xff09; 什么是监督指令微调#xff1f;为什么关注它#xff1f; 目前大部分LLM都是decoder-only并介绍如何自定义数据集进行微调其他开源LLM 监督指令微调Supervised Instruction Finetuning 什么是监督指令微调为什么关注它 目前大部分LLM都是decoder-only通常是续写任务有时候未必符合用户的需求SFT是通过构造指令输入和期待的输出数据微调LLM让LLM根据输入的指令输出期待的内容这样微调好的LLM会输出更符合用户需求或者特点任务 SFT数据格式一般如下所示 Instruction text Input text (optional) Output text Input是可选的下面是SFT数据格式的示例 SFT的微调和Pre-training是一样的也是根据上文预测下一个token如下图所示 SFT数据集如何生成 SFT数据集构建通常有两种方法人工标注和使用LLM比如GPT-4来生成的人工标注对于构建垂直领域比较合适可以减少有偏数据但是成本略高使用LLM生成可以在短时间内生成大量数据。 SFT数据集构建以及SFT微调Pipeline如下图所示 LLM生成SFT数据方法总结 Self-Instruct Self-Instructhttps://arxiv.org/abs/2212.10560一个通过预训练语言模型自己引导自己来提高的指令遵循能力的框架。 Self-Instruct有如下四个阶段 步骤1作者从 175个种子任务中随机抽取 8 条自然语言指令作为示例并提示InstructGPT生成更多的任务指令。 步骤2作者确定步骤1中生成的指令是否是一个分类任务。如果是他们要求 InstructGPT 根据给定的指令为输出生成所有可能的选项并随机选择特定的输出类别提示 InstructGPT 生成相应的“输入”内容。对于不属于分类任务的指令应该有无数的“输出”选项。作者提出了“输入优先”策略首先提示 InstructGPT根据给定的“指令”生成“输入”然后根据“指令”和生成的“输入”生成“输出”。 步骤3基于第 2 步的结果作者使用 InstructGPT 生成相应指令任务的“输入”和“输出”采用“输出优先”或“输入优先”的策略。 步骤4作者对生成的指令任务进行了后处理(例如过滤类似指令去除输入输出的重复数据)最终得到52K条英文指令 完整的Self-Instruct流程如下图所示 Alpaca datasethttps://github.com/gururise/AlpacaDataCleaned的52K数据就是采用该方法生成的。 Backtranslation 回译在传统的机器学习中是一种数据增强方法比如从中文翻译成英文再从英文翻译会中文这样生成的中文与原来的中文在语义上是一致的但是文本不同然而SFT数据生成的回译https://arxiv.org/abs/2308.06259则是通过输出来生成指令具体步骤如下图所示 LIMA LIMA来自论文《The LIMA: Less Is More for Alignment》LIMA是在LLaMA V1 65B模型上使用1k高质量数据进行微调获得的性能如下 在Lit-GPT库上微调LLM Lit-GPT支持的模型如下表所示 Model and usageReferenceMeta AI Llama 2Touvron et al. 2023Stability AI FreeWilly2Stability AI 2023Stability AI StableCodeStability AI 2023TII UAE FalconTII 2023OpenLM Research OpenLLaMAGeng Liu 2023LMSYS VicunaLi et al. 2023LMSYS LongChatLongChat Team 2023Together RedPajama-INCITETogether 2023EleutherAI PythiaBiderman et al. 2023StabilityAI StableLMStability AI 2023PlatypusLee, Hunter, and Ruiz 2023NousResearch Nous-HermesOrg pageMeta AI Code LlamaRozière et al. 2023 下面以LLaMA2-7B为例说明在 上进行微调的步骤首先需要clone  Lit-GPT仓库微调步骤如下 1下载、准备模型 export HF_TOKENyour_tokenpython scripts/download.py \ --repo_id meta-llama/Llama-2-7b-hf​​​​​ python scripts/convert_hf_checkpoint.py \ --checkpoint_dir meta-llama/Llama-2-7b-hf 2准备微调数据​​​​​​​ python scripts/prepare_lima.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf 3使用LoRA进行微调​​​​​​​ python finetune/lora.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf \ --data_dir data/lima Tips 官方建议数据的tokens控制在2048之内可以减少GPU显存消耗对应的代码也需要增加参数--max_seq_length 2048​​​​​​​ python scripts/prepare_lima.py \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf \ --max_seq_length 2048 或者也可以修改 finetune/lora.py文件中的参数change override_max_seq_length None调整为 override_max_seq_length 2048  对于LIMA模型的1k数据进行微调需要调整max_iters1000 Lit-GPT上支持的数据集 Lit-GPT定义客户化数据集 加载自定义数据集大致需要两步首先需要准备三列CSV数据示例如下 第一步执行如下脚本​​​​​​​ python scripts/prepare_csv.py \ --csv_dir MyDataset.csv \ --checkpoint_dir checkpoints/meta-llama/Llama-2-7b-hf 第二步与上述LIMA类似是执行scripts/prepare_dataset.py脚本 参考文献 [1] https://lightning.ai/pages/community/tutorial/optimizing-llms-from-a-dataset-perspective/
http://www.dnsts.com.cn/news/48814.html

相关文章:

  • 网站在建设中模板ps案例教程网站
  • 做电影资源网站违法吗黄石网站建设流程
  • 青少年心理建设网站电子商务网站规划与建设步骤
  • 怀柔网站建设海外网站域名注册
  • 网站做宣传的免费渠道有那种网页设计培训哪好
  • 平面电商网站建设完整开发网站需要什么
  • 做seo推广做网站有用吗门户网站建设依据
  • 网站建设建议书wordpress会员提成插件
  • 服装网站开发方案psd网站
  • 陕西省关于网站信息内容建设wordpress文章类型查询
  • 手机网站建设的现状湖南常德石门县
  • 用什么做网站原型图哪些网站是响应式网站
  • 什么是网络营销工程师苏州谷歌seo
  • 商城网站平台怎么做网设
  • 网站开发如何收费随州网站推广哪家专业
  • 卖网站模板赚钱吗表单插件wordpress
  • 柳州网站网站建设防止网站扫描
  • 单位不能建设网站wordpress添加多语言
  • 该模板尚未授权此网站wordpress.conf
  • 宁波网站建设制作公司哪家好wordpress文章相册模式
  • 网站前端工资企业网站如何进行定位
  • 1688开山网一起做网站wordpress presscore
  • 海南网站优化公司公众号发布文章教程
  • 网站建设七大步骤站长工具在线查询
  • 公司建网站多少钱合适免费申请二级域名
  • 深圳精美网站设计怎么注册商标品牌
  • 无锡市网站搭建邓州网站制作
  • 网站好看的图标代码百度公司做网站
  • 哪些网站是百度新闻源广州网站建设兼职
  • 做彩票网站是违法的吗怎么做网站自动响应