当前位置: 首页 > news >正文

网站开发用到的框架宁波三优互动网站建设公司怎么样

网站开发用到的框架,宁波三优互动网站建设公司怎么样,wordpress不知道用户名和密码,网站做乘法表引言 众所周知#xff0c;大语言模型(LLM)正在飞速发展#xff0c;各行业都有了自己的大模型。其中#xff0c;大模型微调技术在此过程中起到了非常关键的作用#xff0c;它提升了模型的生成效率和适应性#xff0c;使其能够在多样化的应用场景中发挥更大的价值。 那么大语言模型(LLM)正在飞速发展各行业都有了自己的大模型。其中大模型微调技术在此过程中起到了非常关键的作用它提升了模型的生成效率和适应性使其能够在多样化的应用场景中发挥更大的价值。 那么今天这篇文章就带大家深入了解大模型微调。其中主要包括什么是大模型微调、什么时候需要大模型微调、大模型微调方法总结、大模型微调最佳实践等。相关论文集获取回复LLM微调 LLM项目生命周期 在介绍大模型微调方法之前首先带大家了解一下大语言模型的项目生命周期它大致可以分为以下几个步骤如下图所示 「1、项目目标」首先明确项目目标。决定LLM是作为一个通用工具还是专注于特定任务如命名实体识别。明确的目标有助于节省时间和资源。 「2、模型选择」在从头开始训练模型和修改现有模型之间做出选择。在许多情况下适应性调整现有模型是高效的但在某些情况下可能需要通过新模型进行微调。 「3、模型性能与调优」准备模型后评估其性能。如果性能不佳尝试进行提示工程prompt engineering或进一步微调。确保模型输出与人类偏好保持一致。 「4、评估与迭代」定期使用指标和基准进行评估。在提示工程、微调和评估之间进行迭代直到达到期望的结果。 「5、模型部署」当模型表现符合预期时进行部署。在这个阶段优化计算效率和用户体验。 LLM微调 LLM微调是一个将预训练模型在较小、特定数据集上进一步训练的过程目的是精炼模型的能力提高其在特定任务或领域上的性能。「微调的目的是将通用模型转变为专用模型弥合通用预训练模型与特定应用需求之间的差距确保语言模型更贴近人类的期望」。 以OpenAI的GPT-3为例这是一个为广泛的自然语言处理NLP任务设计的先进LLM。假设一家医疗组织希望使用GPT-3来帮助医生从文本笔记生成患者报告。虽然GPT-3能理解和创建一般文本但它可能没有针对复杂的医学术语和特定医疗术语进行优化。 为了提高GPT-3在这一专业角色中的性能该组织会在包含医疗报告和患者笔记的数据集上对GPT-3进行微调。它可能会使用像SuperAnnotate的LLM定制编辑器这样的工具来构建具有所需界面的模型。通过这个过程模型变得更加熟悉医学术语、临床语言的微妙之处和典型的报告结构。微调后GPT-3能够协助医生生成准确且连贯的患者报告展示了它对特定任务的适应性。 尽管微调听起来对每个LLM都很有价值但请记住这并非没有代价。接下来将会详细讨论这些成本。 什么时候需要LLM微调 说起LLM总会涉及到上下文学习、零样本、单样本和少样本推理等话题。我们先快速了解一下它们主要的功能。 **上下文学习(In-context learning) **是一种通过在提示中加入特定任务示例来改进提示的方法为LLM提供了完成任务的蓝图。 「零样本(Zero-shot)、单样本(One-shot)和少样本(Few-shot)推理」 零样本推理是在提示中直接使用输入数据不添加额外示例。如果零样本推理未能达到预期结果可以使用单样本或少样本推理。这些策略涉及在提示中添加一个或多个已完成的示例帮助较小的LLM表现得更好。 「上下文学习的问题」 将以上这些技术直接应用于用户提示旨在优化模型输出使其更符合用户偏好。问题是它们并不总是有效尤其是对于较小的LLM。除此之外在提示中包含的任何示例都会占用宝贵的上下文窗口空间减少了包含其他有用信息的空间。 「当以上方式无法解决相关问题时这就需要LLM微调」。但它与预训练阶段使用大量非结构化文本数据不同微调是一个监督学习过程。这意味着你使用标记好的示例数据集来更新LLM的权重。这些标记好的示例通常是prompt-response使得模型能更好地完成特定任务。 有监督微调(SFT) 有监督微调意味着使用标记数据更新预先训练的语言模型来完成特定任务。所使用的数据已提前检查过。这与不检查数据的无监督方法不同。「通常语言模型的初始训练是无监督的但微调是有监督的」。接下来将为您介绍大模型微调具体流程如下图所示 「1、数据准备」 有许多开源数据集可以提供关于用户行为和偏好的洞察即使它们没有直接格式化为指令性数据。例如我们可以利用亚马逊产品评论的大量数据集将其转化为微调的指令提示数据集。提示模板库包含了许多针对不同任务和不同数据集的模板。 「2、执行微调」 将数据集分为训练、验证和测试部分。在微调过程中你会从训练数据集中选择提示并将它们传递给LLM然后模型会生成完成的文本。 具体来说当模型接触到针对目标任务的新标记数据集时它会计算其预测与实际标签之间的误差或差异。然后模型使用这个误差来调整其权重通常通过梯度下降等优化算法。权重调整的幅度和方向取决于梯度梯度指示了每个权重对误差的贡献程度。对误差贡献更大的权重会被更多地调整而贡献较小的权重则调整较少。 「3、迭代调整」 在数据集的多次迭代或称为周期中模型继续调整其权重逐渐找到一种配置以最小化特定任务的误差。目标是将之前学到的一般知识适应到新数据集中的细微差别和特定模式从而使模型在目标任务上更加专业化和有效。 「4、模型更新」 在这个过程中模型会根据标记数据进行更新。它根据其猜测与实际答案之间的差异进行改变。这有助于模型学习标记数据中的细节。通过这样做模型在微调的任务上的表现会得到提升。 举个简单的例子针对“天空为什么是蓝色”这个问题模型微调之前给出的答案为“因为大气层散射阳光的方式。”但是如果将该模型应用到科教平台这个答案就显得太简短了。收集相关数据进行模型微调之后给出的答案为“天空之所以呈现蓝色是因为一种叫做瑞利散射的现象。当阳光进入地球大气层时它包含了不同颜色的光每种颜色都有其特定的波长。蓝光波长较短被大气中的气体和颗粒物向各个方向散射。这种散射使得直射阳光看起来是白色的而天空本身则呈现出蓝色。”上面的这个回答很全面就非常适合科教平台了。 微调方法 LLM微调是一个有监督学习过程主要使用标注数据集来更新LLM的权重并使模型提高其特定任务的能力。接下来将为大家介绍一些值得注意的微调方法。 「1、指令微调」 一种提高模型在各种任务上表现的策略是指令微调。这涉及到使用示例来训练机器学习模型展示模型应该如何响应查询。用于微调大型语言模型的数据集必须符合你的指令目的。 例如如果你想提高模型的摘要能力你应该构建一个包含摘要指令和相关文本的数据集。在翻译任务中应包含“翻译这段文本”等指令。这些提示有助于让模型以新的专业方式“思考”并服务于特定任务。如下图所示 「2、全微调FFT」 即更新模型所有权重的过程被称为全微调。这个过程会产生一个具有更新权重的新模型版本。需要注意的是与预训练一样全微调需要足够的内存和计算预算来存储和处理训练过程中的所有梯度、优化器和其他更新组件。 「3、参数高效微调PEFT 」训练语言模型是一项计算密集型任务。对于LLM全微调内存不仅来存储模型还要存储训练过程中必要的参数。你的计算机可能能够处理模型权重但在训练过程中为优化状态、梯度和前向激活分配多余的内存可能会存在挑战。 简单的硬件无法处理这种挑战。这就是参数高效微调PEFT的关键所在。「虽然全LLM微调在监督学习过程中更新每个模型的权重但PEFT方法只更新一小部分参数」。这种迁移学习技术选择特定的模型组件并“冻结”其余参数。结果是与原始模型相比参数数量显著减少在某些情况下仅为原始权重的15-20%2021年微软提出的 LORA斯坦福提出的 Prefix-Tuning谷歌提出的 Prompt Tuning2022年清华提出的 P-tuning v2、2023年华盛顿大学提出的QLoRA、2024年英伟达提出DoRA等基本上都是属于该范畴。 这使得内存需求更加可管理。不仅如此「PEFT还解决了灾难性遗忘问题。由于它不触及原始LLM模型不会忘记之前学到的信息」。全微调会为每个训练任务产生一个新版本的模型每个新版本都与原始模型大小相同如果你在多个任务上进行微调这可能会造成昂贵的存储问题。 其它微调类型 「1、迁移学习」迁移学习是将已在通用、大规模数据集上训练过的模型应用于特定任务的数据集上。这种方法适用于数据不足或时间紧迫的情况优势在于训练后能获得更高的学习率和准确性。你可以使用像GPT-3和BERT这样在大量数据上预训练过的LLMs并根据你的用例进行定制。 「2、任务特定微调」任务特定微调是在特定任务或领域上使用为该领域设计的数据集对预训练模型进行微调。这种方法比迁移学习需要更多的数据和时间但可以在特定任务上获得更高的性能。 「3、灾难性遗忘」在全微调过程中模型在单一任务上的权重被修改可能导致在其他任务上的性能下降。例如模型在微调后可能在情感分析等NLP任务上表现更好但可能忘记如何执行其他任务。 「4、多任务学习」多任务微调是单任务微调的扩展训练数据集包含多个任务的输入和输出示例。这种方法可以同时提高模型在所有任务上的性能避免灾难性遗忘的问题。训练过程中通过多个周期的损失计算来更新模型权重最终得到一个擅长多种任务的微调模型。但多任务微调模型需要大量数据可能需要5万到10万个示例。 「5、顺序微调」顺序微调是将预训练模型按顺序适应多个相关任务。在初步迁移到一般领域后LLM可能针对更具体的子集进行微调例如从通用语言到医学语言再到儿科心脏病学。 注意其实还有其它的微调类型如自适应、行为和指令、强化微调这些涵盖了训练语言模型的一些重要特定情况。 检索增强RAG 说到模型微调这里就必须要提一下检索增强RAG了。RAG是微调的一种替代方法它结合了自然语言生成和信息检索。RAG确保语言模型通过外部最新知识或相关文档提供信息来源。「这种技术弥合了通用模型广泛知识与最新知识信息需求之间的差距」。因此RAG是事实随时间演变情况下的重要技术。 「RAG的优势」 RAG相较于微调的一个优势在于信息管理。传统的微调将数据嵌入到模型架构中实质上是“硬编码”知识这不容易修改。而RAG允许训练数据的持续更新并允许数据的移除或修订确保模型保持准确。 「RAG与微调的关系」 在语言模型的背景下RAG和微调通常被视为竞争方法。然而它们的结合使用可以显著提高性能。特别是微调可以应用于RAG系统以识别和改进其较弱的组件帮助它们在特定LLM任务上表现出色。 详细的RAG介绍可以参考这两篇文章 带你全面了解 RAG深入探讨其核心范式、关键技术及未来趋势 一文带你了解RAG(检索增强生成) | 概念理论介绍 代码实操含源码 微调最佳实践 「明确任务」在微调大型语言模型的过程中明确任务是基础步骤。它可以提供清晰的方向确保模型的强大能力被引导用于实现特定目标并为性能测量设定明确基准。 「选择合适的预训练模型」使用预训练模型进行微调至关重要因为它利用了从大量数据中获得的知识确保模型不会从零开始学习。这种方法既计算效率高又节省时间。此外预训练捕捉了通用语言理解使微调能够专注于领域特定的细节通常能在专业任务中带来更好的模型性能。 「设置超参数」超参数是模型训练过程中可调整的变量对找到适合任务的最优配置至关重要。学习率、批量大小、周期数、权重衰减等是关键的超参数需要调整以优化模型。 「评估模型性能」微调完成后通过测试集评估模型性能。这提供了对模型在未见数据上预期表现的无偏评估。如果模型仍有改进空间也应考虑迭代优化模型。
http://www.dnsts.com.cn/news/230861.html

相关文章:

  • php网站开发零基础教程腾讯网微信公众平台
  • 怎样建设自己的视频网站网站备案流程教程
  • 网站建设的项目总结交友征婚婚恋网站系统php+mysql.rar
  • 网站建设专业性的评估个人网站可以做电商吗
  • 网站服务建设公司免费个人网站建站申请一下
  • 怎么在百度知道做公司网站网站开发与服务器交互
  • 服务器2003系统如何建设网站做网站的科技公司
  • 青岛建设集团招聘信息网站网站 配色方案
  • 怎样上传图片到自己公司网站备案的网站名称写什么
  • 网站开发 总结报告域名没过期 网站打不开怎么办
  • 网站首页广告给自己公司做个网站
  • 制作网站报价网站运营与管理的目的是
  • 有做面食的网站吗微信云开发小程序
  • wordpress换域名后网站地址怎么办什么购物网站是正品而且便宜
  • 网站设计西安网站建设免费ppt模板下载大全 完整版无需会员
  • 网站文章展示是做怎么wordpress企业能用吗
  • 米问外贸论坛网站优化关键词是怎么做的
  • 福田网站制作报价清远seo
  • 网站设计标注图用什么做的西双版纳北京网站建设
  • 网站开发员工作职责wordpress购物插件
  • 河南网站开发建设银行内部学习网站
  • qq外国注册网站深圳市龙华区教育局官网
  • 在线营销型网站制作什么网站百度容易收录
  • 鹤壁商城网站建设商城服务是怎么赚钱
  • icp备案 网站负责人上海招聘网最新招聘信息网
  • 网页制作怎么建站点地产网站怎么做
  • 外贸网站搜索 引擎优化方法wordpress图片0x0
  • 网站建设用户画像例子安阳网站建设公司
  • 建设一个网站的方法网站大全免黄
  • 舞钢市城乡建设局网站国产erp软件前十名