当前位置: 首页 > news >正文

动易的网站系统企业邮箱格式模板

动易的网站系统,企业邮箱格式模板,iis默认网站在哪里,中国互联网上市公司排名一、前言 自从ChatGPT问世以来#xff0c;全球各地的企业都迫切希望利用大型语言模型#xff08;LLMs#xff09;来提升他们的产品和运营。虽然LLMs具有巨大的潜力#xff0c;但存在一个问题#xff1a;即使是最强大的预训练LLM也可能无法直接满足你的特定需求。其原因如…一、前言 自从ChatGPT问世以来全球各地的企业都迫切希望利用大型语言模型LLMs来提升他们的产品和运营。虽然LLMs具有巨大的潜力但存在一个问题即使是最强大的预训练LLM也可能无法直接满足你的特定需求。其原因如下 定制输出你可能需要一个具有独特结构或风格的应用程序例如可以评分并提供简洁反馈点评文章质量的工具。 缺少上下文预训练LLM可能对于你应用程序中重要文件一无所知例如针对某系列产品进行技术咨询的聊天机器人。如果这些产品的使用手册并未包含在LLM的训练数据中那么它的准确性可能会受到影响。 专业词汇某些领域、行业甚至特定企业通常具有独特的术语、概念和结构而这些在一般预训练数据中并未得到充分体现。因此预训练的LLM可能会在对财务数据、医学研究论文甚至公司会议记录进行总结或回答问题时面临挑战。 那么你如何使LLM符合你的独特要求呢你可能需要进行调整或“调优”。目前有四种主要的调优方法 全面微调使用任务特定数据调整LLM的所有参数。 参数高效精细调整PEFT修改选定参数以实现更高效的适应。 提示工程改进模型输入以指导其输出。 RAG检索增强生成将提示工程与数据库查询结合以获得丰富的上下文答案。 这些方法在所需专业知识、成本和适用性方面各有不同。本文将探讨每种方法揭示它们的细微差异、成本和最佳使用案例。通过深入了解哪种方法最适合你的项目你将能够更好地优化LLM。 二、全面微调 微调是我们用来进一步训练已经预训练过的 LLM 的过程在一个较小、任务特定、带标签的数据集上进行。通过这种方式我们调整一些模型参数以优化其对特定任务或一组任务的性能。在全面微调中所有模型参数都被更新使其类似于预训练——只不过它是在一个带标签且规模较小的数据集上进行。 2.1、全面微调的六个步骤 举例来说假设我们想要构建一个工具用于生成生物技术研究论文的摘要。对于全面微调你需要经历以下步骤 2.1.1、创建数据集 从生物技术的目标领域收集一套研究论文。确保每篇论文都附带其原始摘要。 将这个集合分割成训练、验证和测试集。 2.1.2、预处理数据 将每篇研究论文转换成模型可接受的格式。 将每篇处理过的论文内容与其相应的摘要配对形成监督训练的输入-输出对。 2.1.3、配置模型 加载预训练的 LLM例如预训练版本的 GPT-4。 根据初步测试或领域知识决定微调的超参数如学习率、批量大小和迭代次数。 2.1.4、训练模型 将处理过的内容作为输入提供给 LLM并训练它生成相应的摘要作为输出。 监控模型在验证集上的性能以防止过拟合并决定何时停止训练或进行调整。 2.1.5、评估性能 一旦微调完成评估模型在它之前未见过的测试集上的性能。 度量可能包括 BLEU 分数、ROUGE 分数或者人类评估来衡量生成的摘要与原始摘要相比的质量和相关性。 2.1.6、迭代直到性能满意 根据评估结果迭代上述步骤可能需要收集更多数据、调整超参数或尝试不同的模型配置以提高性能。 2.2、全面微调的优点 2.2.1、比从头开始训练需要更少的数据 即使是相对较小的任务特定数据集全面微调也可以有效。预训练的 LLM 已经理解了通用语言结构。微调过程主要关注调整模型知识以适应新数据的特性。一个预训练的 LLM最初在大约 1 万亿个标记上进行训练并展示出稳健的通用性能可以使用只有几百个例子相当于几十万个标记进行高效微调。 2.2.2、提高精度 通过在任务特定数据集上进行微调LLM 可以把握该特定领域的细微差别。这在具有专业术语、概念或结构的领域尤其重要如法律文件、医学文本或财务报告。因此在面对特定领域或任务中未见过的例子时模型可能会做出更高精度和相关性的预测或生成输出。 2.2.3、增加鲁棒性 微调使我们能够向模型展示更多例子尤其是在领域特定数据集中边缘情况或不常见情况。这使得模型更好地处理各种输入而不产生错误输出。 2.3、全面微调的缺点 2.3.1、高计算成本 全面微调涉及更新大型模型的所有参数。对于拥有数十亿或数百亿参数的大规模 LLM 来说训练需要大量计算能力。即使微调数据集相对较小标记数量也可能非常大并且计算成本高昂。 2.3.2、大量内存需求 使用大型模型可能需要专门硬件如高端 GPU 或 TPU具有显著内存容量。这对许多企业来说通常是不切实际的。 2.3.3、时间和专业知识密集型 当模型非常大时你通常需要将计算分布在多个 GPU 和节点上。这需要适当的专业知识。根据模型和数据集的大小微调可能需要几小时、几天甚至几周。 三、参数高效微调 参数高效微调PEFT[1]使用技术进一步调整预训练模型只更新其总参数的一小部分。在大量数据上预训练的大型语言模型已经学习了广泛的语言结构和知识。简而言之它已经拥有了许多任务所需的大部分信息。考虑到范围较小通常没有必要也不高效地调整整个模型。微调过程是在一小部分参数上进行的。 PEFT 方法在确定模型的哪些组件是可训练的方面各有不同。一些技术优先训练原始模型参数的选定部分。其他方法集成并训练较小的附加组件如适配器层而不修改原始结构。 四、LoRA LoRA[2]即大型语言模型的低秩适应于 2023 年初引入。此后它已经成为最常用的 PEFT 方法帮助公司和研究人员降低他们的微调成本。使用重参数化这种技术通过执行低秩近似来缩小可训练参数的集合。 例如如果我们有一个 100,000 x 100,000 的权重矩阵那么对于全面微调我们需要更新 10,000,000,000 个参数。使用 LoRA我们可以通过使用包含微调期间更新的选定参数的低秩矩阵来捕获所有或大部分关键信息。 为了得到这个低秩矩阵我们可以将原始权重矩阵重新参数化为两个矩阵 A 和 B每个都是低秩 r。我们的新低秩矩阵然后被认为是 A 和 B 的乘积。如果 r 2我们最终更新 (100,000 x 2) (100,000 x 2) 400,000 个参数而不是 10,000,000。通过更新更少数量的参数我们减少了微调所需的计算和内存需求。以下来自 LoRA 原始论文的图形说明了这种技术。 图1LoRA重新参数化只训练A和B。图片来源https://arxiv.org/abs/2106.09685 以下是 LoRA 的一些优点 任务切换效率 - 创建模型的不同版本以适应特定任务变得更容易。你可以简单地存储预训练权重的单个副本并构建许多小 LoRA 模块。当你从任务切换到任务时你只替换矩阵 A 和 B并保留 LLM。这显著减少了存储需求。 需要更少的 GPU - LoRA 将 GPU 内存需求减少了最多 3 倍因为我们不计算/重新训练大多数参数。 高精度 - 在各种评估基准上LoRA 的性能被证明几乎等同于全面微调 - 而且只需要一部分成本。 因为它是如此新颖LoRA 在你需要对多个任务进行模型微调的情况下的有效性仍未经测试。在这种情况下预训练 LLM 需要顺序地对每个任务进行微调并且尚待观察 LoRA 是否能保持全面微调的精度。 五、PEFT 相比全面微调的优势 5.1、更高效和更快的训练 更少的参数调整意味着更少的计算这直接转化为需要更少的计算能力和内存资源的更快的训练会话。这使得在资源紧张的情况下进行微调变得更加实用。 5.2、保留预训练的知识 在广泛数据集上进行大量预训练使模型具有宝贵的通用知识和能力。使用 PEFT我们确保在将模型适应新任务时这个宝库不会丢失因为我们保留了大部分或所有的原始模型权重。 PEFT 是否是全面微调的有效替代方案取决于使用案例和选择的特定 PEFT 技术。在 PEFT 中你训练的参数数量比全面微调少得多如果任务“足够困难”训练参数数量的差异将会显现。 六、提示工程 到目前为止讨论的方法涉及在新数据集和任务上训练模型参数使用所有预训练权重如全面微调或一组独立权重如 LoRA。相比之下提示工程根本不涉及训练网络权重。它是设计和精炼模型输入以引导和影响你想要的输出类型的过程。 6.1、基础提示 像 GPT4 这样的超大型 LLM 被调整以遵循指令可以根据它们在训练过程中看到的多样化模式从很少的例子中进行概括并展示基本推理能力。提示工程利用这些能力来引出模型的期望响应。 6.1.1、零样本提示 在零样本提示中我们在用户查询前添加某个指令而不向模型提供任何直接示例。 想象一下你正在使用大型语言模型开发一个技术支持聊天机器人。为了确保模型专注于提供技术解决方案而不需要先前的例子你可以在所有用户输入前添加一个特定指令 提示 根据以下用户关注点提供技术支持解决方案。用户关注点我的电脑无法开机。 解决方案 通过在用户查询“我的电脑无法开机”前添加指令我们给模型提供了期望答案的上下文。这是一种即使没有明确的技术解决方案示例也能适应其输出以进行技术支持的方式。 6.1.2、少样本提示 少样本提示中我们在用户查询前添加几个示例。这些示例本质上是样本输入和期望模型输出的配对。 想象一下你正在创建一个使用语言模型将菜肴分类为“低脂”或“高脂”的健康应用程序。为了定向模型几个示例被添加到用户查询之前 根据其脂肪含量对以下菜肴进行分类烤鸡、柠檬、香草。回应低脂 根据其脂肪含量对以下菜肴进行分类用浓奶油和黄油做的马克和奶酪。回应高脂 根据其脂肪含量对以下菜肴进行分类橄榄油烤牛油果吐司 回应 根据提示中的示例足够大且训练良好的 LLM 将可靠地回应“高脂”。 少射提示是一种使模型采用某种响应格式的好方法。回到我们的技术支持应用示例如果我们希望模型的响应符合某种结构或长度限制我们可以通过少射提示来实现。 6.1.3、链式思考引导 链式思考引导通过指导模型进行中间步骤来进行详细问题解决。配合少数示例引导可以提升需要深度分析才能得出答案任务的表现。 在这个组合里面最大数减去最小数得到一个偶数5、8、9。 答案9 减去 5 等于 4。所以答案是 True。 在这个组合里面最大数减去最小数得到一个偶数10、15、20。 答案20 减去 10 等于 10。所以答案是 True。 在这个组合里面最大数减去最小数得到一个偶数7、12、15。 答案 实际上链式思考引导也可以和零示例引导配合使用以提升需要逐步分析的任务的表现。回到我们的技术支持应用示例如果我们想提升模型的表现我们可以要求它逐步分解解决方案。 根据以下用户问题逐步分解技术支持解决方案。用户问题我的电脑无法开机。 解决方案 对于各种应用基本的引导工程对于大型语言模型来说可以提供“足够好”的准确性。它提供了一种经济的适应方法因为它快速且不涉及大量计算能力。但是缺点是它对于需要额外背景知识的用例来说简单地不够准确或稳健。 七、检索增强生成RAG 由 Meta 研究人员引入的检索增强生成RAG[3]是一种强大的技术它将引导工程与从外部数据源检索上下文相结合以提高语言模型的性能和相关性。通过在模型上附加额外信息它允许更准确和上下文感知的响应。 7.1、RAG 是如何工作的 RAG 本质上将信息检索机制与文本生成模型相结合。信息检索组件有助于从数据库中拉取相关的上下文信息并且文本生成模型使用这个添加的上下文来产生更准确和“知识丰富”的响应。以下是它的工作方式 向量数据库实施 RAG 包括嵌入内部数据集从中创建向量并将它们存储在向量数据库中。 用户查询RAG 从提示中获取用户查询这是一个需要回答或完成的自然语言问题或陈述。 检索组件一旦接收到用户查询检索组件扫描向量数据库以识别与查询语义相似的信息块。然后使用这些相关片段为 LLM 提供额外上下文使其能够生成更准确和上下文感知的响应。 串联将检索到的文档与原始查询串联成一个提供生成响应所需额外上下文的提示。 文本生成将包含串联查询和检索文档的提示馈送到 LLM 以产生最终输出。 7.2、RAG 使用案例 当应用程序需要 LLM 基于特定于应用程序上下文的大量文档来生成响应时RAG 尤其有用。这些应用程序可以包括各种熟悉的任务。例如一个技术支持聊天机器人它从公司的说明书和技术文档中获取信息以回答客户问题以及一个内部问答应用程序它可以访问企业的内部文档并根据这些文档提供答案。 当应用程序需要使用最新的信息和文档这些文档不是 LLM 的训练集的一部分时RAG 也很有用。一些例子可能是新闻数据库或搜索与新治疗方法相关的医学研究的应用程序。 简单的提示工程无法处理这些情况因为 LLM 的上下文窗口有限。目前对于大多数用例你无法将整个文档集馈送到 LLM 的提示中。 7.3、RAG 的优点 RAG 有许多明显的优点 最小化幻觉 - 当模型做出“最佳猜测”假设本质上填补了它“不知道”的内容时输出可能是错误的或纯粹的胡说八道。与简单的提示工程相比RAG 产生的结果更准确幻觉的机会更低。 易于适应新数据 - RAG 可以在事实可能随时间演变的情况下进行适应使其对生成需要最新信息的响应非常有用。 可解释 - 使用 RAG可以确定 LLM 答案的来源。对答案来源进行追溯对于内部监控、质量保证或处理客户纠纷可能是有益的。 成本有效 - 与在特定任务数据集上对整个模型进行微调相比你可以使用 RAG 获得相当的结果这涉及到更少的标记数据和计算资源。 7.4、RAG 的潜在限制 RAG 旨在通过从外部文档中提取上下文来增强 LLM 的信息检索能力。然而在某些使用案例中额外的上下文还不够。如果一个预训练的 LLM 在总结财务数据或从患者的医疗文档中提取见解方面遇到困难很难看出以单个文档形式提供额外上下文如何有所帮助。在这种情况下微调更有可能产生期望的输出。 八、选择最佳的调整策略 在综合评估了 LLM 适应性的四种方法后让我们在四个重要指标上进行比较复杂性、成本、准确性和灵活性。 8.1、成本 在衡量一种方法的成本时有意义的是考虑其初始实施成本以及维护解决方案的成本。鉴于此让我们比较一下我们四种方法的成本。 提示工程 - 提示工程是四种方法中成本最低的。它归结为编写和测试提示以找到馈送到预训练 LLM 时能够提供良好结果的提示。它也可能涉及更新提示如果预训练模型本身被更新或替换。当使用像 OpenAI 的 GPT4 这样的商业模型时这可能会定期发生。 RAG - 实施 RAG 的成本可能高于提示工程。这是因为需要多个组件嵌入模型、向量存储、向量存储检索器和预训练 LLM。 PEFTPEFT 的成本往往高于 RAG。这是因为微调即使是高效的微调都需要大量的计算能力、时间和 ML 专业知识。此外要维护这种方法你需要定期进行微调以将新的相关数据纳入模型。 全面微调 - 这种方法的成本明显高于 PEFT因为它需要更多的计算能力和时间。 8.2、实施的复杂性 从相对简单的提示工程到更复杂的 RAG 和高级调优方法复杂性可以显著变化。以下是每种方法所涉及的快速概述 提示工程 - 这种方法的实施复杂性相对较低。它几乎不需要编程。要起草一个好的提示并进行实验提示工程师需要良好的语言技能、领域专业知识和熟悉少数学习方法。 RAG - 这种方法的实施复杂性高于提示工程。要实施这个解决方案你需要编码和架构技能。根据选择的 RAG 组件复杂性可能会非常高。 PEFT 和全面微调 - 这些方法是最复杂的实施。它们需要对深度学习和 NLP 有深入的理解并且需要数据科学专业知识来通过调整脚本改变模型的权重。你还需要考虑诸如训练数据、学习率、损失函数等因素。 8.3、准确性 评估 LLM 适应性的不同方法的准确性可能很复杂特别是因为准确性通常取决于一系列不同的指标。这些指标的重要性可能会根据特定用例而变化。某些应用程序可能优先考虑特定领域的行话。其他人可能优先考虑将模型的响应追溯到特定来源的能力。为了找到最适合你需求的最准确的方法必须确定你的应用程序的相关准确性指标并根据这些特定标准比较方法。 让我们看一下一些准确性指标。 8.3.1、特定领域术语 微调可以有效地向 LLM 提供特定领域术语。虽然 RAG 在数据检索方面很熟练但它可能无法像微调模型那样捕获特定领域的模式、词汇和细微差别。对于寻求强烈领域亲和力的任务微调是首选。 8.3.2、最新响应 微调后的 LLM 成为其训练数据集的固定快照并且需要定期重新训练以适应正在演变的数据。这使得专门微调全面和 PEFT成为需要响应与动态信息池同步的应用程序的较少可行方法。相比之下RAG 的外部查询可以确保更新响应使其成为具有动态数据环境的理想选择。 8.3.3、透明度和可解释性 对于某些应用程序理解模型的决策制定过程至关重要。虽然微调更像一个“黑箱”使其推理模糊不清但 RAG 提供了更清晰的洞察力。它的两步过程确定了它检索到的文档增强了用户信任和理解 8.3.4、幻觉 预训练 LLM 有时会编造出缺失于其训练数据或提供输入中的答案。微调可以通过将 LLM 集中在特定领域数据上来减少这些幻觉。然而不熟悉的查询仍然可能导致 LLM 编造出一个捏造出来的答案。RAG 通过将 LLM 的响应锚定在检索到的文档中来减少幻觉。初始检索步骤本质上进行事实检查而随后生成受限于检索数据的上下文。对于避免幻觉至关重要的任务推荐使用 RAG。 我们看到对于解释性、最新响应和避免幻觉至关重要的情况RAG 是优秀的。全面微调和 PEFT 对于将大部分权重放在特定领域风格和词汇上的用例是明确的赢家。但是如果你的用例需要两者呢在这种情况下你可能想考虑一种混合方法同时使用微调和 RAG。 8.4、灵活性 提示工程提示工程具有非常高的灵活性因为你只需要根据 FM 和用例的变化来更改提示模板。 RAG当架构发生变化时RAG 具有最高程度的灵活性。你可以独立更改嵌入模型、向量存储和 LLM对其他组件的影响最小到中等。它还可以灵活地在流程中添加更多组件例如复杂的授权而不会影响其他组件。 PEFT微调对变化的灵活性相当低因为数据和输入的任何变化都需要另一个微调周期这可能非常复杂且耗时。此外使相同的微调模型适应不同的用例需要付出很大的努力因为相同的模型权重/参数可能在其他领域表现不佳而不是在其所调整的领域。 全面微调 从头开始的培训对变化的灵活性最差。由于在这种情况下模型是从头开始构建的因此对模型执行更新会触发另一个重新训练周期。可以说我们也可以微调模型而不是从头开始重新训练但准确性会有所不同。 九、LLM 优化的关键因素和策略分析 确定优化LLM去适应你需求的最佳方法不仅需要考虑预算和专业能力的限制更重要的是分析应用的具体需求。 LLM 预测准确度在你这里哪些方面最重要防止它产生虚构信息,还是提升它的创造力更关键? LLM的预测准确度在不同的应用场景中可能有不同的重要性需要根据具体情况进行权衡。一些场景可能更加关注防止虚构信息的产生而另一些场景则更注重提升LLM的创造力。 LLM 如何及时获得最新数据进行更新也很重要。你可以通过提示设计来做一些简单更新比如利率变化还是需要依靠知识引导生成模型来处理信息更新的频率和复杂度更高 LLM的更新方式需要根据具体情况进行选择。一些简单的更新可以通过提示设计等方式实现而对于更新频率和复杂度更高的情况则需要依靠知识引导生成模型来处理。 单一的优化策略是否足以满足需求还是结合多种策略会更好单一的优化策略可能无法满足所有需求需要结合多种策略进行优化。例如可以结合数据增强、模型融合等策略来提升LLM的性能。 现在你已经了解需要检查的问题点下面就是根据实际情况进行分析找到最优的适应LLM的方法了。 十、References [1]. PEFT: Parameter-Efficient Fine-Tuning of Billion-Scale Models on Low-Resource Hardware (https://huggingface.co/blog/peft) [2]. LoRA: Low-Rank Adaptation of Large Language Models (https://arxiv.org/abs/2106.09685) [3]. Retrieval Augmented Generation: Streamlining the creation of intelligent natural language processing models (https://ai.meta.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/)
http://www.dnsts.com.cn/news/137448.html

相关文章:

  • 上蔡做网站新站seo竞价
  • 中文网站制作网站调试
  • 汕头建设网站的公司深圳专业做公司网站
  • 天河区网站公司ui设计自学教程500集
  • 广州专业建设网站网站单页面怎么做的
  • 订阅号可以做微网站中国软件网
  • 网站改版设计一键制作网页
  • 二级建造师证书查询官方网站中国品牌网站官网
  • 爱用建站官网时事新闻最新
  • 天津网站排名提升公司网站建设需要资质
  • vue做网站导航网站关键词排名怎么做
  • 四川建设厅下载专区网站做网站公司广州
  • 网站建设费用高怎么删除网站的死链
  • 快乐彩网站做东莞阳光网招聘
  • 金融理财网站建设方案弄一个关于作文的网站怎么做
  • 快速建设网站服务怎么申请一个网站
  • 四川省建设厅资格注册中心网站好用的网站系统
  • 宛城区网站制作公司免费招聘网站
  • 网络营销案例报告长沙网站优化体验
  • 瑞安网站建设公司做网站为什么要备案
  • py和php做网站哪个好凡科网门店通
  • 网站建设需要矢量文件网站地址查询ip
  • 湖南网站建设价格费用黑马
  • 闲置电脑做网站服务器装饰网站建设优惠套餐
  • 济南网站建设网络公司企业服务平台网站建设
  • 建设公司网站的必要性福千欣隆网站建设公司怎么样
  • 网站怎么做运营推广网站建设原则应考虑哪些内容
  • 郑州知名网站推广东莞计算机培训机构哪个最好
  • 公司网站域名 优帮云企业网站部署计划
  • 前端后端都是网站开发吧文昌网站建设