织梦 友情链接 网站名 分隔符,集团管理软件,福建省住房城乡建设部网站,左右翻网站模版欢迎关注[【youcans的AGI学习笔记】](https://blog.csdn.net/youcans/category_12244543.html#xff09;原创作品 【DeepSeek论文精读】1. 从 DeepSeek LLM 到 DeepSeek R1 【DeepSeek论文精读】6. DeepSeek R1#xff1a;通过强化学习激发大语言模型的推理能力 【DeepSeek论… 欢迎关注[【youcans的AGI学习笔记】](https://blog.csdn.net/youcans/category_12244543.html原创作品 【DeepSeek论文精读】1. 从 DeepSeek LLM 到 DeepSeek R1 【DeepSeek论文精读】6. DeepSeek R1通过强化学习激发大语言模型的推理能力 【DeepSeek论文精读】6. DeepSeek R1通过强化学习激发大语言模型的推理能力 0. 论文简介与摘要0.1 论文简介0.2 摘要0.3 主要贡献0.4 DeepSeek-R1 的训练流程 1. 引言1.1 贡献1.2 评估结果总结 2. 方法2.1 概述2.2 DeepSeek-R1-Zero基础模型上的强化学习2.2.1 强化学习算法2.2.2 奖励模型2.2.3 训练模板2.2.4 DeepSeek-R1-Zero 的性能、自我进化过程与顿悟时刻 2.3 DeepSeek-R1结合冷启动的强化学习2.3.1 冷启动2.3.2 面向推理的强化学习2.3.3 拒绝采样与监督微调2.3.4 面向所有场景的强化学习 2.4 蒸馏赋能小型模型推理能力 3. 试验3.1 DeepSeek-R1 的评估结果3.2 蒸馏模型 的评估结果 4. 讨论4.1 蒸馏与强化学习的对比4.2 不成功的尝试 5. 结论、局限性与未来工作 0. 论文简介与摘要
0.1 论文简介
论文标题DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning发布时间2025 年 1 月 [2501.12948]论文地址https://arxiv.org/pdf/2501.12948v1Github 地址https://github.com/deepseek-ai/DeepSeek-R1Huggingface 地址https://huggingface.co/deepseek-ai/DeepSeek-R1主要贡献 基于 DeepSeek-V3-Base通过强化学习RL提升推理能力而不使用任何SFT数据。引入冷启动数据和多阶段训练流程优化模型的可读性和性能。 0.2 摘要
本文介绍了我们的 第一代推理模型 DeepSeek-R1-Zero 和 DeepSeek-R1。论文展示了一种前沿的开源推理模型以及使用大规模强化学习技术训练此类模型的详细方法。 DeepSeek-R1-Zero 是通过大规模强化学习RL训练的模型没有经过监督微调SFT作为初步步骤展示了显著的推理能力。通过强化学习DeepSeek-R1-Zero自然地展现出许多强大且有趣的推理行为。然而它也遇到了一些挑战如可读性差和语言混用问题。 为了解决这些问题并进一步提升推理性能我们推出了 DeepSeek-R1该模型在强化学习之前融入了多阶段训练和冷启动数据。DeepSeek-R1 在推理任务上的表现与 OpenAI-o1-1217 相当。 为了支持研究社区我们开源了 DeepSeek-R1-Zero、DeepSeek-R1 以及从 6个从 DeepSeek-R1 蒸馏出的稠密模型1.5B、7B、8B、14B、32B、70B这些模型基于 Qwen 和 Llama 构建。 0.3 主要贡献 DeepSeek-R1-Zero 的构建过程展示了如何通过纯强化学习激励大型语言模型自我进化从而提升推理能力。尽管它面临可读性和语言混合等挑战但其在多个推理任务上的表现证明了RL在提升模型推理能力方面的巨大潜力。DeepSeek-R1-Zero 的成功为未来的研究提供了新的方向尤其是在无需监督数据的情况下如何通过RL进一步优化模型的推理能力。 DeepSeek-R1 通过引入冷启动数据和多阶段训练管道显著提升了模型的推理能力和可读性。它在多个推理任务上的表现与 OpenAI 的 o1-1217 相当甚至在某些任务上超越了它。通过蒸馏技术DeepSeek-R1 的推理能力还被成功迁移到更小的模型上展示了其在推理任务中的强大潜力。DeepSeek-R1 的成功为未来的研究提供了新的方向尤其是在如何通过冷启动和多阶段训练进一步提升模型性能方面。 通过蒸馏技术作者成功地将 DeepSeek-R1 的强大推理能力迁移到了多个小型密集模型上。蒸馏后的模型在多个基准测试中表现优异展示了知识迁移的有效性。蒸馏技术不仅降低了计算成本还为在资源受限环境中部署高性能推理模型提供了新的可能性。 0.4 DeepSeek-R1 的训练流程
DeepSeek-R1 采用四阶段流程进行训练
冷启动阶段 1从预训练模型 DeepSeek-V3-Base 开始模型在从 DeepSeek-R1-Zero 收集的少量结果数据集上进行监督微调。这些结果经过验证质量高且可读性强。这个数据集包含数千个样本规模相对较小。在这个小规模高质量数据集上进行监督微调有助于 DeepSeek-R1 缓解初始模型中存在的可读性问题。推理强化学习阶段 2这个阶段应用与前一个模型相同的大规模强化学习方法以提升模型的推理能力。具体来说在编程、数学、科学和逻辑推理等任务中这些任务有明确的解决方案可为强化学习过程定义奖励规则。拒绝采样和监督微调阶段 3在这个阶段使用阶段 2 的模型检查点生成大量样本。通过拒绝采样只保留正确且可读的样本。此外使用生成式奖励模型 DeepSeek-V3 来决定保留哪些样本。这个阶段还包含了部分 DeepSeek-V3 的训练数据。然后模型在这个数据集上进行监督微调。这个数据集不仅包含推理相关的问题还提升了模型在更多领域的能力。多样化强化学习阶段阶段 4这是最后一个阶段包含多样化的任务。对于像数学这样适用的任务使用基于规则的奖励。对于其他任务由大语言模型提供反馈使模型符合人类偏好。 此外利用阶段 3 构建的数据集对各种较小的开源模型进行了蒸馏提供了具有高推理能力的较小规模替代模型。 1. 引言
近年来大型语言模型LLMs正经历着快速的迭代和演变Anthropic2024Google2024OpenAI2024a逐渐缩小与通用人工智能AGI之间的差距。
最近后训练post-training作为完整训练流程的重要组成部分已经被提出并取得了显著进展。研究表明后训练可以提升推理任务的准确性符合社会价值观并适应用户偏好同时相比于预训练所需的计算资源相对较少。在推理能力方面OpenAI 的 o1OpenAI2024b系列模型率先通过增加推理过程中的 Chain-of-Thought 过程的长度实现了推理时扩展。这种方法在数学、编程和科学推理等多个推理任务上取得了显著的改进。然而如何有效地进行测试时扩展仍然是研究界的一个未解问题。先前的几项研究探讨了多种方法包括基于过程的奖励模型Lightman 等2023Uesato 等2022Wang 等2023、强化学习Kumar 等2024以及搜索算法如蒙特卡洛树搜索和束搜索Feng 等2024Trinh 等2024Xin 等2024。然而这些方法都未能在推理表现上达到与 OpenAI o1 系列模型相当的水平。
在本文中我们迈出了提升语言模型推理能力的第一步采用纯强化学习RL进行探索。我们的目标是探索在没有任何监督数据的情况下大型语言模型如何通过纯粹的强化学习过程自我演化并发展推理能力。具体来说我们使用 DeepSeek-V3-Base 作为基础模型并采用 GRPOShao 等2024作为 RL 框架以提升模型在推理方面的表现。
在训练过程中DeepSeek-R1-Zero 自然展现了许多强大且有趣的推理行为。经过数千步的强化学习训练DeepSeek-R1-Zero 在推理基准测试中表现出了超凡的性能。例如在 AIME 2024 上pass1 的得分从 15.6% 提升至 71.0%并且通过多数投票得分进一步提高到 86.7%与 OpenAI-o1-0912 的表现相匹配。
然而DeepSeek-R1-Zero 遇到了一些挑战例如可读性差和语言混合。为了应对这些问题并进一步提升推理性能我们推出了 DeepSeek-R1该模型结合了少量冷启动数据和多阶段训练流程。具体来说我们首先收集了数千条冷启动数据以微调 DeepSeek-V3-Base 模型。随后我们像 DeepSeek-R1-Zero 一样进行面向推理的强化学习。接近强化学习过程收敛时我们通过对 RL 检查点进行拒绝采样结合来自 DeepSeek-V3 的监督数据涵盖写作、事实问答和自我认知等领域生成新的 SFT 数据并重新训练 DeepSeek-V3-Base 模型。经过新的数据微调后检查点将进行额外的强化学习过程考虑到所有场景中的提示。经过这些步骤后我们得到了一个称为 DeepSeek-R1 的检查点其推理性能与 OpenAI-o1-1217 相当。
我们进一步探索了从 DeepSeek-R1 蒸馏到更小的稠密模型。以 Qwen2.5-32BQwen2024b为基础模型从 DeepSeek-R1 直接蒸馏的结果优于对其应用强化学习的结果。这表明较大基础模型发现的推理模式对于提升推理能力至关重要。我们开源了蒸馏后的 Qwen 和 LlamaDubey 等2024系列。值得注意的是我们的 14B 蒸馏模型在推理基准测试中大幅超越了最先进的开源模型 QwQ-32B-PreviewQwen2024a而蒸馏后的 32B 和 70B 模型在稠密模型中创下了推理基准的新纪录。 1.1 贡献
1. 后训练基于基础模型的大规模强化学习
我们直接将强化学习RL应用于基础模型而不依赖于监督微调SFT作为初步步骤。这种方法使模型能够探索链式推理CoT来解决复杂问题从而发展出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展现了自我验证、反思和生成长链式推理等能力为研究社区带来了重大突破。值得注意的是这是首个通过纯强化学习验证大语言模型LLMs推理能力可以被激励的开放研究无需依赖 SFT。这一突破为未来该领域的进展铺平了道路。我们介绍了开发 DeepSeek-R1 的流程。该流程包含两个强化学习阶段旨在发现改进的推理模式并与人类偏好对齐同时包含两个监督微调阶段作为模型推理和非推理能力的种子。我们相信这一流程将通过创造更好的模型推动行业发展。
2. 蒸馏更小的模型也能强大
我们证明了较大模型的推理模式可以被蒸馏到更小的模型中从而在推理性能上超越了通过强化学习发现的较小模型的推理模式。开源的 DeepSeek-R1 及其 API 将为研究社区未来蒸馏出更好的小型模型提供帮助。使用 DeepSeek-R1 生成的推理数据我们对多个在研究社区广泛使用的稠密模型进行了微调。评估结果表明蒸馏后的更小稠密模型在基准测试中表现异常出色。DeepSeek-R1-Distill-Qwen-7B 在 AIME 2024 上得分 55.5%超越了 QwQ-32B-Preview。此外DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 上得分 72.6%在 MATH-500 上得分 94.3%在 LiveCodeBench 上得分 57.2%。这些结果大大超越了之前的开源模型并与 o1-mini 的表现相当。我们将基于 Qwen2.5 和 Llama3 系列的 1.5B、7B、8B、14B、32B 和 70B 蒸馏模型检查点开源给社区。 1.2 评估结果总结 推理任务 (1) DeepSeek-R1 在 AIME 2024 上达到了 79.8% 的 Pass1略微超越了 OpenAI-o1-1217。在 MATH-500 上它取得了 97.3% 的优异成绩与 OpenAI-o1-1217 相当并显著超越了其他模型。 (2) 在与编程相关的任务中DeepSeek-R1 在代码竞赛任务中表现出专家水平Codeforces 上的 Elo 等级为 2,029超越了 96.3% 的人类参赛者。在与工程相关的任务中DeepSeek-R1 的表现稍好于 DeepSeek-V3这对开发人员在现实任务中具有一定帮助。 知识 在 MMLU、MMLU-Pro 和 GPQA Diamond 等基准测试中DeepSeek-R1 取得了杰出的成绩显著超越了 DeepSeek-V3分别在 MMLU 上得分 90.8%MMLU-Pro 上得分 84.0%GPQA Diamond 上得分 71.5%。虽然在这些基准测试中的表现略低于 OpenAI-o1-1217DeepSeek-R1 依然超越了其他闭源模型展示了其在教育任务中的竞争优势。在事实性基准测试 SimpleQA 上DeepSeek-R1 超越了 DeepSeek-V3证明了其处理基于事实查询的能力。在这一基准测试中OpenAI-o1 也超越了 4o呈现出相似的趋势。 其它 DeepSeek-R1 在广泛的任务中也表现出色包括创意写作、一般问答、编辑、摘要等。它在 AlpacaEval 2.0 上取得了令人印象深刻的长度控制胜率 87.6%在 ArenaHard 上的胜率为 92.3%展示了其强大的智能处理非考试导向查询的能力。此外DeepSeek-R1 在需要长上下文理解的任务上表现突出显著超越了 DeepSeek-V3 在长上下文基准测试中的表现。 2. 方法
2.1 概述
先前的研究在很大程度上依赖大量的监督数据来提高模型性能。在本研究中我们展示了推理能力可以通过大规模强化学习RL显著提升即使不使用监督微调SFT作为冷启动。此外性能还可以通过加入少量冷启动数据进一步增强。 在接下来的章节中我们将介绍 1DeepSeek-R1-Zero它直接将强化学习应用于基础模型无需任何 SFT 数据 2DeepSeek-R1它从经过数千条长链式推理CoT示例微调的检查点开始应用强化学习 3从 DeepSeek-R1 蒸馏推理能力到小型稠密模型。 2.2 DeepSeek-R1-Zero基础模型上的强化学习
强化学习在推理任务中已展现出显著的效果正如我们之前的研究所证明的那样Shao 等2024Wang 等2023。然而这些研究都在很大程度上依赖监督数据而这些数据的收集过程非常耗时。在本节中我们探讨了在没有任何监督数据的情况下LLMs 如何通过纯强化学习过程自我演化并发展推理能力。我们首先简要概述了我们的 RL 算法然后呈现一些令人兴奋的结果希望能为社区提供有价值的见解。 2.2.1 强化学习算法
组内相对策略优化Group Relative Policy Optimization
为了节省强化学习的训练成本我们采用了 Group Relative Policy Optimization (GRPO)Shao 等2024它不依赖于通常与策略模型大小相同的评价模型而是通过从组得分中估计基线。具体而言对于每个问题 GRPO 从旧的策略 中采样一组输出 { 1, 2, ···, }然后通过最大化以下目标来优化策略模型 其中 和 是超参数 A i A_i Ai 是优势使用一组与每组内的产出相对应的奖励 { r 1 , r 2 , ⋅ ⋅ ⋅ , r G } \{ r_1, r_2, ···, r_G \} {r1,r2,⋅⋅⋅,rG} 计算得到 2.2.2 奖励模型
奖励是训练信号的来源决定了强化学习RL的优化方向。 为了训练 DeepSeek-R1-Zero我们采用了一种基于规则的奖励系统主要由两种类型的奖励组成
准确度奖励Accuracy rewards准确度奖励模型用于评估响应是否正确。例如在具有确定性结果的数学问题中要求模型以指定的格式例如在框中提供最终答案从而可以通过规则进行可靠的正确性验证。同样对于 LeetCode 问题可以使用编译器基于预定义的测试用例生成反馈。格式奖励Format rewards除了准确度奖励模型外我们还使用了格式奖励模型强制模型将其思维过程放置在 think 和 /think标签之间。
我们在开发 DeepSeek-R1-Zero 时没有应用基于结果或过程的神经奖励模型因为我们发现在大规模强化学习过程中神经奖励模型可能会遭遇奖励操控问题并且重新训练奖励模型需要额外的训练资源这会使整个训练流程变得更加复杂。 2.2.3 训练模板
为了训练 DeepSeek-R1-Zero我们首先设计了一个简单的模板指导基础模型遵循我们指定的指令。 如表 1 所示该模板要求 DeepSeek-R1-Zero 首先生成推理过程然后给出最终答案。 表1用户(User)和助手(Assistant)之间的对话。 用户提出了一个问题助手解决了这个问题。 助手首先在脑海中思考推理过程然后向用户提供答案。推理过程和答案分别包含在标签 think /think和 answer /answer 中即 think reasoning process here /think, answer answer here /answer。 User: prompt. Assistant: 我们有意将约束限制在这种结构格式上避免任何内容特定的偏见例如强制要求反思性推理或推广特定的解题策略——以确保我们能够准确观察模型在强化学习过程中的自然进展。 2.2.4 DeepSeek-R1-Zero 的性能、自我进化过程与顿悟时刻
DeepSeek-R1-Zero 的性能
图 2 展示了 DeepSeek-R1-Zero 在 AIME 2024 基准测试中的性能轨迹贯穿整个强化学习训练过程。如图所示随着强化学习训练的推进DeepSeek-R1-Zero 的性能稳定且持续地提升。值得注意的是AIME 2024 上的平均 pass1 得分显著上升从最初的 15.6% 跃升至令人印象深刻的 71.0%达到了与 OpenAI-o1-0912 相媲美的性能水平。这一显著提升突显了我们 RL 算法在优化模型性能方面的有效性。 表 2 提供了 DeepSeek-R1-Zero 与 OpenAI 的 o1-0912 模型在多种推理相关基准测试中的比较分析。研究结果显示强化学习赋予 DeepSeek-R1-Zero 强大的推理能力而无需任何监督微调数据。这是一个值得注意的成就因为它突显了模型仅通过强化学习就能有效地学习和泛化。此外通过应用多数投票DeepSeek-R1-Zero 的性能可以进一步提升。例如当在 AIME 基准测试中使用多数投票时DeepSeek-R1-Zero 的性能从 71.0% 提升至 86.7%超越了 OpenAI-o1-0912 的表现。DeepSeek-R1-Zero 在有无多数投票的情况下都能达到如此具有竞争力的表现突显了其强大的基础能力并展示了在推理任务中进一步提升的潜力。 DeepSeek-R1-Zero 的自我进化过程
DeepSeek-R1-Zero 的自我进化过程是一个引人注目的示范展示了强化学习如何驱动模型自主提升其推理能力。通过直接从基础模型开始强化学习我们可以在没有监督微调阶段影响的情况下密切监控模型的进展。这种方法清晰地展示了模型如何随着时间的推移不断进化特别是在处理复杂推理任务的能力方面。
如图3所示DeepSeek-R1-Zero的思维时间在整个训练过程中持续改进。这种改进不是外部调整的结果而是模型内部的自我发展。DeepSeek-R1-Zero通过利用扩展的测试时间计算自然获得了解决越来越复杂推理任务的能力。这些计算从生成数百个到数千个推理标记不等使得模型能够更深入地探索和完善其思维过程。
这种自我进化的一个最显著的方面是随着测试时间计算的增加复杂行为的出现。比如反思行为——模型回顾并重新评估之前的步骤——以及探索问题解决替代方法的行为都是自发产生的。这些行为并非显式编程所致而是模型与强化学习环境互动的结果。这种自发的发展显著增强了DeepSeek-R1-Zero的推理能力使其能够以更高的效率和准确性应对更具挑战性的任务。 DeepSeek-R1-Zero 的 “顿悟” 时刻
在DeepSeek-R1-Zero的训练过程中观察到一个特别有趣的现象即发生了“顿悟”时刻。如表3所示这一时刻出现在模型的一个中间版本中。在此阶段DeepSeek-R1-Zero通过重新评估其初始方法学会了为一个问题分配更多的思考时间。这种行为不仅证明了模型推理能力的提升而且是强化学习如何导致意外且复杂结果的迷人示例。 这个时刻不仅是模型的“顿悟”也是观察其行为的研究人员的“顿悟”。 它强调了强化学习的力量与美妙我们并没有显式地教模型如何解决问题而是为其提供了正确的激励模型自主发展出先进的问题解决策略。这个“顿悟”时刻有力地提醒我们强化学习能够解锁人工系统中智能的新层次为未来更具自主性和适应性的模型铺平道路。 DeepSeek-R1-Zero 的缺点
尽管 DeepSeek-R1-Zero 展现了强大的推理能力并能自主发展出意想不到且强大的推理行为但它仍然面临一些问题。例如DeepSeek-R1-Zero 在可读性差和语言混杂等问题上存在困难。为了使推理过程更加易读并与开放社区分享我们探索了DeepSeek-R1一种结合了强化学习与人性化冷启动数据的方法。 2.3 DeepSeek-R1结合冷启动的强化学习
受到DeepSeek-R1-Zero取得的良好结果的启发产生了两个自然的问题 1通过引入少量高质量数据作为冷启动是否能够进一步提高推理性能或加速收敛 2如何训练一个既能生成清晰连贯的推理链CoT又能展现出强大通用能力的用户友好型模型
为了解决这些问题我们设计了一个训练DeepSeek-R1的管道。该管道由四个阶段组成具体如下 2.3.1 冷启动
与 DeepSeek-R1-Zero 不同为了防止RL训练的早期冷启动阶段在基础模型上出现不稳定现象在 DeepSeek-R1 中我们构建并收集了少量的长推理链CoT数据用以微调模型作为初始的 RL 行为体。
为了收集这些数据我们探索了几种方法使用少量示例提示与长推理链的结合直接提示模型生成带有反思和验证的详细回答收集DeepSeek-R1-Zero输出的可读格式并通过人工注释员后处理来精炼结果。
在本研究中我们收集了数千条冷启动数据用于微调 DeepSeek-V3-Base作为强化学习的起点。与DeepSeek-R1-Zero相比冷启动数据的优势包括
可读性DeepSeek-R1-Zero的一个关键限制是其内容通常不适合阅读。回答可能会混合多种语言或者缺乏标记格式来突出显示给用户的答案。相比之下在为DeepSeek-R1创建冷启动数据时我们设计了一个可读的模式其中每个回答末尾都有一个总结并且过滤掉不适合阅读的回答。这里我们定义输出格式为 |special_token| reasoning_process|special_token| summary其中推理过程是针对查询的CoT而总结则用于概括推理结果。潜力通过精心设计带有人工先验的冷启动数据模式我们观察到DeepSeek-R1在性能上优于DeepSeek-R1-Zero。我们认为迭代训练是推理模型的一种更好的方法。 2.3.2 面向推理的强化学习
在对DeepSeek-V3-Base进行冷启动数据微调后我们采用与DeepSeek-R1-Zero相同的大规模强化学习训练过程。 这个阶段重点提升模型的推理能力特别是在推理密集型任务中如编码、数学、科学和逻辑推理等这些任务涉及明确定义的问题和清晰的解决方案。在训练过程中我们观察到CoT经常出现语言混合尤其是在强化学习提示涉及多种语言时。为了缓解语言混合的问题我们在强化学习训练中引入了语言一致性奖励这一奖励是根据推理链中目标语言词汇的比例计算的。尽管消融实验表明这种对齐会导致模型性能略微下降但这一奖励与人类偏好一致使得模型输出更具可读性。 最终我们通过直接将推理任务的准确性和语言一致性奖励相加形成最终的奖励。然后我们对微调后的模型进行强化学习训练直到其在推理任务上收敛。 2.3.3 拒绝采样与监督微调
当面向推理的强化学习收敛后我们利用得到的检查点收集监督微调SFT数据用于下一轮训练。与最初的冷启动数据主要关注推理不同这一阶段将涉及其他领域的数据以增强模型在写作、角色扮演和其他通用任务中的能力。具体来说我们生成数据并对模型进行微调如下所述。
推理数据 我们整理推理提示并通过从上述强化学习训练的检查点执行拒绝采样来生成推理轨迹。在前一个阶段我们只包含了可以通过基于规则的奖励进行评估的数据。然而在这一阶段我们通过加入额外的数据来扩展数据集其中一些数据使用生成奖励模型通过将真实标签和模型预测输入DeepSeek-V3进行判断。此外由于模型输出有时混乱且难以阅读我们过滤掉了含有混合语言、长段落和代码块的推理链。对于每个提示我们采样多个响应并只保留正确的响应。最终我们收集了约60万个与推理相关的训练样本。
非推理数据 对于非推理数据如写作、事实问答、自我认知和翻译我们采用DeepSeek-V3流程并重复使用部分DeepSeek-V3的SFT数据集。对于某些非推理任务我们通过提示调用DeepSeek-V3生成潜在的推理链以便在回答问题前使用。然而对于更简单的查询例如“你好”我们不会提供推理链作为回应。最终我们收集了大约20万个与推理无关的训练样本。
我们使用上述整理好的大约80万个样本数据集对DeepSeek-V3-Base进行两轮微调。 2.3.4 面向所有场景的强化学习
为了进一步使模型与人类偏好对齐我们实施了一个二次强化学习阶段旨在提高模型的有用性和无害性同时精炼其推理能力。具体而言我们使用奖励信号和多样化的提示分布来训练模型。对于推理数据我们遵循DeepSeek-R1-Zero中概述的方法利用基于规则的奖励来引导数学、代码和逻辑推理领域的学习过程。对于一般数据我们依赖奖励模型来捕捉人类偏好以应对复杂和微妙的场景。我们在DeepSeek-V3流程的基础上采用类似的偏好对分布和训练提示。
在有用性方面我们专注于最终的总结确保评估重点强调响应对用户的实用性和相关性同时尽量减少对基础推理过程的干扰。在无害性方面我们评估模型的整个响应包括推理过程和总结以识别并减少生成过程中可能出现的任何潜在风险、偏见或有害内容。最终奖励信号和多样化数据分布的整合使我们能够训练一个既在推理上表现优异又优先考虑有用性和无害性的模型。 2.4 蒸馏赋能小型模型推理能力
为了赋予更高效的小型模型推理能力例如DeepSeek-R1我们直接使用 DeepSeek-R1 整理的80万个样本如 2.3.3 所述对开源模型进行微调具体包括 QwenQwen, 2024b和LlamaAIMeta, 2024。我们的研究发现这种简单的蒸馏方法显著提升了小型模型的推理能力。我们使用的基础模型包括Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.1-8B和Llama-3.3-70B-Instruct。我们选择Llama-3.3因为它的推理能力略优于Llama-3.1。
对于蒸馏后的模型我们仅应用了SFT监督微调没有包括RL强化学习阶段尽管加入RL可能会显著提升模型性能。我们的主要目标是展示蒸馏技术的有效性将RL阶段的探索留给更广泛的研究社区。 3. 试验
基准测试Benchmarks 我们在多个基准测试上评估模型的表现包括MMLU (Hendrycks等, 2020)MMLU-Redux (Gema等, 2024)MMLU-Pro (Wang等, 2024)C-Eval (Huang等, 2023)CMMLU (Li等, 2023)IFEval (Zhou等, 2023)FRAMES (Krishna等, 2024)GPQA Diamond (Rein等, 2023)SimpleQA (OpenAI, 2024c)C-SimpleQA (He等, 2024)SWE-Bench Verified (OpenAI, 2024d)AiderLiveCodeBench (Jain等, 2024)2024年8月至2025年1月Codeforces中国全国中学生数学奥林匹克竞赛CNMO 20243以及美国邀请数学竞赛AIME 2024MAA, 2024。 除了标准基准测试外我们还使用 LLM 作为评估者评估模型在开放式生成任务上的表现。具体而言我们遵循 AlpacaEval 2.0Dubois等, 2024和Arena-HardLi等, 2024的原始配置这些配置利用GPT-4-Turbo-1106作为评估者进行成对比较。在评估中我们只提供最终总结以避免长度偏差。对于蒸馏模型我们在AIME 2024MATH-500GPQA DiamondCodeforces和LiveCodeBench上报告具有代表性的结果。
评估提示Evaluation Prompts 按照DeepSeek-V3的设置标准基准测试如MMLU、DROP、GPQA Diamond和SimpleQA使用simpleevals框架中的提示进行评估。对于MMLU-Redux我们在零样本设置下采用Zero-Eval提示格式Lin, 2024。在MMLU-Pro、C-Eval和CLUE-WSC的评估中由于原始提示是少量样本我们稍微修改了提示采用零样本设置。少量样本中的Chain-of-ThoughtCoT可能会影响DeepSeek-R1的性能。其他数据集遵循其原始评估协议并使用创作者提供的默认提示。在代码和数学基准测试方面HumanEval-Mul数据集涵盖了八种主流编程语言Python、Java、C、C#、JavaScript、TypeScript、PHP和Bash。在LiveCodeBench上的模型表现通过CoT格式进行评估数据收集时间为2024年8月至2025年1月。Codeforces数据集则使用10场Div.2竞赛的问题和专家设计的测试用例进行评估随后计算预期评级和竞争者的百分比。SWE-Bench验证结果通过无代理框架Xia等, 2024获得。AIDER相关基准使用“diff”格式进行测量。DeepSeek-R1的输出在每个基准测试中限制为最多32,768个标记。
基线Baselines 我们针对几个强基准模型进行全面评估包括DeepSeek-V3、Claude-Sonnet-3.5-1022、GPT-4o-0513、OpenAI-o1-mini和OpenAI-o1-1217。由于在中国大陆访问 OpenAI-o1-1217 的API存在困难我们基于官方报告评价其性能。对于蒸馏模型我们还与开源模型QwQ-32B-PreviewQwen, 2024a进行了比较。
评估设置Evaluation Setup 我们将模型的最大生成长度设置为 32,768 个标记tokens。我们发现使用贪婪解码来评估长输出推理模型会导致更高的重复率并且不同检查点之间的表现存在显著波动。因此我们默认使用 pass k 评估Chen等, 2021并报告pass1结果使用非零温度。具体而言我们使用采样温度 0.6 和 top-p 值 0.95 来为每个问题生成 k 个响应通常在4~64之间具体取决于测试集的大小。然后pass1 的计算公式为 其中 p i p_i pi 表示第 i 个响应的正确性。该方法提供了更可靠的性能估计。对于AIME 2024我们还报告了共识多数投票结果Wang等, 2022使用64个样本记作 cons64。 3.1 DeepSeek-R1 的评估结果
对于MMLU、MMLU Pro和GPQA Diamond等面向教育的知识基准测试DeepSeek-R1的性能优于DeepSeek-V3。这一改进主要归因于STEM相关问题的准确性提高通过大规模强化学习取得了显著成果。此外DeepSeek-R1在FRAMES方面表现出色FRAMES是一项依赖于上下文的长期QA任务展示了其强大的文档分析能力。这突显了推理模型在人工智能驱动的搜索和数据分析任务中的潜力。在事实基准SimpleQA上DeepSeek-R1的表现优于DeepSeek-V3展示了其处理基于事实的查询的能力。在OpenAI-o1超过GPT-4o的情况下也观察到了类似的趋势。然而在中国SimpleQA基准测试中DeepSeek-R1的表现不如DeepSeek-V3主要是因为它倾向于在安全RL后拒绝回答某些查询。如果没有安全RLDeepSeek-R1的准确率可以达到70%以上。
DeepSeek-R1在IF Eval上也取得了令人印象深刻的结果IF Eval是一个旨在评估模型遵循格式说明能力的基准。这些改进可能与在监督微调SFT和强化学习训练的最后阶段纳入指令跟踪数据有关。此外在AlpacaEval2.0和ArenaHard上观察到了显著的性能表明了DeepSeek-R1在编写任务和开放域问答方面的优势。它在DeepSeek-V3上的显著表现突显了大规模RL的泛化优势这不仅提高了推理能力还提高了跨不同领域的性能。此外DeepSeek-R1生成的摘要长度简洁明了ArenaHard上平均有689个令牌AlpacaEval 2.0上平均有2218个字符。这表明DeepSeek-R1避免了在基于GPT的评估过程中引入长度偏差进一步巩固了其在多个任务中的稳健性。
在数学任务方面DeepSeek-R1的性能与OpenAI-o1-1217相当远远超过了其他模型。在编码算法任务上也观察到了类似的趋势例如LiveCodeBench和Codeforce其中以推理为中心的模型主导了这些基准测试。在面向工程的编码任务中OpenAI-o1-1217在Aider上的表现优于DeepSeek-R1但在SWE Verified上的表现相当。我们相信DeepSeek-R1的工程性能将在下一个版本中得到改善因为目前相关的RL训练数据量仍然非常有限。 3.2 蒸馏模型 的评估结果
如表5所示简单地蒸馏DeepSeek-R1的输出使得高效的DeepSeek-R1-7B即DeepSeek-R1-Distill-Qwen-7B以下简写在各项评估指标上超过了非推理模型如GPT-4o-0513。DeepSeek-R1-14B在所有评估指标上都超越了QwQ-32B-Preview而DeepSeek-R1-32B和DeepSeek-R1-70B在大多数基准测试中显著超越了o1-minion。这些结果展示了蒸馏技术的强大潜力。此外我们还发现将RL应用于这些蒸馏模型能够带来显著的进一步提升。我们认为这一发现值得进一步探索因此在此仅展示简单SFT蒸馏模型的结果。 4. 讨论
4.1 蒸馏与强化学习的对比
在第3.2节中我们可以看到通过蒸馏DeepSeek-R1小模型能够取得令人印象深刻的结果。然而仍然有一个问题需要解答是否可以通过本文讨论的大规模强化学习训练而不通过蒸馏来实现相当的性能
为了解答这个问题我们在Qwen-32B-Base上进行了大规模的强化学习训练使用了数学、代码和STEM数据训练超过10K步最终得到了DeepSeek-R1-Zero-Qwen-32B。实验结果如表6所示表明经过大规模强化学习训练后的32B基模型在性能上与QwQ-32B-Preview相当。然而从DeepSeek-R1蒸馏出来的DeepSeek-R1-Distill-Qwen-32B在所有基准测试中表现明显优于DeepSeek-R1-Zero-Qwen-32B。
因此我们可以得出两个结论 首先将更强大的模型蒸馏为更小的模型可以获得出色的结果而依赖本文中提到的大规模强化学习的小模型则需要巨大的计算能力甚至可能无法达到蒸馏模型的性能。 其次虽然蒸馏策略既经济又有效但要突破智能的边界仍然可能需要更强大的基础模型和更大规模的强化学习。 4.2 不成功的尝试
在开发DeepSeek-R1的早期阶段我们也遇到了一些失败和挫折。我们在这里分享这些失败经验以提供一些启示但这并不意味着这些方法无法开发有效的推理模型。
过程奖励模型PRM
PRM是一种合理的方法可以引导模型朝着更好的方式解决推理任务Lightman et al., 2023Uesato et al., 2022Wang et al., 2023。然而实际上PRM有三个主要限制可能会妨碍其最终成功。首先很难明确地定义一般推理中的细粒度步骤。其次判断当前的中间步骤是否正确是一个具有挑战性的任务。使用模型进行自动标注可能不会产生令人满意的结果而人工标注又不利于规模化。第三一旦引入基于模型的PRM它不可避免地会导致奖励作弊Gao et al., 2022并且重新训练奖励模型需要额外的训练资源复杂化了整个训练流程。总的来说虽然PRM在重新排序模型生成的前N个响应或辅助引导搜索Snell et al., 2024方面表现出色但与它在大规模强化学习过程中引入的额外计算开销相比其优势是有限的。
蒙特卡洛树搜索MCTS
受AlphaGoSilver et al., 2017b和AlphaZeroSilver et al., 2017a的启发我们探索了使用蒙特卡洛树搜索MCTS来增强测试时的计算可扩展性。该方法涉及将答案拆分成更小的部分以便模型能够系统地探索解空间。为此我们提示模型生成多个标签这些标签对应于搜索所需的特定推理步骤。在训练时我们首先使用收集的提示通过一个预训练的价值模型指导MCTS来寻找答案。随后我们使用得到的问答对来训练演员模型和价值模型迭代地优化这个过程。
然而这种方法在扩展训练时遇到了几个挑战。首先与象棋等搜索空间相对明确的情况不同令牌生成呈现出指数级增长的搜索空间。为了解决这个问题我们为每个节点设置了最大扩展限制但这可能导致模型陷入局部最优解。其次价值模型直接影响生成的质量因为它指导了搜索过程的每一步。训练一个细粒度的价值模型本身就很困难这使得模型在迭代改进时面临挑战。虽然AlphaGo的核心成功依赖于训练一个价值模型来逐步提高其性能但由于令牌生成的复杂性这一原则在我们的设置中很难复制。
总之尽管在推理过程中MCTS与预训练价值模型配合可以提高性能但通过自我搜索迭代提升模型性能仍然是一个重大挑战。 5. 结论、局限性与未来工作
在这项工作中我们分享了通过强化学习提升模型推理能力的过程。DeepSeek-R1-Zero代表了一种纯强化学习方法无需依赖冷启动数据在多项任务上实现了强大的性能。而DeepSeek-R1则更加强大结合了冷启动数据和迭代的强化学习微调。最终DeepSeek-R1在多项任务中实现了与OpenAI-o1-1217相当的表现。
我们进一步探索了将推理能力蒸馏到小型密集模型中的方法。我们使用DeepSeek-R1作为教师模型生成了80万个训练样本并微调了多个小型密集模型。结果令人鼓舞DeepSeek-R1-Distill-Qwen-1.5B在数学基准测试中超越了GPT-4o和Claude-3.5-Sonnet在AIME上的得分为28.9%在MATH上的得分为83.9%。其他密集模型也取得了显著成绩显著超越了基于相同基础检查点的其他指令调优模型。
在未来我们计划在以下方向进行DeepSeek-R1的研究和发展
通用能力目前DeepSeek-R1在函数调用、多轮对话、复杂角色扮演和JSON输出等任务上的能力仍不及DeepSeek-V3。未来我们计划探索如何利用长链推理(CoT)来增强这些领域的任务能力。语言混合DeepSeek-R1目前优化了中文和英文因此在处理其他语言的查询时可能会出现语言混用的问题。例如DeepSeek-R1可能会使用英文进行推理和回答即使查询本身是其他语言。我们计划在未来的更新中解决这一局限性。提示工程在评估DeepSeek-R1时我们观察到它对提示非常敏感。少量示例提示会持续降低其性能。因此我们建议用户直接描述问题并使用零-shot设置指定输出格式以获得最佳结果。软件工程任务由于评估时间较长影响了强化学习过程的效率大规模强化学习尚未在软件工程任务中广泛应用。因此DeepSeek-R1在软件工程基准测试上未能相较于DeepSeek-V3表现出显著提升。未来版本将通过在软件工程数据上实施拒绝采样或在强化学习过程中引入异步评估来提高效率。 参考文献和链接 版权声明 本文由 youcansxidian 对论文 DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning 进行摘编和翻译。该论文版权属于原文期刊和作者本译文只供研究学习使用。 youcansxidian 作品转载必须标注原文链接 【DeepSeek论文精读】6. DeepSeek R1通过强化学习激发大语言模型的推理能力 Copyright 2024 youcans, XIDIAN Crated2025-02