长沙高端网站制作公司,电子商务网站与建设实践报告,做网站站长一年能赚多少钱,苏州网络公司排名iclr 2024 reviewer打分5558
1 intro
基于CoT prompt的大模型能够更好地解决复杂推理问题 然而传统CoT需要提供相关的例子作为指导#xff0c;这就增加了人工标注的成本——Zero-shot CoT避免了人工标注来引导推理 但是对于一些复杂的任务难以完成推理#xff0c;例如c…iclr 2024 reviewer打分5558
1 intro
基于CoT prompt的大模型能够更好地解决复杂推理问题 然而传统CoT需要提供相关的例子作为指导这就增加了人工标注的成本——Zero-shot CoT避免了人工标注来引导推理 但是对于一些复杂的任务难以完成推理例如code generation——论文提出一种“归纳学习”的提示方法 首先设计prompt让大模型生成出与当前问题比较相关的问题和答案以辅助问答提出的问题 2 preliminary 给定一个问题x 首先通过prompt将问题映射到文本输入ϕ ( x ) zero-shotϕ ( x ) 就是xzero-shot CoTϕ ( x ) 是[x] think step by stepfew-shot CoT ϕ ( x ) 是[x]和一些带label的例子 即 [x1][r1][a1].....[xK][rK][aK][x] 任务目标是调用LLM解决这个问题【生成目标答案y】 生成的目标答案可以包含reasoning path r【推理过程】和答案a
3 方法
3.1 Self-Generated Exemplars
让大模型从在训练阶段掌握的problem-solving knowledge中生成出相关的问题和解决方法 3.1.1 prompt举例 3.1.2 大模型给的答案 大模型先生成出3个相关的且互不相同的problem并给出相应的解决方案然后再对目标问题进行解决。
3.1.3 self-generated instruction的三个核心部分
明确地让大模型生成相关且不同的样例。 因为大模型会偏向于重复地生成一些经典的问题导致误导single-pass VS independent exemplar generation 所谓single-pass就是直接prompt让模型生成3个样例independent exemplar generation让模型生成若干样例然后采样3个样例之后再重新设计prompt让大模型进行生成——通过实验发现single-pass效果最好生成的样例数量3~5最佳
3.2 Self-generated Knowledge Exemplars
对于像代码生成等复杂的任务3.1这样的案例生成方法不一定能过让模型很好地解决此类问题 ——论文提出一种high-level generation方法。通过设计如下指令来实现【让模型先思考选择什么algorithm以及algorithm对应的tutorial】
有点类似于论文笔记Take a Step BackEvoking Reasoning via Abstraction in Large Language Models-CSDN博客的后退一步? 3.2.1 prompt 案例 3.2.2 大模型给的答案 4 实验
4.1 实验任务
数学问题GSM8K、MATH等代码生成动态规划、图算法等复杂的编程题
4.2 效果比较
4.2.1 数学问题 4.2.2 代码生成 4.3 few-shot example 数量的异同