比如这是一个原子化提问的例子:网页链接 //@联立2352_井芹仁菜bot:有无案例详解
2025 年的三点半提示词技巧
2025 年了,模型能力上升了一个台阶,更不需要去记提示词技巧和框架了,写提示词不再是一个多专业的活,核心就记住三点半:
1. Context:问题所需要的上下文信息,千万别以为模型会读心术,一定要把相关信息都提供;但是长度不要太长,因为长度越长效果越差,多长不同模型有区别,多试试就知道了。
2. Instruction:你想要模型做什么说清楚。如果自己都没想清楚,就先临时开个会话和模型闲聊,让它帮你梳理清楚,梳理清楚指令了再新开会话输入你的指令和上下文。
3. Atom:让你的提示词原子化,这里其实有两点含义:
- 1) 你每次的任务要小,不要想让模型一次完成太多任务
- 2) 上下文完整独立,在你的会话中把这次任务的上下文都提供清楚了
最后还有半点:
CoT:思维链(Chain of Thought)对于大语言模型来说已经慢慢成了基本技能,尤其是推理模型,高于人类平均水平,如果你明确知道最优步骤,就写上,不确认就让模型写,不满意就让模型改进,还不满意就新开会话或者换模型再试试。
2025 年了,模型能力上升了一个台阶,更不需要去记提示词技巧和框架了,写提示词不再是一个多专业的活,核心就记住三点半:
1. Context:问题所需要的上下文信息,千万别以为模型会读心术,一定要把相关信息都提供;但是长度不要太长,因为长度越长效果越差,多长不同模型有区别,多试试就知道了。
2. Instruction:你想要模型做什么说清楚。如果自己都没想清楚,就先临时开个会话和模型闲聊,让它帮你梳理清楚,梳理清楚指令了再新开会话输入你的指令和上下文。
3. Atom:让你的提示词原子化,这里其实有两点含义:
- 1) 你每次的任务要小,不要想让模型一次完成太多任务
- 2) 上下文完整独立,在你的会话中把这次任务的上下文都提供清楚了
最后还有半点:
CoT:思维链(Chain of Thought)对于大语言模型来说已经慢慢成了基本技能,尤其是推理模型,高于人类平均水平,如果你明确知道最优步骤,就写上,不确认就让模型写,不满意就让模型改进,还不满意就新开会话或者换模型再试试。