好问题,我更新原文了//@麦苏子2:上下文完整独立怎么理解宝玉老师,是每次提问问题的前后相关内容再说一次吗(假设前年的背景在前几轮对话中已经说过)
2025 年的三点半提示词技巧
2025 年了,模型能力上升了一个台阶,更不需要去记提示词技巧和框架了,写提示词不再是一个多专业的活,核心就记住三点半:
1. Context:问题所需要的上下文信息,千万别以为模型会读心术,一定要把相关信息都提供;但是长度不要太长,因为长度越长效果越差,多长不同模型有区别,多试试就知道了。
2. Instruction:你想要模型做什么说清楚。如果自己都没想清楚,就先临时开个会话和模型闲聊,让它帮你梳理清楚,梳理清楚指令了再新开会话输入你的指令和上下文。
3. Atom:让你的提示词原子化,这里其实有两点含义:
- 1) 你每次的任务要小,不要想让模型一次完成太多任务
- 2) 上下文完整独立,在你的会话中把这次任务的上下文都提供清楚了
最后还有半点:
CoT:思维链(Chain of Thought)对于大语言模型来说已经慢慢成了基本技能,尤其是推理模型,高于人类平均水平,如果你明确知道最优步骤,就写上,不确认就让模型写,不满意就让模型改进,还不满意就新开会话或者换模型再试试。
***
补充1:
上下文完整独立的意思就是在一次会话中,你包含了AI生成所需要的完整内容,并且确保不会因为 AI 应用程序的能力限制而影响。
以写报告为例,你报告中需要参考资料1,2,3,那么这些参考资料的完整部分或者关键部分要在会话中完整包含。
如果你的参考资料是一个 URL,你的应用程序(比如ChatGPT)是无法访问这个 URL 的,那么它无法有效的把这个 URL 作为上下文的一部分,所以你的上下文就不完整了。
再比如你在前几轮会话中把参考资料放在里面了,但是你持续问答增加会话,到后面的时候,AI 应用程序会因为上下文窗口长度限制,会自作主张帮你把前面的内容砍掉或者摘要,那你后面的会话就缺少上下文了。
判断独立完整的一个标准,就是你的提示词,放到任何模型任何AI应用,信息都是完整的,不会因为 AI 应用的能力(比如URL访问、上下文窗口长度限制)而导致内容缺失。
2025 年了,模型能力上升了一个台阶,更不需要去记提示词技巧和框架了,写提示词不再是一个多专业的活,核心就记住三点半:
1. Context:问题所需要的上下文信息,千万别以为模型会读心术,一定要把相关信息都提供;但是长度不要太长,因为长度越长效果越差,多长不同模型有区别,多试试就知道了。
2. Instruction:你想要模型做什么说清楚。如果自己都没想清楚,就先临时开个会话和模型闲聊,让它帮你梳理清楚,梳理清楚指令了再新开会话输入你的指令和上下文。
3. Atom:让你的提示词原子化,这里其实有两点含义:
- 1) 你每次的任务要小,不要想让模型一次完成太多任务
- 2) 上下文完整独立,在你的会话中把这次任务的上下文都提供清楚了
最后还有半点:
CoT:思维链(Chain of Thought)对于大语言模型来说已经慢慢成了基本技能,尤其是推理模型,高于人类平均水平,如果你明确知道最优步骤,就写上,不确认就让模型写,不满意就让模型改进,还不满意就新开会话或者换模型再试试。
***
补充1:
上下文完整独立的意思就是在一次会话中,你包含了AI生成所需要的完整内容,并且确保不会因为 AI 应用程序的能力限制而影响。
以写报告为例,你报告中需要参考资料1,2,3,那么这些参考资料的完整部分或者关键部分要在会话中完整包含。
如果你的参考资料是一个 URL,你的应用程序(比如ChatGPT)是无法访问这个 URL 的,那么它无法有效的把这个 URL 作为上下文的一部分,所以你的上下文就不完整了。
再比如你在前几轮会话中把参考资料放在里面了,但是你持续问答增加会话,到后面的时候,AI 应用程序会因为上下文窗口长度限制,会自作主张帮你把前面的内容砍掉或者摘要,那你后面的会话就缺少上下文了。
判断独立完整的一个标准,就是你的提示词,放到任何模型任何AI应用,信息都是完整的,不会因为 AI 应用的能力(比如URL访问、上下文窗口长度限制)而导致内容缺失。