当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?本文总结了23招向AI提问的好方式。
过去一个月,全球AI领域接连引爆"深水炸弹":推理成本直降80%的Deepseek-R1横空出世,OpenAI对GPT-4o进行了迭代更新,马斯克的xAI推出Grok 3模型并声称性能超越ChatGPT ......在这场技术地震中,最引人注目的当属完全开源的DeepSeek。
这款主打
深度推理
的模型不仅性能碾压GPT-3.5,在结构化思维层面甚至比肩GPT-4。与通用大模型需要复杂提示语驱动不同,Deepseek-R1的提示词简单到像日常聊天——输入"帮我分析财报趋势",它就能自动拆解数据提取、对比维度、结论推导全流程。人们发现,AI正在变得越来越“聪明”。
这直接引爆全球AI对话热潮:#AI咒语大全#话题席卷社交媒体,小红书"AI咒语模板"笔记动辄10万+收藏,就像智能机普及初期全民研究触屏手势,现在每个AI用户都在构建自己的"咒语库"。
但问题来了:
当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?
所谓提示语,本质是与AI对话所使用的语言,它可以是一个简单的问题,一段详细的指令,也可以是一个复杂的任务描述。推理模型与通用模型的提示语策略也有所差异。
推理模型VS通用模型
事实上,即便DeepSeek已能理解自然指令,不同用户获得的回答质量仍天差地别。就像同样使用搜索引擎,有人能快速定位关键信息,有人却被海量结果淹没。在AI指数级进化的今天,清晰表达需求正成为数字时代的基础素养。
之前,我在twitter上看到了多人点赞的GPTs的Prompt原则,阅读后感觉收获很大,所以对其进行了翻译、说明和整合,从核心法则中提炼出最硬核的实战技巧,手把手教你写出
让AI秒懂的「咒语」
让你的提示语效果倍增的关键策略
当机器开始理解世界运行的逻辑,人
类的竞争力正在向"精准定义问题"迁移。
那些掌握提示语艺术的人,已然在悄悄拉开智能时代的认知差。
与大型语言模型交流不需要用礼貌用语,不必说“请”、“如果你不介意”、“谢谢”、“我想要”,直接陈述你的需求或问题更为高效。模型是基于输入的文字来理解和回答问题的,不需要通过语气或礼貌用语来判断意图。
如果你想要模型提供一个天气预报,你可以直接说“明天杭州的天气如何?”而不需要说“请告诉我,如果你不介意,明天杭州的天气如何?谢谢。”
使用肯定词,比如“做”,避免使用否定词,比如“不要”。
在与大型语言模型交流时,明确告诉模型你希望它做什么,而不是告诉它不要做什么。简单、直接的肯定指令可以帮助模型更准确地理解和执行你的需求,减少误解的可能性。
如果你说“列出健康饮食的建议”,模型会直接提供相关的建议。
如果你说“不要给我垃圾食品的建议”,模型需要先理解什么是“垃圾食品”,然后避免提及它们,这使得任务变得更加复杂。
以关键词、规则、提示或指示的形式,清晰地说明必须遵循的要求。
告诉模型写东西时需要遵守哪些规则和提示,列一个简单的清单。
明确指示对于指导模型生成高质量和目标导向的输出至关重要
例子:如果指令是“写一篇关于可持续发展的博客文章”,那么添加具体要求如“使用关键词:循环经济、绿色能源、碳足迹”会帮助模型专注相关主题,避免偏离话题。
4
、用命令式语气。
尝试使用以下短语:“你的任务是”和“你必须”。当你给模型设置任务时,应该清晰地表达任务的目标。使用
“你的任务是”来明确指出需要完成的工作。如果有某些步骤或规则是绝对必须遵循的,用“你必须”来强调这一点,让任务的指令更加直截了当。
例子:你的任务是根据以下信息,计算明天的天气可能性。你必须使用最新的气象数据,并考虑到不同地区的气候差异。
5、给大语言模型分配一个角色。
指定一个角色给大语言模型,比如让模型作为一个老师、顾问或者故事讲述者。
当模型有了一个明确的角色身份,就能根据被赋予的角色来调整它的回答,使输出内容更加符合预期的风格和信息层次。
例子:
如果我们想让模型像老师一样解释复杂的科学概念,我们可以说:“作为一个科学老师,解释什么是光合作用。”
当我们需要建议时,我们可以指定模型为顾问角色:“作为一个健康顾问,你推荐什么样的饮食习惯?”
如果我们想要一个故事,我们可以指定它为故事讲述者:“作为一个故事讲述者,讲一个关于远古森林的冒险故事。”
6、在指令中设定目标听众。
在你提出问题或指令时,应该明确指出它的回答是针对什么样的听众,比如专家、初学者或是小孩子。通过明确谁是预期听众,你可以帮助模型调整它的语言和解释深度,让它的回答更适合实际听众的需求和理解水平
例子,
如果你正在与模型讨论一个高级的科学问题,你告诉模型,听众是该领域的专家,模型就会使用专业术语和复杂概念来构建回答,因为预期的听众能够理解这些内容。相反,如果你指出听众是非专业人士或初学者,模型则会避免使用过于专业的语言,而是用更通俗易懂的方式来解释同样的概念。
7、使用“以自然、人性化的方式回答问题”这个指令。
这样的指令可以帮助模型避免使用过于复杂或难以理解的专业术语,而是用更加通俗易懂的方式来回答问题,让交流更加人性化和易于理解。
例子:
“以自然、人性化的语言回答我,为什么天空是蓝色的?
“向我解释量子物理,在跟一个没有科学背景的朋友聊天一样。”
”我是个初学者,用最简单朴实的语言告诉我什么是机器学习。”
-
8、加入“确保你的回答是公正的,不要依赖刻板印象”的指令。
这个原则是告诉大语言模型在给出回答时要保持客观,不要依赖于刻板印象或者偏见,不受任何先入为主的观念影响。
例子:
假如你想了解不同国家的文化,并希望大语言模型给出一个客观的描述,你可以这样说:“告诉我关于世界各国文化的信息,确保你的回答是无偏见的,不要带刻板印象。”
当你探讨某个职业时,例如程序员,而你不希望回答受到社会常见刻板印象的影响,你可以说:“描述一下程序员的典型工作日,确保你的回答无偏见,不要有刻板印象。”
9、激励一下AI。
这条原则是在交流时加入一个激励性声明,表明如果得到一个更好的解决方案,你将会提供额外的奖励。这实际上是在告诉模型,你希望得到的不仅仅是标准答案,而是一个更周到、更创新或更详尽的解决方案。这是只是一种表达你期望程度的方式。
例子:“如果有更好的解决方案,我会为你充值xxx/多给你xxx小费!”
10
、惩罚一下AI。
加入指令:“你会受到惩罚”。简单来说,这是给模型设定一个规则:如果模型没有正确回答问题,就好比它会受到某种惩罚,这种表述方式可以促使模型更专注于给出正确的回答。
例子:
假设你正在教模型数学题,你可以说:“计算5+5的结果。如果回答错误,你将被惩罚。”在这个情况下,“被惩罚”可能意味着模型会收到负反馈或者重新学习正确的计算方法。
如果你在测试模型关于历史的知识,你可以说:“告诉我谁是第一任美国总统。如果回答不正确,你将被惩罚。”这里,“被惩罚”可以是指模型需要接受校正,以确保将来能提供正确的信息。
11、优化你的指令排版。
markdown格式化较为复杂的信息,使用一个或多个换行来分隔指令、例子、问题、背景和输入数据,这有助于模型理解你的意图和所需的回应类型。