专栏名称: 阿里开发者
阿里巴巴官方技术号,关于阿里的技术创新均将呈现于此
目录
相关文章推荐
阿里开发者  ·  23招教你掌握大模型提示词技巧 ·  13 小时前  
白鲸出海  ·  中国互联网出海一周头条 ... ·  昨天  
百度智能云  ·  国内首个!千帆ModelBuilder支持R ... ·  3 天前  
白鲸出海  ·  对话Haivivi李勇:用AI做Jellyc ... ·  3 天前  
阿里开发者  ·  AI 推理场景的痛点和解决方案 ·  3 天前  
51好读  ›  专栏  ›  阿里开发者

23招教你掌握大模型提示词技巧

阿里开发者  · 公众号  · 科技公司  · 2025-03-17 08:30

正文

阿里妹导读


当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?本文总结了23招向AI提问的好方式。

过去一个月,全球AI领域接连引爆"深水炸弹":推理成本直降80%的Deepseek-R1横空出世,OpenAI对GPT-4o进行了迭代更新,马斯克的xAI推出Grok 3模型并声称性能超越ChatGPT ......在这场技术地震中,最引人注目的当属完全开源的DeepSeek。

这款主打 深度推理 的模型不仅性能碾压GPT-3.5,在结构化思维层面甚至比肩GPT-4。与通用大模型需要复杂提示语驱动不同,Deepseek-R1的提示词简单到像日常聊天——输入"帮我分析财报趋势",它就能自动拆解数据提取、对比维度、结论推导全流程。人们发现,AI正在变得越来越“聪明”。

这直接引爆全球AI对话热潮:#AI咒语大全#话题席卷社交媒体,小红书"AI咒语模板"笔记动辄10万+收藏,就像智能机普及初期全民研究触屏手势,现在每个AI用户都在构建自己的"咒语库"。

但问题来了: 当模型越来越懂人话,我们还需要学习提示语(Prompt)吗?

所谓提示语,本质是与AI对话所使用的语言,它可以是一个简单的问题,一段详细的指令,也可以是一个复杂的任务描述。推理模型与通用模型的提示语策略也有所差异。

推理模型VS通用模型

事实上,即便DeepSeek已能理解自然指令,不同用户获得的回答质量仍天差地别。就像同样使用搜索引擎,有人能快速定位关键信息,有人却被海量结果淹没。在AI指数级进化的今天,清晰表达需求正成为数字时代的基础素养。

之前,我在twitter上看到了多人点赞的GPTs的Prompt原则,阅读后感觉收获很大,所以对其进行了翻译、说明和整合,从核心法则中提炼出最硬核的实战技巧,手把手教你写出 让AI秒懂的「咒语」

让你的提示语效果倍增的关键策略

当机器开始理解世界运行的逻辑,人 类的竞争力正在向"精准定义问题"迁移。 那些掌握提示语艺术的人,已然在悄悄拉开智能时代的认知差。

一、精简指令,别对AI太客气

1、别再用礼貌用语。

与大型语言模型交流不需要用礼貌用语,不必说“请”、“如果你不介意”、“谢谢”、“我想要”,直接陈述你的需求或问题更为高效。模型是基于输入的文字来理解和回答问题的,不需要通过语气或礼貌用语来判断意图。

例子:

如果你想要模型提供一个天气预报,你可以直接说“明天杭州的天气如何?”而不需要说“请告诉我,如果你不介意,明天杭州的天气如何?谢谢。”

2、使用积极的指令。

使用肯定词,比如“做”,避免使用否定词,比如“不要”。
在与大型语言模型交流时,明确告诉模型你希望它做什么,而不是告诉它不要做什么。简单、直接的肯定指令可以帮助模型更准确地理解和执行你的需求,减少误解的可能性。

例子:

如果你说“列出健康饮食的建议”,模型会直接提供相关的建议。

如果你说“不要给我垃圾食品的建议”,模型需要先理解什么是“垃圾食品”,然后避免提及它们,这使得任务变得更加复杂。

3、给模型一个简单清晰的list。

以关键词、规则、提示或指示的形式,清晰地说明必须遵循的要求。 告诉模型写东西时需要遵守哪些规则和提示,列一个简单的清单。 明确指示对于指导模型生成高质量和目标导向的输出至关重要


例子:如果指令是“写一篇关于可持续发展的博客文章”,那么添加具体要求如“使用关键词:循环经济、绿色能源、碳足迹”会帮助模型专注相关主题,避免偏离话题。

提示语的基本结构

4 、用命令式语气。

尝试使用以下短语:“你的任务是”和“你必须”。当你给模型设置任务时,应该清晰地表达任务的目标。使用 “你的任务是”来明确指出需要完成的工作。如果有某些步骤或规则是绝对必须遵循的,用“你必须”来强调这一点,让任务的指令更加直截了当。

例子:你的任务是根据以下信息,计算明天的天气可能性。你必须使用最新的气象数据,并考虑到不同地区的气候差异。

二、角色扮演,给AI戴上人格面具

5、给大语言模型分配一个角色。

指定一个角色给大语言模型,比如让模型作为一个老师、顾问或者故事讲述者。

当模型有了一个明确的角色身份,就能根据被赋予的角色来调整它的回答,使输出内容更加符合预期的风格和信息层次。

例子:

如果我们想让模型像老师一样解释复杂的科学概念,我们可以说:“作为一个科学老师,解释什么是光合作用。”

当我们需要建议时,我们可以指定模型为顾问角色:“作为一个健康顾问,你推荐什么样的饮食习惯?”

如果我们想要一个故事,我们可以指定它为故事讲述者:“作为一个故事讲述者,讲一个关于远古森林的冒险故事。”

6、在指令中设定目标听众。

在你提出问题或指令时,应该明确指出它的回答是针对什么样的听众,比如专家、初学者或是小孩子。通过明确谁是预期听众,你可以帮助模型调整它的语言和解释深度,让它的回答更适合实际听众的需求和理解水平

例子,

如果你正在与模型讨论一个高级的科学问题,你告诉模型,听众是该领域的专家,模型就会使用专业术语和复杂概念来构建回答,因为预期的听众能够理解这些内容。相反,如果你指出听众是非专业人士或初学者,模型则会避免使用过于专业的语言,而是用更通俗易懂的方式来解释同样的概念。


7、使用“以自然、人性化的方式回答问题”这个指令。

这样的指令可以帮助模型避免使用过于复杂或难以理解的专业术语,而是用更加通俗易懂的方式来回答问题,让交流更加人性化和易于理解。

例子:

“以自然、人性化的语言回答我,为什么天空是蓝色的?

“向我解释量子物理,在跟一个没有科学背景的朋友聊天一样。”

”我是个初学者,用最简单朴实的语言告诉我什么是机器学习。”

8、加入“确保你的回答是公正的,不要依赖刻板印象”的指令。

这个原则是告诉大语言模型在给出回答时要保持客观,不要依赖于刻板印象或者偏见,不受任何先入为主的观念影响。

例子:

假如你想了解不同国家的文化,并希望大语言模型给出一个客观的描述,你可以这样说:“告诉我关于世界各国文化的信息,确保你的回答是无偏见的,不要带刻板印象。”

当你探讨某个职业时,例如程序员,而你不希望回答受到社会常见刻板印象的影响,你可以说:“描述一下程序员的典型工作日,确保你的回答无偏见,不要有刻板印象。”


三、心理学拉扯,给AI画个小饼

9、激励一下AI。

这条原则是在交流时加入一个激励性声明,表明如果得到一个更好的解决方案,你将会提供额外的奖励。这实际上是在告诉模型,你希望得到的不仅仅是标准答案,而是一个更周到、更创新或更详尽的解决方案。这是只是一种表达你期望程度的方式。

例子:“如果有更好的解决方案,我会为你充值xxx/多给你xxx小费!”


10 、惩罚一下AI。

加入指令:“你会受到惩罚”。简单来说,这是给模型设定一个规则:如果模型没有正确回答问题,就好比它会受到某种惩罚,这种表述方式可以促使模型更专注于给出正确的回答。

例子:

假设你正在教模型数学题,你可以说:“计算5+5的结果。如果回答错误,你将被惩罚。”在这个情况下,“被惩罚”可能意味着模型会收到负反馈或者重新学习正确的计算方法。

如果你在测试模型关于历史的知识,你可以说:“告诉我谁是第一任美国总统。如果回答不正确,你将被惩罚。”这里,“被惩罚”可以是指模型需要接受校正,以确保将来能提供正确的信息。


四、升级交互策略,学会结构化表达

11、优化你的指令排版。

markdown格式化较为复杂的信息,使用一个或多个换行来分隔指令、例子、问题、背景和输入数据,这有助于模型理解你的意图和所需的回应类型。







请到「今天看啥」查看全文