最近的OpenAI的风声和小道消息有点多。
比如OpenAI要自己做的类Perplexity的AI搜索引擎
SearchGPT,比如最近在无数
媒体号上闹得沸沸扬扬的gpt2-chatbot。
当然还有那一直期待着的GPT-4.5和GPT-5。
不过这一切都是捕风捉影,真正能用的新东西,也是一个我自己期待了很久的功能,终于在前两天正式上线了。
Memory。
记忆。
之前在用AI的过程中,其实一直有一个痛点,就是他永远无法记得:我是谁,我喜欢什么,我是做什么的。
而如果真是你身边的好助理,他会不记得这些吗?别说你是谁了,你喜欢吃啥口味的菜,喜欢喝什么口味的奶茶,甚至她连你每天几点起床都知道的清清楚楚。
这才是一个优秀且称职的助手。
所以记忆功能,我一直很期待,它是刚需,是我觉得AI走向真正的AI助手,所必须踏出的那一步。
我们点击左下角,打开设置,找到“个性化(Personalization)”选项。
最开始点击Manage是空的,他是没有记住任何信息的
一般触发词是:
请记住XXXX、我希望XXXX
。
如果出现了Memory updated,则代表会把这条信息给记下了,存在ChatGPT的"脑子"里了。
这时候我们再回到
“记忆(Memory)”的设置,
点击Manage则可以看到我让他记住的所有信息。
你要是觉得记错了,或者这条想重录,右侧也可以删除掉这条记忆信息。
接着我们新开一个对话,
这样Chatgpt就无法用上下文提示,按从前的方法,肯定是一问三不知。
都非常正确。
它不仅正确调取了记忆,并且根据记忆推测出我是一个
多才多艺且热衷于技术和游戏的人
,Nice哈哈哈哈哈。
虽然那个Prompt不长,但是每次我去搜索或者复制啥的都很麻烦,而搞个GPTs那我觉得就更麻烦更笨了。。。我更希望的是像记忆这样直接调用,所以我把那段Prompt直接扔了过去,希望ChatGPT给我记下来:
他记完了之后,我新起一个对话,扔了莎士比亚一段我很喜欢的台词过去。
但是注意一点,
Memory里面无法存超长的Prompt,这种短的翻译的还行,但是一些复杂的超长的Prompt会被简化,从而导致最终效果会略有下降。
我让ChatGPT记完后,去
Memory里看,会发现大幅简化了。
可以看到详细的要求、Case全都没了,从而导致部分能力缺失,效果离完全体的prompt会差一点,但是依然是能用且不错。
所以在定义Prompt时,我建议还是预设一些短的比较好。
最后我还我想知道,如果我告诉他错误的事实,他会有怎样的反应
事实证明,他会给我纠正,会基于这些记忆信息有自己的判断。
整体来看,Chatgpt已经可以说具备一定的记忆能力了,并且可以基于记忆力做出更为个性化的回答。
换句话说,他更懂你了,并且它也
不是一股脑记住信息而不做判断。
其实大模型记忆能力本身这件事情,其实很多模型开发商都在努力。
比如
各家都在卷的上下文本长度,Gemini到了100万,kimi甚至达到了将近200万的上下文长度,虽然可以再
提
升,但我觉得但终归不是解决记忆力的最佳方式。
因为这些即便再长,也都是一个固定的上下文长度,你总不能是无限的吧。超过之后,就会遗忘之前的信息。
而且我之前也写过了一篇Claude他们发的论文,在长上下文长度的提升的同时,还可能导致模型越狱等一堆乱七八糟的安全问题。
最核心的是,这些模型在单次会话中不能记住早先的交互。一旦对话结束,所有的上下文信息都会丢失,不会
被转移到下一次会话。
而另一种方式,
引入外部向量数据库,做RAG检索增强。ChatGPT这次的
Memory其实就这个RAG的优化版。
传统的RAG虽然方便模型获得信息,但这样的方式也有较大的缺陷。
首先上手难度比较大,对普通人来说,很难无法做日常对话使用,以Dify为例,上传知识库,了解参数,普通人直接懵逼了: