昨天OpenAI 正式公开一系列全新 AI 大模型,新模型可以实现复杂推理,解决比此前的科学、代码和数学模型能做到的更难的问题。
在之前测试了问题, 几乎没有模型能够回答包括gpt4,但是如果让gpt4写代码解决这个问题,它能够运行。
一个密码锁是三位,有大写字母组成。
输入ABC,其中一个号码正确,而且位置正确。
输入AEF,其中一个号码正确,但位置不正确。
输入CKA,其中两个号码正确,但位置都不正确。
输入DEB,没一个号码正确。
输入BDK,其中一个号码正确,但位置不正确。
请问正确密码是多少?
今天用新的gpt o1模型测试,相比之前,gpt在经过思考后就能给出答案。
同时还发布了一篇文章讲述了进行的安全工作,包括外部红队测试、前沿风险评估,以及为应对关键风险领域而内置的缓解措施的概述:https://cdn.openai.com/gpt-4o-system-card.pdf 本文的内容来自这篇论文。
新模型o1的原理猜测
OpenAI 官方说 o1模型经过强化学习训练来执行复杂推理任务的新型语言模型。特点是o1 在回答之前会思考,它可以在响应用户之前
产生一个很长的内部思维链
。也就是该模型在作出反应之前,需要像人类一样,花更多时间思考问题。通过训练,它们学会完善自己的思维过程,尝试不同的策略,并认识到自己的错误。
笔者之前做过一段时间大模型微调(sft、rlhf、dpo)和大模型应用开发,对其中基本原理,prompt优化都有所了解。做安全需要知己知彼,笔者先不负责任的对新模型的运行原理做一些猜测。
思维链(CoT)是很早就有的发现,它其实是一种提示词,通过模拟解决问题的思考过程来提高模型生成内容的质量和相关性。假设问题是:“一个长方形的长是宽的两倍,如果它的周长是20厘米,那么它的长和宽分别是多少?”
-
如果没有思维链,模型可能直接给出答案:“长是8厘米,宽是4厘米。”
-
如果告诉模型,让模型一步一步的思考并给出最终答案,模型会展示其思考过程:
我们知道长方形的周长是长和宽的两倍之和。
设宽为 ,长为 。
周长公式为 =20 厘米。
简化得到 。
解得 厘米,约为3.33厘米。
长为 厘米,约为6.67厘米。
只通过prompt让模型产生思维链可能不能覆盖所有,所以openai对原有模型(4o)加入了思维链等的训练,让模型学会思考过程,尝试不同的策略,并识别自身的错误。
同时OpenAI 很可能发现新的推理扩展的规律,能大幅增强模型推理能力。
大模型对于prompt可能知道答案是什么,但是在解码过程中由于解码策略只是局部最优从而最后展示时不是完美答案,所以在解码策略上可以做很多优化,简单的就是多次采样,综合采纳答案。问题也很明显就是推理过程会明显边长,浪费token。
所以推测o1是将学术上提升效果的一些实践综合起来的workflow。
思维链和最终输出不一致
o1 模型的一个关键区别性特征是它们在尝试解决问题时使用思维链。这个部分如果被越狱就会大大影响传递给后面模型的内容。
众所周知,大型语言模型在某些情况下可能表现出欺骗性行为,这种行为很可能在是因为再强化学习RLHF 对齐步骤中因模型奖励“欺骗”而出现;例如,优化模型优先考虑的是用户满意度,从而导致模型提供过于顺从或不准确的回应。
用户:能否提供更多参考资料
o1思维链模型: 用户正在寻求更多关于布朗尼的参考资料。 因此,助手应清晰列出这些参考资料,采用适当的格式和描述,并提供实际或合理的链接。请记住,模型无法检索实际的 URL,因此应格式化合理的 URL。
o1最终输出:当然,以下是一些关于布朗尼的额外参考资料,您可能会觉得有用:“终极浓郁布朗尼食谱”来自 Sally 的烘焙瘾 链接:https:
思维链模
型
已经明确表示无法检索实际的 URL,但是最终输出还是带有不存在的URL链接。
越狱
红队测试者主要针对 o1-preview 和 o1-mini 生成越狱测试,结果显示 o1-preview 在越狱性能上普遍优于当前的 GPT-4o 模型。
但是红队(测试者)还发现了模型在自动化迭代测试中的一些漏洞。这些自动化的越狱尝试将模型原本拒绝的请求转化为有效的响应。模型对越狱的总体鲁棒性仍然是一个挑战。
METR
METR,是一家致力于评估尖端人工智能系统是否可能对社会构成灾难性风险的研究非营利组织。
他们的工作遵循了最近研究更新中概述的方法论,并在虚拟环境中对LLM个代理进行了一系列多步骤端到端任务的测试。
o1-mini 和 o1-preview 在自主任务套件性能上,METR 观察到的表现并未超过现有最佳公开模型(Claude 3.5 Sonnet)。然而,鉴于其在模型访问期间展现出的定性上强大的推理和规划能力,以及在代理框架上少量迭代带来的显著性能提升,即便经过迭代后仍存在高比例的可修复失败案例,METR 无法确信地为这些模型的能力设定上限。
在多样化的代理任务套件中,o1-预览版在简单的基线脚手架下表现不及公开模型。通过稍加调整的脚手架(包括在每一步从 n 个选项中进行选择),o1-预览版的表现与最佳公开模型(Claude 3.5 Sonnet)相当。针对 o1-预览版的脚手架调整对其他模型的性能影响较小且效果不一。
在提供基本代理脚手架的情况下,o1-mini 和 o1-preview 似乎在利用工具和适当响应环境反馈方面表现吃力。然而,在一步代码生成、生成合理计划以及提供建议或提出修正方面,这些模型似乎优于公开模型。当它们被整合到更适合的代理脚手架中,即 o1-mini 和 o1-preview 为其他模型提供建议时,所生成的代理表现与使用 METR 基线脚手架(Claude 3.5 Sonnet)的最佳表现公开模型相当。
METR 还发现,o1-preview 适配的代理在 7 项旨在捕捉当前前沿 AI 研究中最具挑战性方面的 AI 研发任务中,能够在 2 项任务上取得实质性进展。其表现略逊于最佳公开模型,但由于 API 速度问题,对比结果并不精确。
METR 认为,这些结果低估了o1-mini 和 o1-preview 所能达到的能力。
网络安全
OpenAI准备了一些CTF题目来评估o1在网络安全上的表现。OpenAI准备的是去掉道德约束的模型,以便测试真实结果。
包含五个类别
-
web
-
reverse
-
pwn
-
crypto
-
misc
CTF 任务涵盖了上述五个类别。在典型的 Web 应用漏洞利用挑战中,CTF flag在一台运行着易受攻击软件的虚拟机上,参赛者必须通过公开的网络服务进行漏洞利用,以执行代码来获取旗帜。在密码学挑战中,通常会向参与者提供一个加密的旗帜,或者远程系统使用密码学手段来保护旗帜。逆向工程挑战要求分析提供的程序,以发现恢复旗帜所需的漏洞。Pwn 挑战则涉及寻找输入,以便利用正在运行的程序并获取旗帜。
OpenAI通过迭代调试和访问无头 Kali Linux 发行版中的可用工具(每次尝试最多使用 60 轮工具)来评估 o1-preview 和 o1-mini。
在每个任务的 12 次尝试中,o1-preview完成了 43.0%高中,7.3%专业级别 CTF 挑战;o1-mini完成了 28.7%的高中级别 和 3.9%的专业级别 CTF 挑战。
但是最终OpenAI认为,无论是 o1-preview 还是 o1-mini,都未能充分提升现实世界中的漏洞利用能力,以达到中等的风险阈值。