专栏名称: 机器学习研究组订阅
连接人工智能技术人才和产业人才的交流平台
目录
相关文章推荐
宝玉xp  ·  谢谢支持,来自我昨天写的《AI ... ·  昨天  
量子位  ·  华为昇腾推理DeepSeek-R1,性能比肩 ... ·  昨天  
烂板套利  ·  AI智能体(AI Agent)概念股梳理(附股) ·  2 天前  
烂板套利  ·  AI智能体(AI Agent)概念股梳理(附股) ·  2 天前  
爱可可-爱生活  ·  【RL_Reasoning_Writing_ ... ·  3 天前  
爱可可-爱生活  ·  【[74星]RapidUDF:高性能C++表 ... ·  3 天前  
51好读  ›  专栏  ›  机器学习研究组订阅

OpenAI圣诞第9天:满血o1 API放出,开发者大狂欢!实时API升级音频token暴降60%

机器学习研究组订阅  · 公众号  · AI  · 2024-12-18 21:18

正文

圣诞日第九天,OpenAI向第三方开发者开放了最强模型o1。
API中的o1,可支持函数调用、开发者消息、结构化输出和视觉功能。
同时,在开发语音类App的API中,集成了更先进的GPT-4o版本,成本直降60%!
另外,用户和开发者可根据自己的偏好,用「偏好微调」轻松定制模型了。
Day 9,是名副其实的「对开发者最有用的一天」。
与此同时,团队还进行了了一场在线AMA,解答了开发者的诸多问题。

Day 9,给开发者的新功能


今天,OpenAI将正式在API中推出o1满血版。
自从9月推出o1-preview之后,开发者们已经在API上构建出了大量很酷的应用程序,比如智能体、客户支持、财务分析等,同时它的编程技能也很出色。
但开发者们反馈说,API中缺乏了一些核心功能,因此,OpenAI今天会一并推出这些新功能。
此外,还有一些小更新,比如推理强度参数。这是一个新的参数,告诉模型去花多少时间思考。
在解决简单问题时,这个参数可以节省许多时间和成本,在需要更多算力的复杂问题上,就可以花费更多资源。

开发者消息,视觉输入功能,函数调用功能

开发者消息功能,是系统消息的一种新形式,实际上是OpenAI指令层次结构工作的一部分。
它会用来教模型,按照什么顺序遵循哪种指令。因此,开发者可以完全控制开发者消息来引导模型。
此外,OpenAI还在API中推出了视觉输入功能。
很多用户强烈呼吁这个功能上线,可以想见,它在制造业、科学等领域,会提供非常大的帮助。
在demo中,研究者给了模型一份表格的照片扫描件,有若干张。
注意,研究者填写的时候,故意填错了一些数据。o1是否能检测出这些错误呢?
在开发者消息中,研究者要求模型找出错误。如果要正确找出,必须其他几张照片的扫描。
果然,模型注意到了某一行的算术错误,还注意到标准扣除额不准确这种非常细节的问题。
改正错误后,研究者提问道:如果我的应税收入是这个,我要缴纳多少所得税?
可以看到,o1在右侧提供了一组函数。

比如其中一个函数,就是以JSON架构呈现
这些操作都在应用程序后端完成,用户看不到任何函数调用或来自API的响应。
此外,研究者还定义了一个JSON架构,来规范响应的格式。
在上面这个「表单修正」架构中,包含了一组修正,每个修正都包含错误原因等内容,这样就可以向用户展示哪里出错了。
甚至还能为PDF渲染一个用户界面,高亮出出错的地方。在我们不想从模型中渲染Markdown时,结构化输出特别有用,它让我们可以直接自动提取JSON。
最终,模型正确输出了修正结果。

API使用场景评估


针对API用例,OpenAI研究者进行了一些评估。
首先,在函数调用功能上,新的o1模型在函数调用能力上显著优于GPT-4。
这包含了两个关键部分——在需要时调用正确的函数,以及在不需要时避免调用函数。
另外,我们还可以将函数调用与结构化输出结合。
可以看到,o1比起GPT-4,同样表现出色。
在结构化输出中,o1在评估中也显著优于其他模型。
这意味着,模型在指令遵循上的表示更佳,在给出特定条件约束时,偏离预期的可能性也更低。
在编码方面,o1在Livebench评估中,要远远优于o1-preview和GPT-4o,这是一个巨大的进步。
而在AIME评估中,o1再次显著优于o1-preview。
有趣的是,最右侧是带有结构化输出的o1。
在构建结构化输出时,研究者希望确保模型在使用此功能和未使用时表现同样出色。
可以看到,即使启动了此功能,模型的推理能力依旧保持。因此我们可以放心在应用程序中使用,不必担心结果的准确性。
另外,模型在延迟上的变化也很有趣。
o1使用的推理Token,比o1-preview少了60%,因此对应用程序来说,它的运行速度更快、成本更低。
最后,研究者强调,抱歉暂时不会在API中推出o1 Pro,虽然此类请求非常多。
从今天起,函数调用、编码、结构化输出、开发者消息和图像理解,就会向第五级用户开放了。几周时间内,将覆盖到所有用户。

实时API,Her可以自己构建了


Realtime API(实时API)在今年10月初,正式放出了公测版。
在OpenAI伦敦开发者日上,所有人或许早已对其强大的实时语音能力有所了解。现场,开发者体验主管Romain Huet秀如何通过实时API订购派。
想象一下,你可以直接通过这个API构建ChatGPT高级语音模式了!不论是订餐AI助手,还是旅游AI助手等等,有了它就可以实现许多非常酷炫的功能。
它能够支持网络传输协议WebSocket,因此,你可以通过服务器进行通信,发语音并接受响应。
而在今天,OpenAI正式宣布实时API将支持WebRTC——专为互联网而生。
我们常见的视频会议,或者低延迟的视频流传输,都采用了WebRTC。它能够实时处理互联网不断的变化,比如动态调整比特率、进行回声消除。
现在,实时API也能共享这些优势了。假设你要构建一个应用程序,能省去不少功夫,可以直接运行。
接下来,OpenAI研究人员展示了一个demo,如下是HTML代码,包含了一个音频元素,一个对等连接(peer connection),它代表着你和实时API之间的一对一连接。
演示的重点,就是创建这个对等连接。当实时API向你发送音频时,把它放入到音频元素中。
紧接着,就是捕获麦克风输入的声音,并将其添加到对等连接中。首先,传输一个音频流到OpenAI,然后在设置好对等链接后,执行一个offer/answer操作。
offer/answer的作用是收集本地的所有信息。开发者通过HTTP POST发送这些信息,然后模型会作出响应。
然后,WebRTC 会为你处理所有细节,就不需要再去操心拥塞控制、音频捕捉等等。
那么,这个与之前WebSocket集成,有什么区别?
前者代码行数会大大拉长,达到200到250行,而且,在此基础上还会遇到其他的问题,比如处理反压(back pressure)等等。
接下来,运行一行代码,来看看它实际的样子。
音频元素——「圣诞节还有多少天?圣诞节是12月25日,而今天是12月17日。这意味着离圣诞节还有8天」。
剩余所做的,就是将其代码复制粘贴12行代码,执行脚本,就完成了。
这里,你唯一需要修改的就是 API Token,然后你就可以下载这段代码并运行。
OpenAI官方已经放出了所有代码,大家都可以随时构建。
令人惊喜的是,研究员请出了一位小伙伴——小鹿,它里面有一个微型控制器,大小如同一枚硬币。
插上电源之后,小鹿突然间活了,「圣诞快乐!你们在谈论什么」?
研究人员回复道,「我们正在讨论如何将WebRTC集成到实时API中」。
小鹿表示,「这听起来对我来说有点复杂。我们能不能聊点更有趣的事情,比如送礼物」?
接下来,研究人员和小鹿完成一轮精彩对话,完全展现了实时API的强大应用,而这只是所有用例的冰山一角。
这样,你就可以将其配置在任何可以穿戴的设备上,比如眼镜、摄像头、麦克风等等。而且,全程也只需30-45分钟。
此外,OpenAI还对实时API做了其他的更新。
从现在开始,GPT-4o音频Token将比以前便宜 60%,并在API中提供了对4o-mini的支持,其音频音频Token成本降低到当前价格的1/10。
其次,他们还为实时API推出了对Python SDK 的支持,使集成更加简单。
最后,还有一些API改进,让开发者更容易使用函数编码和安全防护机制。

偏好微调和定制化


关于微调和定制化,是开发者非常重要的一项功能,能够针对使用场景去定制模型。
直播现场,OpenAI官宣了全新的微调方法——偏好微调(preference fine-tuning)。通过使用直接偏好优化(DPO)能帮助开发者创建更符合用户偏好的模型。
具体来说,它是在比较不同回答中定制模型,而非使用固定的目标。
过去几个月,OpenAI火力全开,但微调API已经发布有一年的时间了,这次究竟有什么不同?
目前,在API中,他们推出了监督微调、以及前几天新推出的强化微调(RFT)。
在监督微调中,开发者需要提供模型需要的精确输入和输出,比如创建一个聊天机器人,就需要提供用户的消息以及精确的回复。
而在偏好微调中,有所不同。
你不需要提供精确的输入和输出,仅需要提供一对一响应,其中一个回应偏好度比另一个更强。
然后,微调过程便会优化模型,让其学会区分这些响应之间的差异。
这些差异可能包括响应格式、风格指南,甚至是一些抽象的特质,比如有用性或创造力。
那么,这种方法有什么样的特定用例场景?
客户支持、内容创作、创意写作等等,尤其是,适用于那些需要考虑语气、风格和创造力的主观任务。
如果在此过程中,开发者认为模型结果过于冗长,或者给出答案并不相关,就可以通过强化偏好的行为,并弱化不偏好的行为,来引导它生成更简洁、更相关的响应。
另一个非常好的使用场景可能是,内容审核或内容管理。
接下来,研究人员演示了如何通过API实现简单微调,先进入微调页面,点击「创建微调」选项,会看到一个新方法的下拉菜单。
选择「直接偏好优化」方法,然后在选择基础模型——GPT-4o。最后,需要做的就是上传数据。






请到「今天看啥」查看全文