专栏名称: 黄建同学
数码博主 超话主持人(ChatGPT超话) 头条文章作者 我的学习笔记,关注AI+新能源
目录
相关文章推荐
爱可可-爱生活  ·  【[20星]Compose-RL:一个用于强 ... ·  昨天  
爱可可-爱生活  ·  【[38星]Physics-IQ: ... ·  昨天  
爱可可-爱生活  ·  晚安~ #晚安# -20250118222410 ·  2 天前  
宝玉xp  ·  这谁写的,太损了 -20250118142435 ·  2 天前  
51好读  ›  专栏  ›  黄建同学

当八卦读了-20250117100442

黄建同学  · 微博  · AI  · 2025-01-17 10:04

正文

2025-01-17 10:04

[二哈]当八卦读了
这个推测很有意思:OpenAI 和 Anthropic 已经训练出了 GPT-5 级别的模型,但是他们都选择了“雪藏”,因为模型能力虽然强,但是运营成本太高,更经济的做法是用 GPT-5 蒸馏出 GPT-4o/o1/o3 这样成本更低性价比更高的模型。

蒸馏可以在不显著增加推理成本的情况下增强模型性能,这正好解决了 Bloomberg 点出的主要问题。Anthropic 之所以不发布 Opus 3.5,一方面是因为它没有想象中惊艳;另一方面是因为它在内部用途(给别的模型当教师)反而更有价值。(Dylan 说这也是为什么开源社区能那么快追上 GPT-4——因为他们直接挖了 OpenAI 金矿里产出的“金子”。)

GPT-5 就像一个隐居山林的高人,不直接下山跟我们见面,却在暗中培养弟子,而那座山就是他们的大型数据中心。无论我们看不看见这位“老隐士”,却都会感受到他的智慧所带来的影响。

《这则关于 GPT-5 的传言将改变一切 [译]》网页链接