专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
目录
相关文章推荐
最高人民检察院  ·  两个村民小组结了三十多年的“疙瘩”解开了…… ·  23 小时前  
新技术法学  ·  法律AI基础|(五)提示词革命:场域共振式 ·  昨天  
新技术法学  ·  法律AI基础|(五)提示词革命:场域共振式 ·  昨天  
最高人民法院  ·  守望 ·  昨天  
最高人民检察院  ·  第九届全国检察“三微”优秀作品展播|微动漫: ... ·  2 天前  
51好读  ›  专栏  ›  AINLP

微软公布OpenAI闭源模型参数!4o-mini 8B!

AINLP  · 公众号  ·  · 2025-01-03 18:21

正文

大家新年好!祝大家新的一年薪资歘欻的涨,论文嗖嗖的发!

没错,就在前几天,Microsoft发布的arxiv里竟然写了OpenAI闭源的大模型的具体参数!(消息来自:xhs博主 Scarlett_WH)

论文:MEDEC: A Benchmark for Medical Error Detection and Correction in Clinical Notes
链接:https://arxiv.org/pdf/2412.19260

里面具体公布了:

  • GPT-4 ~1.76T
  • GPT-4o ~200B
  • GPT-4o mini ~8B
  • o1 preview ~300B
  • o1 mini ~ 100B

这里有1个平常震惊是GPT-4 ~1.76T是真的大,有卡就是好;1个目瞪口呆的震惊GPT-4o mini ~8B,嗯哼?

再次怀疑微软的可信度,毕竟之前有过一次... 但是应该不会再来一次了吧。且信其为真吧,但是这也太不夸张了吧,还是难以置信,难道是这个8B只是激活的参数?或者用的MoE,这只是一个expert的参数?啥蒸馏技术这么nb?

主要是4o mini的表现肯定不止8B啊,你们认为呢?用过的同学肯定能体会到,这个和qwen和llama的7B根本不是一个档次的。

如果是真的,那是真nb!性价比之王!

以Gemini 1.5 Pro为对比举例:

4o-mini比Gemini 1.5 Pro强
4o-mini却比Gemini 1.5 Pro便宜40多倍...

嗯,是的,便宜40多倍~

希望微软不要再公布错参数了~

小模型又看到了希望!

快来留言谈谈你的看法吧~



进技术交流群请添加AINLP小助手微信(id: ainlp2)

请备注具体方向+所用到的相关技术点





请到「今天看啥」查看全文