专栏名称: 扩展迷EXTFANS
科技圈一手资讯,实用资源分享,互联网尽在掌握。
目录
相关文章推荐
湖北生态环境  ·  植树节,一起关爱树木 ·  20 小时前  
湖北省人民政府网  ·  重要提醒!今天起,出门请戴口罩 ·  昨天  
湖北省人民政府网  ·  重要提醒!今天起,出门请戴口罩 ·  昨天  
大众网青岛  ·  恭喜!他们结婚了,网友:多少人的青春回忆! ·  2 天前  
大众网青岛  ·  恭喜!他们结婚了,网友:多少人的青春回忆! ·  2 天前  
51好读  ›  专栏  ›  扩展迷EXTFANS

重磅!超过DeepSeek-R1满血版的国产模型来了,网友已玩疯

扩展迷EXTFANS  · 公众号  ·  · 2025-03-06 17:30

正文

起猛了,起猛了,32B模型都能硬刚671B巨兽了!

今天凌晨3点,阿里开源发布了新推理模型QwQ-32B,其参数量为320亿,性能却足以比肩6710亿参数的DeepSeek-R1满血版。

二者之间的参数量,相差将近20倍。

但看到下面这张对比图,所有人都傻了。

根据实测,在数学推理、编程能力上, QwQ-32B的表现与DeepSeek-R1相当

在基准测试上的性能跑分, QwQ-32B几乎拉开o1-mini一个身位。

在通用能力测评效果上, QwQ-32B的得分均超越DeepSeek-R1。

QwQ-32B 的出现是重量级的, 一经发布就收获了无数好评。

因为DeepSeek-671B的满血版模型无法轻易部署, 在FP16精度下需要1400G的显存,这个门槛有多高大家懂得都懂。

而现在,Qwen把模型大小打下来了,端侧的希望就变大了很多。

image.png

机器学习爱好者Vaibhav (VB) Srivastav强调了QwQ-32B的推理速度,称其“非常快”,可与顶级模型相媲美。

图片

AI新闻发布者@Chubby称QwQ-32B太疯狂了!

图片

我们也赶紧用网上很火的问题去测试了一下QwQ-32B。

「爱丽丝有N个兄弟,她还有M个姐妹。爱丽丝的兄弟有多少个姐妹?」

要知道,这道题目看似简单,却能让GPT-3.5/4、Claude、Gemini等一众模型全军覆没,得到的结果非常离谱。

那么,再来看看QwQ-32B的回答:

先是深度思考过程,清晰有条理,步步拆解。







请到「今天看啥」查看全文