专栏名称: 科工力量
中国工业科技新闻的权威观察家
目录
相关文章推荐
人力资源心理学  ·  自从开始用 Deepseek ... ·  昨天  
人力资源管理  ·  这件家居服舒服哭了!好看百搭还显瘦! ·  3 天前  
人力资源管理  ·  2025爆火的“回弹枕”!会呼吸还不变形,超舒服! ·  3 天前  
51好读  ›  专栏  ›  科工力量

阿里发布QwQ-32B:仅1/20参数比肩满血DS-R1,消费级显卡可部署

科工力量  · 公众号  ·  · 2025-03-06 19:36

正文

3月6日凌晨,阿里云发布并开源全新的推理模型通义千问QwQ-32B。 官方称,这个新模型仅仅拥有320亿参数,但在性能上比肩6710亿参数的满血版DeepSeek R1。
点击查看大图
目前,阿里云并未发布还完整技术报告,但官方数据显示,QwQ-32B仅在编程竞赛(LiveCodeBench)和美国数学竞赛(AIME24)两项略逊于满血的DeepSeek-R1,其余三项则全面超越。此外更是碾压完全超越了OpenAI-o1-mini。
阿里云解释称,团队此次基于Qwen2.5-32B模型,探索了扩展强化学习(RL)的技术方案,并发现强化学习训练能够持续提升模型性能,尤其在数学与编程任务中表现显著。该团队还提到,通过持续扩展强化学习训练的规模,中型模型也可以实现与巨型混合专家模型(MoE)相媲美的性能。
此外,QwQ-32B还满足更低的资源消耗需求,适合快速响应或对数据安全要求高的应用场景,开发者和企业可以在消费级显卡上将其部署到本地设备中,进一步打造高度定制化的AI解决方案。阿里称,QwQ-32B已多个平台基于宽松的Apache2.0协议开源,所有人都可免费下载模型进行本地部署,或者通过阿里云百炼平台直接调用模型API服务。
点击查看大图
值得一提的是,此前OpenAI曾因遇到技术瓶颈,将原来的GPT5.0降格为GPT4.5进行发布,之后还透露将降低强化学习训练的优先级,转向监督学习(SSL)和语言模型(LM)为核心的技术路线。而QwQ-32B的发布则证明了强化学习路线仍有潜力,可以继续提升模型的性能。






请到「今天看啥」查看全文