专栏名称: 财经网科技
目录
相关文章推荐
天府生活派  ·  疯!成都地价创新高,房价5W+? ·  昨天  
天府生活派  ·  疯!成都地价创新高,房价5W+? ·  昨天  
人工智能那点事  ·  强制18点20下班,还有HR到点赶人?美的回应…… ·  昨天  
酷玩实验室  ·  千亿雪王,收你们来了 ·  昨天  
中国人工智能学会  ·  活动预告丨第四期DeepSeek系列专题线上 ... ·  2 天前  
深圳应急管理  ·  广东省2024年度安全生产责任制和消防工作考 ... ·  2 天前  
51好读  ›  专栏  ›  财经网科技

算力平台纷纷接入通义 专家:QwQ模型“轻量化”特性或比R1更适合场景普及

财经网科技  · 公众号  · AI 科技自媒体  · 2025-03-11 18:34

主要观点总结

文章介绍了阿里千问QwQ-32B大模型在产业界的应用和发展趋势。该模型因其参数和开源优势,可能成为更广泛行业应用的大模型。文章还提到了国产算力厂商与模型之间的合作,以及其在推动AI产业发展中的作用。

关键观点总结

关键观点1: 阿里千问QwQ-32B大模型的参数和开源优势使其有望成为更广泛行业应用的大模型。

文章强调了阿里千问QwQ-32B的优势在于其参数规模和开源特性,这使得它能够在产业界得到广泛应用。

关键观点2: 国产算力厂商与模型的合作推动了AI产业的发展。

文章提到了壁仞科技、摩尔线程等国产算力厂商针对阿里千问QwQ-32B优化的推理加速方案,以及国家超算互联网平台等提供API服务,推动AI产业的落地。

关键观点3: 阿里千问QwQ-32B更适配国产芯片与算力平台,为中国AI自主化提供关键支撑。

文章指出,阿里千问QwQ-32B能够更好地适应国产芯片和算力平台,为中国AI自主化提供了重要的支持。


正文

在年初DeepSeek点燃整个行业之后,千问QwQ-32B,因其参数和开源优势,或将有望成为超过R1的更广泛行业应用大模型。

编辑|蒋菁


在大模型层出不穷的当下,技术不断进化,也将大模型发展从“规模竞赛”带入了“效能优化”时代,整个产业界也经历着从“参数崇拜”向“效率优先”的转移。


继DeepSeek-R1推理模型之后,算力供应端纷纷接入阿里千问QwQ。例如,近日国家超算互联网平台宣布接入阿里巴巴通义千问大模型,正式对外提供千问QwQ-32B API服务。用户在使用该服务时,能够免费获取多达100万tokens,这为广大开发者和研究人员提供了一个良好的机会。


这一战略举措恰逢阿里千问轻量级推理模型QwQ-32B登顶全球开源社区榜单。这也意味着,中国在基础算力设施与核心算法技术上实现深度协同,构建起从硬件到软件的全链路自主AI生态体系。


在面向产业界的实际应用中,千问QwQ-32B这一被视为即将大规模落地的推理模型,迅速激活了蛰伏已久的产业链,并凭借“小而强”的特性,不仅实现了从算力平台到大模型一体机的广泛接入,也掀起了一场由轻量化推理模型引发的产业变革。


纷纷接入,

算力供应端迎来千问时刻


DeepSeek带来大模型部署热潮,也让中国开源模型迎来了百花齐放、你追我赶的热潮。这股热浪之中,阿里巴巴通义千问大模型以其优异的表现,让中国产业界实现了令人兴奋的跃升速度。


近期,“全球首款通用型AI智能体Manus”推出,引发市场关注。发布后,其内测邀请码炒至高价。Manus爆火的背后,其创始人季逸超透露,Manus产品使用了不同的基于阿里千问大模型(Qwen)的微调模型。


除了国家超算互联网平台和Manus,更多国产算力厂商也已经推出或正在计划推出更适合通义千问大模型的算力部署模式。


例如,3月6日阿里通义千问发布最新推理模型QwQ-32B,再次引爆国产大模型的热潮。不久后,SophNet平台火速上线了QwQ-32B大模型,依托算能自研TPU的强劲算力,QwQ-32B的推理速度高达75 Tokens/s,速度快如闪电,性能更稳定可靠。


算能SophNet产品负责人表示,“基于算能SophNet云算力,只需几行代码,即可轻松实现模型应用。以算能为代表的国产自研算力,搭配以阿里通义千问、DeepSeek为代表的国产AI大模型,可以给企业和机构一个更强性能、更稳定安全的全国产新选择。”据介绍,算能SophNet QwQ-32B API一经推出,TPS高达75,性能领先于众多三方平台。


作为国产AI算力重要推动力量,壁仞科技也在QwQ-32B发布数小时内快速响应,伸手拥抱最先进的大模型,联合生态合作伙伴共同推出搭载壁砺 106自研芯片的一体机,包括便捷4卡机、通用8卡机、高密16卡机,全面支持QWQ-32B大模型推理。硅基流动、广州算力中心也在第一时间上线。



在产、学、研等领域纷纷得到青睐的背后,尽管参数量仅为32B,但阿里QwQ-32B通过大规模强化学习训练,在数学、代码及通用能力等多个关键领域实现质的飞跃,展现出与拥有671B参数的DeepSeek-R1相媲美的性能。


轻量高效,

性能优势推动产业落地


当全球巨头沉浸于大模型的规模竞赛之时,阿里QwQ-32B用320亿参数的轻量级架构,在产业开辟了“效能优化”的新赛道。从产业来看,阿里QwQ-32B获得诸多算力供应端的青睐,其秘诀并不在于参数规模,而在于其灵活优异的适配性,以及带来的“效率优先”。


3月6日凌晨,阿里巴巴发布并开源全新的推理模型通义千问QwQ-32B,当天即登顶HuggingFace全球大模型榜单榜首。


除了在性能上与「满血版」671B的DeepSeek-R1比肩,通义千问QwQ-32B在消费级显卡,比如家用电脑上也能实现本地部署。此外,用户也将可通过通义APP免费体验最新的千问QwQ-32B模型。


另外,在数学推理(AIME24评测)、代码生成(LiveCodeBench)和工具调用(BFCL测试)等任务中,阿里QwQ-32B的性能对比显示,其表现与DeepSeek-R1相当,远超o1-mini及相同尺寸的R1蒸馏模型。



截至目前,阿里通义团队已经开源了包括千问Qwen大语言模型和万相Wan视觉生成模型在内的200余款模型,涵盖了从0.5B 到110B 等多种尺寸,衍生模型数量超10万个,已经超过美国Meta公司的Llama模型,成为全球规模最大的AI模型族群。在HuggingFace社区,通义千问持续领跑,仅Qwen2.5-1.5B一款模型,就占2024年全球模型下载量的26.6%,位居第一。


这些模型在各类应用场景中展现出良好的性能,极大地推动了人工智能技术的发展。有观点认为,全球前三大开源模型中,千问系列模型在产业界实际应用或比DeepSeek R1更为广泛。


盘古智库高级研究员江瀚认为,不同于QwQ-32B的稠密架构模型,DeepSeek走的是稀疏MoE模型路线,以满血版R1为例,6710亿参数至少要占据671GB显存,为了支持输入/输出、过程数据等,还需要更多显存空间来存放,但在每次推理时,6710亿参数中只有370参数被激活。 而千问QwQ-32B的发布给国产算力厂商带来了更大的利好,QwQ-32B已经能够满足个人开发者和中小企业极低成本接入顶级模型的诉求。因此在年初DeepSeek点燃整个行业之后,千问QwQ-32B,因其参数和开源优势,或将有望成为超过R1的更广泛行业应用大模型。


从硬件层面看,壁仞科技、摩尔线程等推出针对QwQ-32B优化的推理加速方案,适配昇腾、RISC-V等国产芯片架构‌;从‌平台层面‌看,国家超算互联网平台、青云科技AI算力云等提供API服务,开发者可一键调用模型,降低部署复杂度‌;此外,东南大学、天津大学等科研机构接入QwQ-32B,也将推动学术研究与产业应用的结合,加速垂直领域(如医疗、教育)模型迭代‌。


从AI产业落地的角度来说,这场适配潮的本质,是一次算力成本的有效突破。阿里QwQ-32B更适配国产芯片与算力平台,也为中国AI自主化提供了关键支撑。当厂商从被动兼容转向主动定义,当算力平台与大模型深度耦合,中国AI产业也将突破算力桎梏,在AI产业中构建出新的话语实力,更能在世界舞台上秀出崭新的肌肉。




推荐阅读







请到「今天看啥」查看全文