阿里Qwen发布320亿参数QwQ-32B大模型

阿里Qwen发布320亿参数QwQ-32B大模型
2025年03月06日 09:42 中关村在线

3月6日,阿里Qwen团队正式对外发布了其最新的研究成果——QwQ-32B大语言模型。这款模型拥有320亿参数,在性能上能够与参数量高达6710亿的DeepSeek-R1(其中370亿参数被激活)相媲美。

尽管QwQ-32B的参数量仅为DeepSeek-R1的大约1/21,但通过强化学习技术,该模型成功实现了性能上的显著提升。此外,阿里在这款推理模型中还集成了与Agent相关的能力,使其不仅能够使用工具,还能进行批判性思考,并根据环境反馈动态调整推理过程。

QwQ-32B在多项基准测试中接受了全面评估,涉及数学推理、编程能力和通用能力等多个领域。在数学能力测试AIME24评测集中,以及用于评估代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1相当,并且大幅优于o1-mini和相同规模的R1蒸馏模型。

同时,在由多位知名研究者主导的多个权威评测榜单中,QwQ-32B也取得了优异成绩。例如,在被称为“最难LLMs评测榜”的LiveBench、用于评估指令遵循能力的IFEval评测集,以及针对函数或工具调用准确性测试的BFCL中,QwQ-32B的得分均超过了DeepSeek-R1。

目前,QwQ-32B已经在Hugging Face和ModelScope平台开源,用户还可以通过Qwen Chat直接体验这一先进模型。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片