阿里Qwen团队发布QwQ-32B:少量参数实现高性能,媲美DeepSeek R1

   发布时间:2025-03-06 07:55 作者:沈如风

阿里巴巴的Qwen团队近日震撼发布了其最新的科研成果——QwQ-32B大型语言模型,这一创新成果迅速引起了业界的广泛关注。

QwQ-32B模型拥有惊人的320亿参数,但其性能却足以与拥有6710亿参数(激活部分为370亿)的DeepSeek-R1模型相媲美。这一成就的实现,得益于Qwen团队在强化学习领域的突破,使得QwQ-32B在参数数量仅为DeepSeek-R1约1/21的情况下,实现了性能的飞跃。

不仅如此,阿里巴巴还在QwQ-32B的推理模型中融入了与Agent相关的能力,这一创新使得该模型能够在使用工具的同时,进行批判性思考,并根据环境的反馈灵活调整其推理过程。这一特性无疑大大增强了模型的实用性和智能化水平。

为了全面评估QwQ-32B的性能,阿里巴巴团队在一系列基准测试中对其进行了严格的测试,包括数学推理、编程能力以及通用能力等多个方面。结果显示,在数学能力的AIME24评测集上,以及评估代码能力的LiveCodeBench中,QwQ-32B的表现与DeepSeek-R1相当,远远超过了o1-mini以及相同尺寸的R1蒸馏模型。

在由meta首席科学家杨立昆领衔的“最难LLMs评测榜”LiveBench、谷歌提出的指令遵循能力IFeval评测集,以及加州大学伯克利分校等提出的评估准确调用函数或工具的BFCL测试中,QwQ-32B均取得了超越DeepSeek-R1的优异成绩。这些测试结果无疑进一步证明了QwQ-32B的强大性能和广泛适用性。

QwQ-32B模型已经在Hugging Face和ModelScope平台上开源,广大开发者可以通过这些平台直接获取并使用该模型。同时,用户还可以通过Qwen Chat直接体验QwQ-32B的强大功能,感受其带来的智能化变革。

 
 
更多>同类内容
全站最新
热门内容
本栏最新