阿里QwQ-32B大语言模型:少量参数媲美DeepSeek R1,性能卓越!

   发布时间:2025-03-06 11:31 作者:任飞扬

近日,阿里巴巴旗下的Qwen团队震撼发布了其最新的科研力作——QwQ-32B大型语言模型。这款模型虽仅有320亿参数,却展现出了与6710亿参数(激活370亿)的DeepSeek-R1相抗衡的实力。

尤为QwQ-32B以DeepSeek-R1约1/21的参数规模,通过强化学习的精妙运用,实现了性能上的巨大飞跃。这一成就无疑为语言模型领域带来了新的惊喜。

不仅如此,阿里还在QwQ-32B的推理模型中融入了与Agent相关的能力,使其能够在使用工具的同时,展现出批判性思维,并根据环境的反馈灵活调整推理路径。这一创新设计大大增强了模型的实用性和智能水平。

为了全面评估QwQ-32B的性能,团队在一系列基准测试中对其进行了检验,涵盖了数学推理、编程能力和通用能力等多个维度。在数学能力的AIME24评测集上,以及代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1旗鼓相当,远超o1-mini及同尺寸的R1蒸馏模型。

在由meta首席科学家杨立昆主导的“最难LLMs评测榜”LiveBench、谷歌提出的指令遵循能力IFeval评测集,以及加州大学伯克利分校等提出的BFCL测试中,QwQ-32B同样取得了令人瞩目的成绩,得分均超过了DeepSeek-R1。

目前,QwQ-32B已经通过Hugging Face和ModelScope平台向公众开源,用户可以通过Qwen Chat直接体验这一强大的语言模型。这一举措无疑将推动语言模型技术的进一步发展,为人工智能领域注入新的活力。

 
 
更多>同类内容
全站最新
热门内容
本栏最新