近日,阿里巴巴旗下的Qwen团队震撼发布了其最新的科研力作——QwQ-32B大型语言模型。这款模型虽仅有320亿参数,却展现出了与6710亿参数(激活370亿)的DeepSeek-R1相抗衡的实力。
尤为QwQ-32B以DeepSeek-R1约1/21的参数规模,通过强化学习的精妙运用,实现了性能上的巨大飞跃。这一成就无疑为语言模型领域带来了新的惊喜。
不仅如此,阿里还在QwQ-32B的推理模型中融入了与Agent相关的能力,使其能够在使用工具的同时,展现出批判性思维,并根据环境的反馈灵活调整推理路径。这一创新设计大大增强了模型的实用性和智能水平。
为了全面评估QwQ-32B的性能,团队在一系列基准测试中对其进行了检验,涵盖了数学推理、编程能力和通用能力等多个维度。在数学能力的AIME24评测集上,以及代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1旗鼓相当,远超o1-mini及同尺寸的R1蒸馏模型。
在由meta首席科学家杨立昆主导的“最难LLMs评测榜”LiveBench、谷歌提出的指令遵循能力IFeval评测集,以及加州大学伯克利分校等提出的BFCL测试中,QwQ-32B同样取得了令人瞩目的成绩,得分均超过了DeepSeek-R1。
目前,QwQ-32B已经通过Hugging Face和ModelScope平台向公众开源,用户可以通过Qwen Chat直接体验这一强大的语言模型。这一举措无疑将推动语言模型技术的进一步发展,为人工智能领域注入新的活力。