Qwen3-30B-A3B模型迎来重大突破性升级,全新版本Qwen3-30B-A3B-Thinking-2507正式发布。这一升级不仅在推理能力、通用性能及上下文处理长度上实现跨越式提升,更标志着该模型在保持轻量化的同时,思考深度和广度得到显著增强。与4月29日开源的Qwen3-30-A3B版本相比,新模型在多个核心维度上展现出更卓越的表现。
在数学能力方面,Qwen3-30B-A3B-Thinking-2507在AIME25专业评测中取得85.0的优异成绩,这一成绩不仅超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)等主流对手,更彰显了其在数学推理领域的强大实力。在代码能力测试LiveCodeBench v6中,新模型同样斩获66.0的高分,充分证明其在编程领域的卓越表现。值得注意的是,新模型在知识水平方面也实现了显著跨越,在GPQA和MMLU-Pro等权威评测中,知识储备和运用能力较上一版本大幅提升。
除了在数学和代码能力上的突破,Qwen3-30B-A3B-Thinking-2507在通用能力方面也实现了全面跃升。在写作能力(WritingBench)评测中,新模型表现突出;在Agent能力(BFCL-v3)测试中展现出更强的任务执行能力;在多轮对话和多语言指令遵循(MultiIF)等通用场景下,新模型均超越Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)等竞品,充分证明其在自然语言理解和生成方面的卓越能力。
新模型的上下文理解能力也得到革命性增强,原生支持高达256K tokens的上下文长度,并可扩展至1M tokens。这一改进使得模型能够处理更长的文本输入,从而更精准地理解和生成复杂文本内容。值得一提的是,新模型的思考长度(thinking length)也相应增加,开发团队特别建议在处理高度复杂的推理任务时,适当延长思考预算以充分发挥其强大潜力。
为了方便开发者和研究人员使用和测试这一全新版本,Qwen3-30B-A3B-Thinking-2507已在魔搭社区和HuggingFace平台全面开源。其轻量化的体积特性,使得开发者可以轻松在消费级硬件上进行本地部署。同时,开发团队也在Qwen Chat应用中同步上线了新模型,诚邀广大开发者前往体验其强大的推理和内容生成能力。