
微新创想:阿里巴巴在除夕夜发布全新一代大模型千问Qwen3.5-Plus,直接登顶全球最强开源模型。这一举动没有预热也没有铺垫,迅速引发行业广泛关注。
该模型总参数达到3970亿,但激活参数仅为170亿,展现出以小胜大的高效性能。相比前代产品Qwen3-Max,其在推理效率和模型部署方面均有显著提升。显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至19倍,为实际应用提供了更优的算力支持。
目前,千问APP和PC端已全面接入Qwen3.5-Plus模型,开发者可以通过魔搭社区和HuggingFace下载该模型。Qwen3.5-PlusAPI的价格也极具竞争力,每百万Token低至0.8元,进一步降低了使用门槛。
与前几代的千问大语言模型不同,千问3.5实现了从纯文本模型到原生多模态模型的代际跃迁。该模型基于视觉和文本混合token进行预训练,大幅增加了中英文、多语言、STEM和推理等领域的数据,使其在多种任务中表现更加出色。

在MMLU-Pro认知能力评测中,千问3.5得分达到87.8分,超越GPT-5.2;在博士级难题GPQA测评中斩获88.4分,高于Claude 4.5;在指令遵循IFBench测试中以76.5分刷新所有模型纪录,展现出强大的理解和执行能力。
在通用Agent评测BFCL-V4和搜索Agent评测Browsecomp等基准测试中,千问3.5均表现优于Gemini 3 Pro,进一步巩固了其在大模型领域的领先地位。
此外,千问3.5在多个权威评测中均斩获最佳性能。包括多模态推理(MathVison)、通用视觉问答VQA(RealWorldQA)、文本识别和文件理解(CC_OCR)、空间智能(RefCOCO-avg)以及视频理解(MLVU)等任务。
在视频理解方面,千问3.5支持长达2小时的视频直接输入,上下文长度可达1M token,适用于长视频内容分析与摘要生成。这一能力为视频处理、内容创作和数据分析等领域带来了新的可能性。
同时,千问3.5还实现了视觉理解与代码能力的原生融合。结合图搜和生图工具,用户可以直接将手绘界面草图转化为可用的前端代码。一张截图即可定位并修复UI问题,使视觉编程真正成为提升开发效率的生产力工具。
