
微新创想:阿里巴巴新一代基座模型 Qwen3.5 已在 HuggingFace 的 Transformers 项目中出现代码合并申请(PR),预示发布在即。这一动态表明阿里巴巴正在加速推进其大模型技术的开源进程,进一步扩大其在人工智能领域的影响力。
据悉,Qwen3.5 采用了全新的混合注意力机制,这一技术突破有望显著提升模型的处理效率与性能。相比前代模型,Qwen3.5 在架构设计上进行了多项优化,使其在处理复杂任务时更加高效和精准。

此外,有迹象显示 Qwen3.5 可能是一款原生支持视觉理解的 VLM 模型。这意味着它不仅能够处理文本信息,还能理解和生成图像内容,为多模态应用提供了更强大的支持。对于开发者和研究者而言,这一特性将带来全新的可能性。
目前,开发者通过挖掘相关信息发现,Qwen3.5 预计将开源至少 2B 的密集模型以及 35B-A3B 的 MoE 模型。这两种模型分别适用于不同的应用场景,密集模型适合需要快速响应的任务,而 MoE 模型则在处理大规模数据时表现出更强的扩展性和计算效率。
此前有消息称,该系列模型将在今年春节期间正式开源。这一时间点不仅符合中国传统节日的氛围,也体现了阿里巴巴在技术发布上的节奏安排。开源计划的推进,将为全球开发者提供更丰富的资源和更广阔的合作空间。
