阿里通义千问近日正式宣布,其备受瞩目的Qwen3-VL模型家族迎来重大升级,新增了2B和32B两种密集模型尺寸。这一创新举措不仅丰富了模型家族的多样性,更实现了从轻量级到高性能的全面覆盖,为视觉语言理解场景提供了全方位的解决方案。开发者现可在手机等移动设备上轻松运行这些模型,极大地降低了应用门槛,提升了开发效率。
此次推出的两种新模型各具特色,满足不同场景下的需求。首先是Instruct模型,该版本以响应速度快、执行稳定为核心优势,特别适合应用于对话系统及工具调用场景。其高效的处理能力能够确保用户交互的流畅性,为智能应用提供坚实的技术支撑。其次是Thinking模型,这一版本在长链推理和复杂视觉理解方面展现出卓越表现,真正实现了”看图思考”的智能化能力,可以胜任更具挑战性的任务需求。
根据官方发布的数据,Qwen3-VL-32B在多个领域的表现均超越了市场主流竞争对手,包括GPT-5mini和Claude4Sonnet等。令人惊叹的是,该模型仅使用32B参数量,却能够与高达235B参数的模型相媲美,甚至在OSWorld基准测试中取得了优异的成绩。与此同时,Qwen3-VL-2B凭借其小巧的体量,在极限端侧设备上依然能实现令人惊讶的性能表现,为开发者提供了更多实验和部署的可能性。

对于广大开发者而言,阿里通义千问还贴心地提供了丰富的体验资源。用户可以通过ModelScope和Hugging Face平台,免费试用这些新模型,直观感受其强大的功能。这些创新模型的推出,不仅拓展了阿里通义在人工智能领域的产品矩阵,更为视觉语言理解技术的应用打开了无限可能的大门。
划重点:
🌟 新增模型:阿里通义Qwen3-VL家族新增2B和32B两种密集模型尺寸,实现性能与便携性的完美平衡
📱 设备兼容:新模型支持在手机等移动设备上运行,让智能应用触手可及
🏆 性能卓越:Qwen3-VL-32B在多领域表现超越GPT-5mini、Claude4Sonnet等主流竞品,32B参数量即可媲美235B模型
