2025年12月2日,法国领先的AI初创企业Mistral AI正式发布了备受期待的新一代Mistral 3系列模型,标志着其在大型语言模型领域又一重大突破。此次发布的模型家族包括参数量高达675B的混合专家模型Mistral Large,以及三款专为高效部署设计的Ministral 3系列小型密集模型(分别拥有14B、8B和3B参数)。值得注意的是,Mistral AI坚持开放创新理念,所有模型均采用业界通用的Apache 2.0许可证进行开源,为全球AI研究社区提供了宝贵的资源。
Mistral Large作为系列旗舰模型,展现了惊人的算力与性能表现。该模型采用3000块英伟达H200 GPU进行大规模分布式训练,最终在权威的LMArena OSS非推理模型榜单中位列全球第二,总榜单中亦排名第六。这一卓越表现得益于其先进的混合专家模型架构,使其在多语言对话能力与图像理解任务上均达到行业顶尖水平,能够流畅处理包括法语、英语在内的多种语言交互,并具备出色的视觉信息解析能力。
与此同时,Ministral 3系列小型模型在性价比方面实现了革命性突破。通过创新的密集模型设计,这三款模型在保持高性能的同时显著降低了资源消耗。据测试数据显示,Ministral 3系列的指令变体性能与大型模型相当甚至更优,而token生成成本更是大幅降低一个数量级,这一优势将极大推动开源AI在企业和开发者的实际应用落地。Mistral AI表示,此次开源举措旨在加速AI技术的民主化进程,通过降低技术门槛促进整个生态系统的创新与发展。
