微新创想:在开源大模型赛道,欧洲之光 Mistral AI 再次展现了其惊人的进化速度。当地时间3月16日,Mistral AI 正式发布了 Mistral Small4。这是该实验室首款真正意义上的“全能型”大模型,首次在单一模型中完美兼顾了旗舰级推理、多模态理解以及强悍的编程能力。对于开发者而言,这意味着不再需要在各种垂直模型之间做“选择题”,因为新一代 Small4实现了“我全都要”。
Mistral Small4 采用了先进的 MoE(混合专家)架构。核心参数方面,总参数量为119B,激活参数仅为6B,在保证性能的同时极大优化了运行效率。超长视野是该模型的一大亮点,拥有 256k 的超长上下文窗口,能够轻松处理整本技术文档或大规模代码库。这种能力使得开发者在进行复杂任务处理时更加得心应手。
灵活模式也是 Mistral Small4 的一大特色。它支持快速响应与深度推理两种模式,满足不同场景下的使用需求。并且,该模型以 Apache2.0 协议正式开源,诚意十足,为社区贡献了高质量的模型资源。这种开放的态度不仅促进了技术的共享,也为更多开发者提供了实践和创新的机会。
在性能表现上,Mistral Small4 较前代产品实现了质的飞跃。官方数据显示,在延迟优化模式下,其端到端完成时间缩短了40%;而在吞吐优化模式下,每秒处理的请求数量是 Small3 的3倍。这种显著的性能提升,使得 Mistral Small4 在实际应用中更具竞争力。

在与外部大模型的横向评测中,Mistral Small4 在三大核心基准测试中的表现均不逊色于 OpenAI 的 GPT-OSS120B。这不仅证明了 Mistral AI 在模型研发上的深厚实力,也进一步巩固了其在开源大模型领域的领先地位。
为了发挥该模型的最大威力,Mistral AI 给出了明确的硬件指引。最低配置要求为4× HGX H100 或1× DGX B200;而为了获得极致体验,官方推荐使用4× HGX H200 或2× DGX B200的组合。这些硬件建议为开发者提供了清晰的部署参考,有助于他们更高效地利用该模型。
随着 Mistral Small4 的发布,Mistral AI 不仅巩固了其在开源界的领先地位,也为企业级应用提供了一个低延迟、高智能的全新标杆。当欧洲技术力量遇上极致的架构优化,这场 AI 全球竞赛正变得愈发精彩。
