微新创想:3月16日,法国Mistral AI公司正式推出Mistral Small 4模型。该模型为欧洲首家融合推理、多模态与编程能力的综合性LLM
Mistral Small 4模型采用了MoE架构,总参数量达到119B,激活参数为6B。这一设计使得模型在保持高性能的同时,也具备了更高的灵活性和效率
该模型支持高达256k的上下文长度,并具备双推理模式,能够满足复杂任务和大规模数据处理的需求。同时,Mistral AI公司还对模型进行了延迟优化,使得端到端的耗时降低了40%
在吞吐量方面,Mistral Small 4的表现也十分出色,其吞吐量是上一代模型的三倍。这一提升意味着用户可以在更短的时间内完成更多的任务,提高了整体的工作效率
在基准测试中,Mistral Small 4模型的表现不逊于GPT-OSS 120B。这表明该模型在多个关键指标上都达到了行业领先水平,具有广泛的应用前景
为了部署Mistral Small 4模型,最低需要4×HGX H100等配置。这一要求确保了模型在运行时能够充分发挥其性能,同时也为用户提供了明确的硬件需求指引
