美团近日重磅发布并正式开源其最新研发的AI大模型——LongCat-Flash-Chat,这款模型凭借560B的总参数量以及18.6B至31.3B的激活参数范围,在计算效率与性能表现之间实现了令人瞩目的平衡。LongCat-Flash的核心创新在于采用了先进的混合专家模型(MoE)架构,并引入了”零计算专家”机制,确保每个处理单元仅激活必要的参数,从而最大化算力资源的利用效率。在模型架构设计上,LongCat-Flash还独创性地融入了跨层通道技术,这一突破性设计显著提升了训练与推理过程的并行处理能力。令人惊叹的是,该模型在H800高性能硬件的支持下,仅用30天训练时间就实现了单用户每秒处理100个token的惊人推理速度。
在算力控制方面,LongCat-Flash展现出卓越的工程智慧。其训练过程中创新性地应用PID控制器实时动态调整专家偏置,将激活参数的平均水平精准控制在27B左右,这一智能调控机制有效避免了算力资源的浪费。更值得关注的是,在智能体能力提升上,LongCat-Flash同样不遗余力。通过构建自主研发的Agentic评测集和创新的 多智能体数据生成策略,该模型在各类智能体任务中表现突出,特别是在复杂场景处理能力上,其在VitaBench基准测试中取得的顶尖成绩充分证明了这一点。值得注意的是,即使与参数规模更大的模型相比,LongCat-Flash依然保持着令人印象深刻的智能体工具使用能力。
在通用知识测试方面,LongCat-Flash同样表现出色。在权威的ArenaHard-V2测试中,该模型获得了86.50的高分,位列所有参评模型第二;而在MMLU和CEval基准测试中分别取得了89.71和90.44的优异成绩,这些数据有力证明了LongCat-Flash在语言理解和中文能力评估方面的强大竞争力。LongCat-Flash-Chat凭借其突破性的推理速度和卓越的智能体表现,不仅代表了当前AI技术的领先水平,其开源决策更是为全球开发者提供了宝贵的研究与开发平台,必将推动AI技术的创新应用。项目地址:https://github.com/meituan-longcat/LongCat-Flash-Chat体验官网:https://longcat.ai/