
圣诞节当天,Liquid AI这家备受瞩目的边缘AI初创公司震撼发布了其最新力作——实验性模型LFM2-2.6B-Exp。这款仅含26亿参数的小型开源模型,在多项权威基准测试中展现出令人惊艳的表现,尤其在指令跟随能力上实现了对参数量高达数百亿的DeepSeek R1-0528的超越,迅速引发业界广泛关注,被赞誉为”最强3B级模型”。
LFM2-2.6B-Exp的诞生源于Liquid AI在纯强化学习领域的实验性突破。该模型基于公司第二代Liquid Foundation Models(LFM2)系列的2.6B基础模型,通过纯强化学习(RL)方式进行后训练优化,无需依赖监督微调暖启动或大型教师模型蒸馏。它完美继承了LFM2的混合架构优势,融合了短程门控卷积和分组查询注意力(GQA)技术,支持高达32K的上下文长度,专为手机、笔记本电脑、物联网设备等边缘设备量身打造,实现高效本地部署。
Liquid AI特别强调,LFM2-2.6B-Exp主要针对指令跟随、知识问答和数学推理等关键领域进行了深度优化,适用于代理工作流、RAG检索、数据提取、创意写作和多轮对话等多种场景,为开发者提供了强大的AI工具支持。
在最新一轮的基准测试中,LFM2-2.6B-Exp的表现堪称惊艳:
– 在IFBench(指令跟随基准)测试中,得分大幅领先同级模型,甚至超越了参数量达其263倍的DeepSeek R1-0528。
– 在GPQA(研究生级知识问答)测试中,表现达到约42%,远超传统3B模型水平。
– 在IFEval(指令严格遵循)测试中,得分超过88%,击败了众多10B+参数模型。
– 在GSM8K(数学推理)测试中,得分高达82%以上,表现优于Llama3.23B和Gemma3系列。
此外,该模型在CPU上的预填充和解码速度是竞品的2倍,内存占用极低,支持bfloat16量化技术,真正实现了”手机级PhD推理”的愿景。

LFM2-2.6B-Exp的开源意义尤为重大。模型权重已完全上传至Hugging Face平台,开发者可免费下载并集成到本地应用中。这一举措不仅验证了强化学习在小模型上的巨大潜力,更推动了边缘AI生态的蓬勃发展,让高性能AI从云端走向人人可及的设备端。
AIbase在点评中指出,LFM2-2.6B-Exp的发布标志着小型模型时代加速到来——无需依赖巨量参数,通过创新的智能训练范式即可实现前沿性能。对于注重隐私保护、低延迟响应和成本效益的开发者与企业而言,这款模型无疑是当前最佳选择之一。展望未来,随着RL技术和混合架构的持续迭代,3B级开源模型或将接近AGI水平,并在任何设备上流畅运行。
对这款模型感兴趣的读者,可立即前往Hugging Face下载体验,共同开启边缘智能新篇章。
地址:https://huggingface.co/LiquidAI/LFM2-6B-Exp
