
Liquid AI 是一家于2023年成立的创新科技公司,其创始团队由麻省理工学院的顶尖计算机科学家组成。凭借深厚的技术积累,Liquid AI 在2025年7月震撼发布了 Liquid Foundation Models 系列的升级版产品——LFM2,这款新一代基础模型凭借其革命性的”liquid”架构,成功刷新了市场设备端基础模型的性能纪录。其卓越的训练与推理效率,让小型模型得以在云端大型语言模型(如OpenAI的GPT系列和谷歌的Gemini)的激烈竞争中占据一席之地。
LFM2最初推出的350M、700M和1.2B参数版本,采用了创新的门控短卷积混合架构设计。经过严格的基准测试,LFM2在模型质量与CPU吞吐量两大核心指标上,均全面超越了Qwen3、Llama3.2和Gemma3等主流同类产品。这一突破性成果为企业带来了前所未有的机遇——通过LFM2系列模型,用户可以在手机、笔记本电脑乃至智能汽车等终端设备上实现实时、完全隐私保护的AI应用,彻底摆脱了传统模型在性能与延迟之间的固有妥协。
在LFM2成功发布后,Liquid AI并未止步不前,而是进一步拓展了产品矩阵。公司推出了针对特定任务和领域的模型变体,开发了小型视频摄取与分析模型,并推出了名为LEAP的边缘部署解决方案。如今,Liquid AI在arXiv预印本平台上发布了长达51页的LFM2技术白皮书,全面揭秘了模型背后的架构搜索算法、训练数据混合策略、蒸馏目标设定、课程学习机制以及后训练优化流程。这份详尽的技术蓝图将为其他组织提供宝贵的参考,助力它们从零开始构建符合自身硬件条件和部署需求的高效小型模型。
LFM2的设计始终以企业实际需求为导向,充分考量了延迟预算、内存上限和散热阈值等关键因素,确保模型在各种终端设备上都能实现稳定可靠运行。白皮书特别强调了其优化的训练管道系统,该系统致力于提升指令执行精度和工具使用智能化水平,使LFM2模型在实际应用场景中展现出更强的实用价值。
划重点:🔍 小型AI模型实现设备端高效运行,为用户带来实时隐私保护体验
💡 Liquid AI公开的技术蓝图,赋能其他企业自主构建高效小型模型
🚀 LFM2通过创新设计,显著提升模型在各种硬件环境下的可预测性和操作便捷性
