硅基流动大模型服务平台近日迎来重大更新,正式上线了蚂蚁集团百灵团队最新开源的 Ling-flash-2.0 模型,这已是该平台上线的第130个创新模型。Ling-flash-2.0 作为一款基于 MoE 架构的百亿参数大型语言模型,在性能与效率上实现了突破性平衡——激活时仅需6.1亿参数(非嵌入激活更仅需4.8亿),却能在6亿以上参数的激活状态下,展现出媲美40亿参数 Dense 模型的卓越表现。通过20TB以上高质量语料的深度预训练、精细化监督微调及多阶段强化学习,Ling-flash-2.0 在复杂推理、代码生成和前端研发等前沿领域展现出惊人的应用潜力,其最大128K的上下文长度支持,更是为用户提供了前所未有的文本处理能力。
Ling-flash-2.0 不仅性能卓越,性价比同样出众。其定价策略极为亲民:输入成本为每百万Token1元,输出成本为每百万Token4元,让更多开发者能够轻松体验尖端AI技术。为回馈新用户,国内站与国际站分别提供了14元和1美元的免费使用体验金,让全球开发者都能零门槛探索模型魅力。在性能对比中,Ling-flash-2.0 凭借其独特的MoE架构优势,超越了40亿参数以下的 Dense 模型(如 Qwen3-32B-Non-Thinking 和 Seed-OSS-36B-Instruct),也展现出优于更大激活参数的 MoE 模型(如 Hunyuan-A13B-Instruct 和 GPT-OSS-120B/low)的复杂推理能力,尤其在创作类任务中表现亮眼。
其极速推理性能更是令人惊叹。在 Ling Scaling Laws 的科学指导下,Ling-flash-2.0 采用了1/32激活比例的MoE架构,并通过多项细节优化,实现了小激活MoE模型与Dense架构同等性能的突破。通过H20高效部署后,模型输出速度可达每秒200余Token,是36B Dense模型的3倍以上,为开发者带来闪电般的响应体验。硅基流动平台始终致力于打造快速、经济、可靠的大模型API服务生态,除Ling-flash-2.0外,平台还汇聚了丰富多样的语言、图像、音频、视频等模型资源,满足不同场景的开发需求。开发者可自由对比组合各类模型,通过高效API轻松调用,加速生成式AI应用落地实践。
划重点:🌟 Ling-flash-2.0 是一款基于MoE架构的百亿参数语言模型,复杂推理能力突出。⚡ 支持最大128K上下文长度,极速推理性能达每秒200+Token。💰 新用户可享国内外站专属体验金,硅基流动平台提供全方位大模型服务,助力开发者创新突破。国内站在线体验:https://cloud.siliconflow.cn/models国际站在线体验:https://cloud.siliconflow.com/models