微新创想:2026年2月18日,印度AI实验室Sarvam在班加罗尔举行的印度人工智能影响力峰会上发布了两款自主研发的MoE架构大语言模型。这两款模型的开源权重已经上传至Hugging Face平台,后续还将提供API接口与仪表盘功能,方便开发者和用户进行调用与管理。
两款模型分别针对不同的应用场景进行了优化。其中,小型号模型为30B-A1B,支持高达32K的上下文长度,适用于需要低延迟和实时响应的场景。这使得它在处理即时交互、语音识别和实时数据分析等任务时表现出色。
大型号模型为105B-A9B,支持更长的128K上下文长度,能够更好地应对高复杂度的任务需求。该模型在印度语言相关的基准测试中表现突出,其性能超过了谷歌的Gemini 2.5 Flash。此外,在多数通用基准测试中,它也优于DeepSeek R1模型。
在多项关键指标上,105B-A9B模型展现出了显著的优势。无论是语言理解能力、生成质量还是推理速度,它都达到了行业领先水平。这一成果标志着印度在AI领域取得了重要突破,也为全球大语言模型的发展提供了新的参考方向。
