中国人工智能翻译技术迎来重大突破,东北大学“小牛翻译”团队宣布正式开源其最新研发的大模型——NiuTrans.LMT(Large-scale Multilingual Translation),这一里程碑式的成果实现了60种语言、234个翻译方向的无缝覆盖,不仅以中文和英文作为双核心构建起全球语言沟通的桥梁,更在藏语、阿姆哈拉语等29种低资源语言上取得了令人瞩目的进展,为推动全球语言平等迈出了坚实的一步。
双中心架构,重塑语言翻译新格局不同于多数以英语为单一枢纽的翻译模型,NiuTrans.LMT创新性地采用中-英双中心设计,支持中文↔58种语言、英文↔59种语言的高质量直译,有效避免了“中文→英文→小语种”的二次信息失真。这一架构设计尤其有利于“一带一路”沿线国家与中文使用者的直接交流,显著推动了跨文化交互的去中介化进程。

三层语言覆盖,兼顾翻译效率与公平性模型从语言资源丰富度出发,精准划分了三层语言覆盖体系:13种高资源语言(如法语、阿拉伯语、西班牙语)实现接近人类的翻译流畅度;18种中资源语言(如印地语、芬兰语)在专业术语与语法结构上保持高度准确性;29种低资源语言(涵盖藏语、斯瓦希里语、孟加拉语等)通过数据增强与迁移学习技术,成功实现了从“不可译”到“可用译”的跨越式发展。
两阶段训练,刷新开源模型性能纪录NiuTrans.LMT在权威多语言基准测试FLORES-200中表现卓越,稳居开源模型榜首位置。其卓越性能的取得得益于创新的两阶段训练流程:继续预训练(CPT)阶段,模型在900亿tokens的多语言语料库上均衡学习,确保小语种不会在训练中被边缘化;监督微调(SFT)阶段,模型整合了FLORES-200、WMT等高质量平行语料(共计56.7万条样本,覆盖117个翻译方向),精准调优了翻译准确性与风格一致性。

四大规模开源,满足多元应用场景需求为满足不同用户的实际需求,团队同步开源了0.6B、1.7B、4B、8B四种参数规模的模型版本,全部通过GitHub与Hugging Face平台免费开放下载。轻量版模型可在消费级GPU上高效运行,非常适合移动端部署;8B版本则面向企业级高精度翻译场景,支持API集成与私有化部署方案。
AIbase专家认为,NiuTrans.LMT的开源不仅是一项重要的技术成果,更是对“语言多样性保护”的积极实践。当AI能够精准翻译藏语诗歌、非洲谚语或北欧古语时,技术才真正展现了其人文温度。东北大学这一具有远见的开源举措,正在为全球构建一个无语言壁垒的数字未来奠定坚实基础。项目地址:https://github.com/NiuTrans/LMT
