腾讯混元团队正式宣布推出四款全新开源小尺寸模型,分别为0.5B、1.8B、4B和7B参数版本。这些专为消费级显卡打造的轻量化模型,完美适配笔记本电脑、智能手机、智能座舱及智能家居等低功耗场景,同时支持垂直领域的低成本微调应用。这一创新举措不仅极大丰富了混元开源模型体系,更为开发者和企业提供了更多元化的模型选择维度。
作为腾讯混元大模型持续开源战略的重要组成部分,这四款模型致力于为不同场景下的开发需求提供精准解决方案。目前,这些模型已全面登陆Github和HuggingFace等主流开源社区,并获得了Arm、高通、Intel、联发科技等消费级终端芯片平台的广泛支持。值得注意的是,新发布的四个模型均属于融合推理模型,凭借其推理速度快、性价比高的独特优势,在众多应用场景中展现出卓越表现。
用户可根据实际需求灵活选择模型的思考模式:快思考模式以简洁高效的输出特性,特别适合处理简单任务;而慢思考模式则通过更全面的推理步骤,有效应对复杂问题场景。在专业测试中,这些模型在语言理解、数学计算、逻辑推理等核心领域均取得领先成绩,多个公开测试集得分表现优异。
这四款模型的独特亮点在于其强大的agent能力和长文处理能力。通过创新的数据构建方法和强化学习奖励信号设计,模型在任务规划、工具调用、复杂决策及反思等agent能力上表现突出,可轻松胜任深度搜索、Excel数据分析、旅行攻略规划等高阶任务。更令人惊叹的是,模型原生长上下文窗口高达256k,意味着其可一次性记忆并处理相当于40万中文汉字或50万英文单词的超长内容——这一能力相当于完整阅读3本《哈利波特》小说并记住所有人物关系和剧情细节,还能基于这些内容展开深入讨论。
在部署方面,这四款模型均支持单卡部署,部分PC、手机、平板等设备可直接接入使用。模型开放性极强,兼容主流推理框架(如SGLang、vLLM和TensorRT-LLM)及多种量化格式,为开发者提供极大便利。应用层面,这些小尺寸模型能够满足从端侧到云端、从通用到专业的多样化需求,且已在腾讯多个业务场景中得到实践验证。
例如,依托模型原生的超长上下文能力,腾讯会议AI小助手和微信读书AI问书AI助手成功实现对完整会议记录和整本书籍的深度理解与处理。在端侧应用方面,腾讯手机管家通过集成小尺寸模型显著提升垃圾短信识别准确率,实现毫秒级精准拦截且无需上传任何隐私数据;腾讯智能座舱助手则采用双模型协作架构,有效解决车载环境应用痛点,充分发挥模型低功耗、高效推理的核心优势。
官网体验地址:https://hunyuan.tencent.com/modelSquare/home/list
【Github】
Hunyuan-0.5B:https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
Hunyuan-1.8B:https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
Hunyuan-4B:https://github.com/Tencent-Hunyuan/Hunyuan-4B
Hunyuan-7B:https://github.com/Tencent-Hunyuan/Hunyuan-7B
【HuggingFace】
Hunyuan-0.5B:https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
Hunyuan-1.8B:https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
Hunyuan-4B:https://huggingface.co/tencent/Hunyuan-4B-Instruct
Hunyuan-7B:https://huggingface.co/tencent/Hunyuan-7B-Instruct