
微博正式宣布推出自主研发的开源大模型Vibe Thinker,这一突破性成果在国际顶级数学竞赛基准测试中展现出惊人实力。凭借仅15亿参数的规模,Vibe Thinker竟在击败了拥有6710亿参数的DeepSeek R1等强劲对手的同时,实现了更高的准确率。更令人瞩目的是,其单次“后训练”成本仅为7800美元,相较于DeepSeek-R1和MiniMax-M1等同类模型降低了数十倍,展现出卓越的经济效益。
Vibe Thinker的核心优势在于其轻量化的MoE(Mixture of Experts)架构与多轮知识蒸馏技术。官方明确表示,该模型能够在5GB以下的数学语料库上高效完成微调,极大降低了资源门槛。此外,Vibe Thinker全面支持Hugging Face平台的一键下载,并提供了灵活的商用许可,为开发者提供了极大的便利。
微博技术团队进一步透露,Vibe Thinker在AIME 2025、HMMT等知名数学竞赛题库中的平均得分较R1提升了3.4%,同时推理延迟降低了42%。这些优异性能使其在教育、金融等实时应用场景中具有极高的实用价值。开源版本不仅支持PyTorch与GGUF格式,确保兼容性,更能在单张RTX4090显卡上流畅运行,展现了其强大的硬件适应性。
为了进一步推动AI技术的普及,微博同步开放了训练脚本与数据配比方案,为开发者提供了完整的参考资源。计划于12月推出的Vibe Thinker-Math专用数学增强版,将进一步提升模型在数学领域的专业性能。此外,微博还联合高校举办“轻量级数学挑战赛”,旨在激发更多创新应用,推动低成本高精度AI技术的广泛应用,为AI领域的发展注入新的活力。
