新浪微博近日震撼发布其首款开源大语言模型VibeThinker-1.5B,这款拥有15亿参数规模的智能模型在多项关键测试中展现出令人瞩目的卓越表现,远超业界预期。在AIME24、AIME25以及HMMT25三大数学测试中,VibeThinker-1.5B凭借其强大的计算能力,全面超越了参数量高达其400倍的DeepSeek-R1版本,其性能表现甚至接近了规模达456B的MiniMax-M1模型,这一成就充分彰显了其在数学推理领域的领先地位。
在编程算法领域,VibeThinker-1.5B同样表现出色,在LiveCodeBench v6测试中,其表现与参数量高出数十倍的国际顶尖模型不相上下,这一突破性成果进一步验证了其在算法处理方面的强大实力。如此优异的性能表现并非偶然,其核心突破在于创新性的“频谱到信号原理”(SSP)训练方法。该方法通过先进行发散探索再实施强化优化的策略,实现了训练效率的显著提升,为AI模型的开发开辟了全新的路径。
更令人惊喜的是,VibeThinker-1.5B的单次后训练成本仅为8000美元,这一价格远低于同类模型的数十倍,极大地降低了AI技术的使用门槛。这一举措为资源有限的中小企业与科研机构提供了高性价比的技术解决方案,有力推动了AI技术的民主化进程,让更多人能够享受到AI带来的便利与机遇。新浪微博此次开源大语言模型的发布,不仅展现了其在AI领域的深厚技术积累,更彰显了其推动技术普惠、赋能创新的责任担当,为AI技术的未来发展注入了新的活力与希望。
