
社交媒体巨头 Meta 旗下的开放人工智能模型 Llama 系列在 AI 社区一度备受瞩目,尤其是 Llama1 至 Llama3 凭借卓越性能赢得了广泛赞誉。然而,2025年4月 Llama4 的推出却意外地将 Meta 推入了信任危机的漩涡。当时,Meta 宣称 Llama4 在多项基准测试中取得了突破性成绩,但现实很快给了所有人沉重一击。众多开发者迅速展开实测后发现,Llama4 的实际表现与宣传数据存在巨大差距,外界不禁怀疑 Meta 是否在基准测试中动了手脚。
Meta 一度试图否认这些指控,但随后 Llama 系列的发展轨迹清晰地表明了问题的严重性——这个备受期待的 AI 系列似乎陷入了停滞。更令人震惊的是,Meta 开始将资源转向闭源的商业模型,而非继续完善其开放研究项目。在最近接受《金融时报》采访时,即将卸任的首席人工智能科学家 Yann LeCun 做出了震撼行业的坦白:Llama4 在发布前确实存在基准测试数据的篡改行为。他透露,为了提升测试分数,研究团队针对不同项目使用了不同的模型配置,这种投机取巧的做法最终导致了灾难性后果——Llama4 被市场无情地贴上了失败产品的标签,Meta 更因涉嫌操纵测试结果而声誉扫地。

这场信任危机的余波远超预期。Meta 创始人马克·扎克伯格对此反应激烈,他公开表达了对发布团队的失望,甚至直接将整个 GenAI 团队边缘化。如今,许多核心成员已选择离开,包括在 Meta 服务长达十年的 Yann LeCun 也宣布即将离职。这一系列动荡不仅暴露了 Meta 内部的管理困境,更引发了外界对其 AI 战略未来走向的深深忧虑。Meta 的 AI 领域因此再度掀起轩然大波,整个行业都在密切关注这一事件的发展。Llama4 的发布将成为一个典型案例,深刻揭示企业在追求技术突破与坚守科研诚信之间必须做出的艰难抉择。
