
加州圣迭戈讯——在备受瞩目的NeurIPS2025国际会议上,英伟达重磅发布了其首款专为L4级自动驾驶设计的推理视觉语言动作模型——Alpamayo-R1。这一创新成果不仅标志着英伟达在自动驾驶AI领域的又一突破,更通过同步上线GitHub与Hugging Face平台,向全球开发者敞开了开放合作的大门。新模型基于今年8月推出的Cosmos-Reason系列技术,实现了摄像头、激光雷达与文本指令的统一处理,通过内部推理机制生成精准的驾驶决策,官方宣称其为智能车辆注入了”人类常识”般的智能决策能力。
Alpamayo-R1的核心优势主要体现在以下三个方面:首先,其采用了创新的统一架构设计,通过视觉、语言和动作三模态的端到端训练方式,有效避免了传统分模块训练中可能出现的误差叠加问题;其次,模型内置了Cosmos思维链推理机制,能够对”前车急刹、行人横穿”等复杂交通场景进行多步逻辑推演,从而做出更符合人类驾驶习惯的加速/制动/转向决策;最后,英伟达提供了即开即用的解决方案,将模型权重、推理脚本和评估工具全部打包进”Cosmos Cookbook”开发套件,使开发者能够轻松进行按需微调。

英伟达首席科学家Bill Dally在发布会上表示:”机器人与自动驾驶将是下一波AI浪潮的核心驱动力,我们的目标是为所有智能机器人构建通用的大脑。”这一愿景的实现,离不开Alpamayo-R1所展现出的强大能力。为配合新模型的推出,英伟达还发布了完整的数据合成、模型评测与后训练全流程技术指南,特别鼓励车企与Robotaxi运营团队在限定区域内加速L4级自动驾驶功能的验证进程。
分析师指出,开源推理模型的发布将显著降低汽车制造商自主研发的门槛,但Alpamayo-R1要实现大规模商业化应用,仍需跨越两大关键门槛:一是必须通过严格的功能安全认证,二是要满足车规级实时性要求。尽管如此,业界普遍认为,英伟达此次推出的Alpamayo-R1模型,为L4级自动驾驶技术的普及应用奠定了坚实的技术基础,有望加速智能汽车产业的快速发展。
