【AIbase 报道】近日,一家在旧金山悄然崛起却备受瞩目的初创公司 Deep Cogito,正式发布了其革命性的 Cogito v2 系列大型语言模型(LLM),试图在竞争激烈的开源AI领域开辟出一条新路径。这家由前谷歌顶尖工程师创立的公司,摒弃了传统的参数堆叠模式,大胆押注“机器直觉”与自我改进的推理能力,致力于打造出真正能够“边用边学”的AI模型。这种模型不仅能精准回答问题,更能在交互过程中不断学习“如何更好地回答问题”。
Cogito v2 系列包含四个不同规模的模型,参数量从 70B 到 671B 不等,分为密集模型(Dense)和专家混合模型(MoE),均已全面开放在 Hugging Face、Together AI 等主流平台上。其中,旗舰模型 Cogito v2-671B MoE 被誉为“思维效率最优”的推理型AI,其推理路径比 DeepSeek R1 缩短了整整 60%,性能却能与 Qwen1.5-72B 和 Claude4Opus 相媲美甚至超越。这一卓越表现的核心,在于其独创的技术机制——模型不仅能在运行时进行“内省式推理”,还能将这些推理路径提炼并回传至模型权重中,形成内化的“直觉”。这一机制让模型如同 AlphaGo 通过对弈强化策略一样,在每一次推理中不断“进化”,变得更聪明。
### 推理实力实战检验:速度更快,路径更短
Deep Cogito 通过多个测试案例,生动展示了 Cogito v2 系列的“机器直觉”优势。在数学问题中,Cogito671B 仅需短至 100token 的推理链即可准确得出结论,而 DeepSeek R1 则需要 200+ token。在法律类推理任务中,Cogito v2 采用两步逻辑结构就能输出清晰结论,表现甚至超过了许多专业模型乃至真实法学硕士学生。在经典的亲属逻辑题“爱丽丝是查理的祖母吗?”中,Cogito v2 成功避开了代词混淆陷阱,精准输出“祖母”。
### 更低成本的训练路线,挑战百万级预算神话
尽管 Cogito v2 的模型规模庞大,但 Deep Cogito 声称其训练 8 个模型的成本仅为 350 万美元,这与 OpenAI、Anthropic 等巨头动辄上亿美元的研发开销形成鲜明对比。公司首席执行官 Drishan Arora 强调:“更好的模型不是训练更多数据,而是训练更有意义的数据。”这正是 Cogito 模型在推理任务上取得突破的关键所在。
### 开源理念延续,打造“会进化的模型体系”
Cogito v2 模型现已可通过 Hugging Face、Baseten、RunPod、Unsloth 等平台免费下载或API调用。为满足轻量化部署场景的需求,Cogito671B 还推出了 FP8 量化版本,支持大模型以更低硬件门槛运行,同时推理效率显著提升,准确率仅微幅下降。更重要的是,Deep Cogito 承诺所有模型将完全开源,并持续迭代优化,形成以“推理链反馈+自我提升”为核心的新型模型训练路径。目前,Cogito v2 已获得 Benchmark 和 South Park Commons 等知名机构的关注与支持,被视为开源AI领域的一匹黑马。