在全球 AI 芯片竞赛持续升温的背景下,初创芯片公司 Positron 近日正式揭开了其全新 AI 推理芯片——Asimov 的神秘面纱。该公司宣称,这款针对大模型(LLM)推理深度优化的芯片,在能效比(每瓦 Token 数)和性价比(每美元 Token 数)这两个关键指标上,预计将达到英伟达下一代 Rubin 架构的5倍,这一激进的数据立刻引发了业内的广泛关注。
Positron 的核心逻辑在于对传统 GPU 架构的“减法”式重塑。Asimov 芯片舍弃了传统计算卡中庞杂的控制电路,转而采用一种更纯粹的张量处理架构,旨在最大限度地减少能量在非计算环节的损耗。这种设计思路不仅让 Asimov 在运行同等规模的模型时功耗更低,更极大地缩减了芯片的制造与封装成本。Positron 团队强调,面对当前数据中心严苛的电力限制,这种极致的能效表现将成为企业部署 AI 服务的关键。
尽管 Asimov 展现了惊人的理论数值,但要挑战英伟达的市场地位并非易事。目前,Positron 正致力于构建配套的编译器与开发生态,以确保开发者能够无缝迁移现有的 PyTorch 或 TensorFlow 模型。Asimov 芯片计划采用先进制程工艺,并针对当前主流的 Transformer 架构进行了硬件级加固,确保在处理万亿参数模型时依然能保持高吞吐量与低延迟。
AIbase 认为,Positron 的入局代表了 AI 芯片领域从“通用算力”向“专用推理”转型的趋势。如果 Asimov 能够如期兑现其5倍效能的承诺,将可能彻底改写大模型推理市场的成本版图。
划重点:
-
🚀 能效巅峰挑战:Asimov 芯片宣称其每瓦特及每美元产出的 Token 效率是英伟达未来 Rubin 架构的5倍,主打极致性价比。
-
🏗️ 架构精简革新:舍弃通用计算的冗余设计,通过专注于张量计算的专用架构,大幅降低推理过程中的能量损耗与硬件成本。
-
🌐 瞄准大规模推理:硬件设计针对 Transformer 架构深度优化,旨在解决万亿参数模型部署时的电力瓶颈与高昂的运营费用。
