
Token,Token,还是Token。在12月18日备受瞩目的FORCE原动力大会上,火山引擎总裁谭待的开场演讲中,”Token”一词出现了18次,而”云”仅提及7次。这一数据背后,是火山引擎豆包大模型日均Token调用量突破50万亿的惊人增长——自发布以来,该指标实现了417倍飞跃,较去年12月更是暴涨10倍。与Google10月公布的43万亿日均Token量(换算自月均数据)相比,豆包大模型已稳居中国第一、全球第三的领先地位。
根据IDC最新报告,火山引擎在中国公有云大模型服务调用量上持续领跑,MaaS市场份额从2024年的46.4%进一步提升至49.2%。”在中国公有云上每产生两个Tokens,就有一个出自火山引擎。”谭待在5000名观众面前掷地有声地宣布。当日发布的最新进展中,火山引擎再次展示了字节跳动大模型的进化成果:豆包大模型1.8正式亮相,Seedance1.5pro视频生成服务同步推出,两项产品在多模态处理和中文方言识别上达到行业领先水平。
字节跳动通过这一系列发布传递出明确信号:豆包大模型不仅是Token的主要创造者,其进化方向正精准契合当前Token消耗的结构性变革。从”推理取代训练”到多模态+Agent成为绝对主流,火山引擎的服务已全面覆盖这些新兴需求。这一增长背后,火山引擎正在构建独特的Token经济体系。
作为大模型处理信息的基本单位,Token本质上是人们对AI的调用量。但Token计算基于长度,一篇文章与关键代码可能消耗相似量级,这引发价值衡量争议。火山引擎算法团队经过内部讨论最终达成共识:Token量是关键指标。”AI要产生实际价值,必然伴随着大量Token消耗,哪怕最终决策仅用一个Token,但得出结论的过程已消耗海量Token。”这一结论促使火山引擎确立”更多Token代表更多智能”的核心战略。
Token增长正经历结构性变革。火山引擎智能算法负责人吴迪描绘出演进路径:”到2027-2028年,C端用户获取的AI信号将多为视觉形式,LLM将以coding和agent形式下沉至数字世界底层。”这意味着Token将呈现分层特征:LLM成为底层支撑,多模态视觉交互Token在上层涌现。吴迪预测,2030年国内Token消耗量将增长百倍以上,届时衡量企业智能化程度的核心指标将从GPU数量转变为Token总量,因其能同时反映模型能力、使用频率和真实需求。
云设施必须以模型为中心重构。火山引擎作为从字节走出的AI云原生基础设施,面临传统云计算体系与模型需求的矛盾。”传统IaaS、PaaS、SaaS分层架构已失效,以模型为中心的AI云原生架构正在形成。”谭待指出。为此火山引擎推出一系列创新服务:推理代工支持按Token消耗付费;升级的Agent开发套件(ADK)实现多会话共享;智能端点支持多模型路由;方舟平台支持场景化RL强化学习微调。其中ADK的动态运行时设计直接挑战行业惯例,采用多会话共享模式而非AWS AgentCore的独立运行时方案,既降低成本又满足字节内部AI原生需求。
火山引擎正引领云行业向模型中心化转型。其客户字节跳动拥有抖音等国民级产品带来的规模效应,推出全球最大多模态Agent模型豆包,并建立真实需求直达模型训练的直通机制。火山引擎算法团队与字节模型部门Seed紧密合作,市场需求直接影响模型研发方向。豆包大模型采用大一统技术路线,取消过多版本选择,并建立真实业务价值评估体系,Seedance新增Draft样片预览功能,豆包模型内置丰富工具链,128k上下文等炫技功能被舍弃。
这一Token经济模式已产生显著成效。谭待宣布,2025年已有超100万家企业和个人使用火山引擎大模型服务,覆盖100多个行业,其中超100家企业累计Token使用量突破1万亿。这印证了字节”用需求指引模型发展”模式的巨大价值。
字节的Token经济学逻辑清晰:越多的Token意味着越高的智能含量。服务AI的云必须重构,传统云厂商惯性难改,而火山引擎凭借字节背景的AI原生技术积累,正为整个云行业提供新方案。随着Agent普及,Token将从原材料升级为高级智能单元,创造更大商业价值。谭待认为,基于Token的商业模式尚处初级阶段,未来Agent将推动市场从IT预算环节扩展至BPO(业务流程外包)层面,”10万亿Agent市场”的核心逻辑正在于此。
