微新创想:2026年3月,中信证券发布研报指出,人工智能正在经历从对话式模型向智能体(Agent)演进的重要阶段。这一转变使得模型的上下文长度呈现出显著的增长趋势,年均增长幅度高达30倍。随着上下文长度的扩大,KV Cache的显存需求也随之增加,且与上下文长度保持线性关系。
微新创想:当前,各大厂商正积极采取多种技术手段来应对这一显存瓶颈,包括模型量化、分层存储策略以及架构优化等。然而,尽管这些方法在一定程度上缓解了问题,显存的总体需求却并未减少,反而持续上升。这表明,显存的优化和升级已成为推动智能体发展的重要环节。
微新创想:研报进一步指出,显存优化能够有效降低每个Token生成的计算成本,从而提升系统的整体效率。随着成本的降低,智能体在实际应用中的并发能力将得到增强,同时更长的上下文处理也将成为可能。因此,存力的提升不仅关系到模型性能,更是智能体推理阶段不可或缺的核心需求。
微新创想:未来,随着智能体技术的不断成熟和应用场景的拓展,显存技术的创新与突破将成为行业发展的关键。企业需要在硬件升级与算法优化之间找到平衡,以实现更高效、更智能的AI服务。
