人工智能创新企业 Anthropic 今日正式宣布,备受瞩目的 Claude Sonnet4 语言模型(LLM)已成功升级,支持高达100万个上下文词元。这一突破性进展使 Anthropic 成为继 Google Gemini 之后,全球范围内第二家提供如此庞大上下文窗口的主流模型供应商。此前,Claude Sonnet4 API 的上下文限制仅为20万个词元,此次扩展实现了五倍的飞跃,开发者们现在可以在单个请求中提交超过75,000行的庞大代码库。这一革新将极大提升开发效率,尤其对于需要处理复杂任务或海量数据的场景而言意义重大。
Claude Sonnet4 的长上下文支持已正式进入公开测试阶段,覆盖 Anthropic 自身API及Amazon Bedrock平台。与此同时,Google Cloud Vertex AI 也计划近期推出类似功能。值得注意的是,目前该高级功能仅向 Tier4级别的开发者开放,并设有定制化的速率限制。Anthropic 表示,将在未来几周内逐步扩大这一功能的覆盖范围,让更多开发者受益。
随着上下文窗口的显著扩大,计算需求也随之提升。为应对这一挑战,Anthropic 推出了全新的定价策略:对于20万个词元以下的提示,Sonnet4的费用为每百万输入词元3美元,每百万输出词元15美元;而对于超过20万个词元的提示,费用则调整为每百万输入词元6美元,输出词元22.5美元。值得一提的是,开发者可以通过采用快速缓存和批处理技术,有效降低使用成本,其中批处理甚至能为1M上下文窗口的定价提供高达50%的折扣。
在最近Reddit的一场问答活动中,OpenAI领导层就长上下文窗口的支持计划进行了深入探讨。OpenAI首席执行官Sam Altman坦言,尽管尚未发现用户对长上下文的强烈需求,但若市场需求足够旺盛,他们会考虑支持这一功能。OpenAI团队成员Michelle Pokrass透露,团队原本计划在GPT-5中实现长达100万个词元的上下文支持,尤其针对API应用场景,但由于GPU资源需求巨大,最终未能实现这一目标。
随着Anthropic推出1M上下文支持,其在长上下文功能方面已与Google Gemini展开直接竞争,这无疑给OpenAI带来了重新评估产品路线图的压力。这一创新不仅彰显了Anthropic在AI领域的领先地位,也为整个行业树立了新的标杆,预示着未来AI应用将朝着更强大、更灵活的方向发展。