
微新创想:OpenAI 正式发布了两款全新的小型 AI 模型——GPT-5.4mini 与 GPT-5.4nano。这两款模型专为高频、低延迟的任务场景量身定制,标志着小型模型在保持轻量化的同时,在性能上实现了质的飞跃。

核心亮点在于低延迟与高效率的完美平衡。官方强调,在代码辅助、系统截图解析及实时图像推理等对响应速度要求极高的场景中,GPT-5.4系列小模型表现优异。GPT-5.4mini 在代码编写、逻辑推理及多模态理解方面远超前代,运行速度提升了2倍以上。其在多项基准测试中的成绩已逼近体积大得多的满血版 GPT-5.4,能够高效处理复杂的数据库导航及前端代码生成任务。
GPT-5.4nano 作为目前体积最小、成本最低的版本,它专为文本分类、数据提取及简单辅助任务设计,旨在为开发者提供极致的性价比。在实际应用中,该模型能够满足轻量级需求,同时保持较高的准确率和稳定性。

在技术参数与使用成本上,两款模型展现了极强的竞争力。GPT-5.4mini 支持400k 超长上下文窗口。其 API 价格为每百万 Token 输入0.75美元,输出4.50美元。目前已全面接入 API、Codex 及 ChatGPT,为用户提供更加灵活和高效的服务。
GPT-5.4nano 目前仅通过 API 提供,价格极具破坏力,每百万 Token 输入仅需0.20美元,输出为1.25美元。这一价格策略使得更多开发者和企业能够负担得起高性能 AI 模型的使用成本,从而推动 AI 技术在更多领域的普及和应用。
这两款模型的发布,预示着 AI 应用将从“追求规模”向“追求实战效率”转型。通过极速的响应能力,为实时 AI 交互和复杂任务流的拆解提供更可靠的底层支持。无论是企业级应用还是个人开发者,都能从中受益,实现更高效、更经济的 AI 解决方案。
