OpenAI重磅宣布推出两款开源权重语言模型——gpt-oss-120b和gpt-oss-20b,这标志着自2019年GPT-2开源以来,OpenAI首次正式回归开源领域。这一战略举措不仅彰显了OpenAI的技术自信,更为全球AI开发者注入了强劲动力,将加速AI技术的普及化进程与创新浪潮。
两款开源模型均采用Apache2.0许可证发布,赋予开发者完整的自由度,可自由下载、修改并应用于商业场景。gpt-oss-120b和gpt-oss-20b分别拥有1170亿和210亿参数的混合专家(MoE)架构,激活参数量分别为51亿和36亿,在兼顾高效推理与资源控制方面实现了完美平衡。具体性能表现如下:
gpt-oss-120b:单卡运行能力强大,可在NVIDIA H100 GPU(80GB内存)上流畅运行,性能接近OpenAI专有模型o4-mini。在竞赛编程(Codeforces)、通用问题解决(MMLU、HLE)及健康相关查询(HealthBench)等场景中表现卓越,特别适合数据中心或高端企业级应用。
gpt-oss-20b:极致轻量化设计,仅需16GB内存即可在边缘设备上高效运行,性能媲美o3-mini。在竞赛数学(AIME2024&2025)等细分领域展现出惊人实力,为本地推理和设备端应用提供了理想解决方案。
技术细节方面,两款模型均支持长达128k token的上下文长度,创新性地采用交替密集和局部带状稀疏注意力机制,并运用分组多查询注意力技术显著提升推理效率。OpenAI还同步开源了‘o200k_harmony’分词器,进一步降低开发者的技术门槛。
安全与责任并重,OpenAI在开源过程中始终坚持高标准安全原则。针对开源模型可能面临的恶意微调风险,OpenAI对gpt-oss-120b进行了严格的对抗性微调测试,并通过“准备框架”验证确保模型在生物、化学及网络安全等敏感领域不会形成高风险能力。外部安全专家的独立审查进一步强化了模型的安全性。同时,OpenAI呼吁开发者根据实际应用场景补充必要的安全措施,并在模型卡和研究论文中全面披露安全测试数据,为开源社区提供透明参考。
此次战略转向被视为OpenAI应对开源领域激烈竞争的明智之举。近年来,Meta、DeepSeek等企业通过开源模型抢占市场,迫使OpenAI重新评估其闭源策略。CEO Sam Altman在Reddit AMA中坦诚表示,过去的开源路线存在失误,此次发布正是兑现回归开源承诺的关键一步。gpt-oss系列不仅满足了企业对本地化部署和数据隐私的迫切需求,更在金融、医疗、法律等高监管行业展现出巨大应用潜力,允许模型部署在私有服务器上彻底规避数据安全风险。OpenAI还与瑞典国家人工智能中心AI Sweden等机构展开合作,探索区域性微调方案,以提升模型在特定语言和文化环境下的适应性。
开发者生态赋能方面,gpt-oss系列展现出极高的兼容性,支持Transformers、vLLM、Ollama和llama.cpp等多种开发框架。开发者可通过Hugging Face、GitHub等平台便捷获取模型权重,并利用OpenAI提供的参考代码快速搭建应用。模型内置链式推理(Chain-of-Thought)、工具调用(支持Python代码执行、网页搜索等)及结构化输出(JSON、YAML等)功能,特别适合构建智能体工作流。此外,三种可调节的推理等级(低、中、高)让开发者能够灵活平衡速度与精度需求。
gpt-oss的问世不仅为开发者提供了高性能、低成本的AI工具,更对AI行业格局产生深远影响。相较于Meta的Llama或DeepSeek的R1,gpt-oss在推理能力和工具集成方面具有明显优势,尽管仍以文本单模态为主,但可通过API调用补充多模态功能。OpenAI表示将持续根据社区反馈优化gpt-oss系列,但未透露具体更新计划。业内专家预测,这一举措可能推动更多企业采用混合AI策略,即结合开源模型与云端服务,在成本与灵活性之间实现最佳平衡。
官方博客:https://openai.com/zh-Hans-CN/index/introducing-gpt-oss/