2025年10月30日,OpenAI重磅发布两款开源安全推理模型——gpt-oss-safeguard-120b与gpt-oss-safeguard-20b,标志着人工智能安全领域迎来重大突破。这两款尖端模型由OpenAI在美国尖端研发中心打造,专注于强化AI在内容过滤、风险识别及安全响应三大核心场景的表现。凭借卓越的推理能力,它们能够精准识别并过滤有害信息,有效降低社交平台内容风险,为企业级安全防护及合规审查提供强大技术支撑。
此次发布的gpt-oss-safeguard系列模型具备两大显著优势。首先,其强大的推理能力可深度理解文本语义,实现更精准的风险判定。其次,开源特性为全球开发者提供了宝贵的创新资源,通过社区协作共同构建更完善的AI安全生态。OpenAI此举不仅彰显了其在技术开放性上的坚定承诺,更体现了对AI安全治理的深刻思考。
作为行业领先的AI安全解决方案,这两款模型可广泛应用于多个关键领域。在社交平台,它们能有效净化网络环境,打击虚假信息与恶意内容;在企业安全层面,可构建全方位的风险预警体系;在合规审查领域,则能显著提升审查效率与准确性。OpenAI通过开源策略,为全球开发者铺设了一条通往更安全AI未来的道路,这一创新举措必将推动整个行业在开放透明与安全保障之间实现更高平衡。
