
近日,亚马逊网络服务(AWS)推出了一项创新功能——Amazon Bedrock Custom Model Import,为用户提供了便捷的途径来部署开源的GPT-OSS模型。这一功能全面支持包含20亿和120亿参数的GPT-OSS模型变体,助力企业在保持API兼容性的同时,顺利将现有应用程序迁移至AWS云平台。通过这一功能,用户只需将模型文件上传至Amazon S3存储桶,然后在Amazon Bedrock控制台中启动导入流程,AWS将自动完成GPU配置、推理服务器搭建以及按需自动扩展等复杂任务,让用户能够全神贯注于应用开发。
GPT-OSS模型作为OpenAI推出的首批开源语言模型之一,在推理和工具使用等多个领域展现出卓越的应用价值。用户可以根据实际需求灵活选择合适的模型版本:GPT-OSS-20B适用于对速度和效率要求极高的场景,而GPT-OSS-120B则更适合处理复杂的推理任务。两款模型均采用先进的专家混合架构,能够在请求时仅激活最相关的模型组件,从而确保高效稳定的性能表现。

部署GPT-OSS模型的过程包含四个核心步骤:首先下载并准备模型文件,然后将文件上传至Amazon S3;接着使用Amazon Bedrock进行模型导入,最后通过OpenAI兼容的API调用进行模型测试。用户在开始前需要确保拥有AWS账号并具备相应权限,同时在目标区域创建S3存储桶。完成模型导入后,用户可以使用熟悉的OpenAI聊天API格式进行测试,轻松验证模型是否正常运行。值得注意的是,迁移到AWS平台的过程几乎无需修改代码,只需调整调用方式,消息结构保持完全一致。
在使用这一新功能时,AWS还建议用户遵循多项最佳实践,包括文件验证和安全性设置等,以确保模型部署的顺利进行。此外,AWS将持续扩大Bedrock服务的区域支持范围,以满足全球更多用户的需求。这一创新功能将极大降低企业使用开源AI模型的门槛,推动AI技术的广泛应用和发展。
