近日,亚马逊网络服务(AWS)推出一项新能力,用户可通过 Amazon Bedrock 的 Custom Model Import 轻松引入并部署开源的 GPT-OSS 模型。
该功能支持 20 亿和 120 亿参数的 GPT-OSS 版本,帮助企业在保留 API 兼容性的前提下,将现有应用顺利迁移到 AWS。你只需把模型文件上传到 Amazon S3,并在 Amazon Bedrock 控制台发起导入;随后 GPU 资源配置、推理服务搭建以及按需自动扩展都会由 AWS 全面托管,你可以更专注于应用开发。

GPT-OSS 模型是 OpenAI 发布的首批开源语言模型,适用于推理、工具调用等多种场景。你可按需求选择:GPT-OSS-20B 适合速度和效率要求更高的应用,GPT-OSS-120B 则更适合复杂推理任务。两款模型均采用专家混合架构,请求到来时只激活最相关的组件,确保性能与效率兼顾。
部署流程分为四步:下载并准备模型文件、上传到 Amazon S3、在 Amazon Bedrock 中导入模型,以及使用 OpenAI 兼容的 API 发起调用进行测试。请确认已拥有 AWS 账号和必要权限,并在目标区域创建 S3 存储桶。导入完成后,可用熟悉的 OpenAI 聊天完成 API 的消息格式进行验证,确保模型正常运行。此外,迁移到 AWS 的代码改动很少,主要更换调用方式,消息结构保持不变。
使用新功能时,AWS 建议遵循一些最佳实践,例如文件校验与安全设置,以保证部署过程顺利。AWS 也将持续扩展 Bedrock 的区域覆盖,满足更多用户的使用需求。
划重点:
🌟 Amazon Bedrock 新增 Custom Model Import,支持 GPT-OSS 模型快速部署。
💡 你只需上传模型文件,底层 GPU 配置、推理服务搭建与弹性扩缩均由 AWS 自动完成。
🔄 迁移到 AWS 流程简单,API 兼容让既有应用几乎零改动即可接入。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?