摘要
2026年底前全部基础设施交付完毕,2027年起继续弹性扩容,为ChatGPT推理及下一代模型训练提供即时、可扩展的资源保障。
通过GB200/GB300 GPU超低延迟互联的UltraServers集群,兼顾大模型训练与在线推理,实现性能、成本、能效的最佳平衡。
AWS凭借50万+芯片超大规模运营经验,为OpenAI提供企业级安全、合规与稳定性,支撑其“自主智能体”等前沿负载。
OpenAI模型已上架Amazon Bedrock并成最受欢迎公共模型之一,未来双方将在开源权重、企业API及全球普及上持续联动,巩固OpenAI“朋友圈”与AWS云龙头地位。
这一周来,OpenAI 不断巩固并扩展自己的朋友圈,先是与微软开启下一阶段的合作,现在又与全球领先的云服务商亚马逊云科技(AWS)展开合作。
就在今天,OpenAI 与 AWS 官宣建立多年的战略合作伙伴关系。OpenAI 将立即并持续获得 AWS 世界级的基础设施支持,以运行其先进的 AI 工作负载。 AWS 将向 OpenAI 提供配备数十万颗芯片的 Amazon EC2 UltraServers(计算服务器),并具备将计算规模扩展至数千万个 CPU 的能力,以支持其先进的生成式 AI 任务。
双方合作的总额达到 380 亿美元,OpenAI 将快速扩大算力规模,同时利用 AWS 在价格、性能、可扩展性和安全性方面的优势。这也是史上最大云服务交易之一。
OpenAI CEO 奥特曼和 Amazon CEO 安迪・贾西对双方的合作都表示了期许。
完整公告如下:
今天,AWS 与 OpenAI 宣布达成一项为期多年的战略合作伙伴关系,OpenAI 将获得 AWS 的世界级基础设施,用于运行和扩展其核心 AI 工作负载。
根据这项价值 380 亿美元的新协议(未来七年将持续扩大),OpenAI 将使用 AWS 计算资源,其中包括数十万块最先进的 NVIDIA GPU,并具备扩展至数千万个 CPU 的能力,以快速扩展自主式智能体等 AI 工作负载。
AWS 在大规模 AI 基础设施的安全、可靠和高效运行方面拥有丰富经验,其集群规模已超过 50 万颗芯片。AWS 在云基础设施方面的领先地位,并结合 OpenAI 在生成式 AI 领域的开创性进展,将帮助数以百万计的用户继续从 ChatGPT 中获益。
AI 技术的快速进步带来了前所未有的算力需求。随着前沿模型开发者不断推动模型智能达到新高度,他们越来越多地选择 AWS,以获得卓越的性能、规模和安全性。OpenAI 将立即开始使用 AWS 的计算资源,目标是在 2026 年底前部署全部算力,并在 2027 年及以后进一步扩展。
AWS 为 OpenAI 打造的基础设施采用复杂的架构设计,专为实现最大化 AI 处理效率和性能而优化。通过 Amazon EC2 UltraServers 在同一网络上集群连接 NVIDIA 的 GB200 和 GB300 GPU,可实现低延迟的互联性能,使 OpenAI 能够高效地以最优性能运行 AI 工作负载。这些集群被设计用于支持多种任务,从 ChatGPT 的推理服务到下一代模型的训练,并具备灵活的可扩展性,以适应 OpenAI 不断发展的需求。
奥特曼表示,「要扩展前沿 AI,就需要海量且可靠的计算能力。我们与 AWS 的合作强化了广泛的计算生态系统,这将驱动下一个 AI 时代的到来,并让先进的人工智能惠及所有人。
AWS CEO 马特・加尔曼表示,「AWS 的顶级基础设施将成为 OpenAI 实现 AI 雄心的支柱,我们优化计算资源的广度与即时可用性,充分体现了 AWS 为何能独特地支持 OpenAI 庞大的 AI 工作负载。
这项消息也延续了双方此前在全球范围内推动尖端 AI 技术普及的合作。今年早些时候,OpenAI 的开源权重基础模型已在 Amazon Bedrock 上提供,使数百万 AWS 客户多了新的模型选择。OpenAI 迅速成为 Amazon Bedrock 上最受欢迎的公共模型提供方之一。
本文源自「私域神器」,发布者:siyushenqi.com,转载请注明出处:https://www.firethy.com/68027.html

微信扫一扫
支付宝扫一扫