繼上週確認與OpenAI達成380億美元的雲端協議後,亞馬遜旗下雲端服務AWS與OpenAI進一步公布此戰略合作細節,其中將由AWS為OpenAI提供其世界級的基礎設施,以「立即開始」運行其先進的AI工作負載。
此項涉及380億美元規模的協議,將在未來七年內持續增長。這意味OpenAI在結束與微軟的獨家雲端協議後,正式將AWS納為其核心的AI基礎設施供應商之一。
導入EC2 UltraServers,搭載數十萬顆GB200/GB300 GPU
根據AWS公布細節,此次合作的技術核心內容包含:
硬體規模:
• AWS將為OpenAI提供Amazon EC2 UltraServers運算叢集,並且搭載數十萬顆最先進的NVIDIA GPU (包含GB200s與GB300s)。
• AWS強調其營運大規模AI基礎設施的經驗 (叢集超過50萬顆晶片),並表示此佈署未來還能擴展至數千萬顆CPU,藉此滿足代理AI (Agentic AI)工作負載的龐大規模化需求。
佈署時程:
• OpenAI將立即開始使用AWS運算資源。
• 協議中的所有運算容量,目標在2026年底前佈署完畢,並且保留2027年後進一步擴展的能力。
架構設計:
AWS指出,其為OpenAI建構的基礎設施採用了複雜的架構設計,透過EC2 UltraServers將NVIDIA GPU運算叢集在同一網路上互連,實現低延遲效能,使其能高效運行包含ChatGPT推論 (inference) 與下一代模型訓練 (training) 在內的各種工作負載。
強化運算生態系、AWS具獨特地位
OpenAI共同創辦人暨執行長Sam Altman對此表示:「擴展尖端AI需要大規模且可靠的運算。我們與AWS的合作強化了更廣泛的運算生態系,這將為下一個時代提供動力,並且將先進AI帶給每個人。」
AWS執行長Matt Garman則回應:「隨著OpenAI持續推動可能性,AWS一流的基礎設施將成為其AI雄心的支柱。優化運算的廣度與即時可用性,證明了AWS為何在支援OpenAI龐大AI工作負載方面處於獨特地位。」
AWS鞏固AI戰略地位
此次合作顯然是AWS在AI基礎設施競賽中的一次重大勝利。先前外界質疑AWS在AI浪潮中落後於競爭對手微軟 (OpenAI 的主要夥伴) 與Google (Anthropic 的主要夥伴之一)。
然而,隨著OpenAI尋求運算力多元化,以及Anthropic近期也宣布導入Google百萬顆TPU,AWS此次成功爭取到OpenAI這筆380億美元的大單,不僅緩解了市場對其AI客戶過度集中 (如Anthropic) 的擔憂,也證實了其在提供大規模NVIDIA GPU運算力方面,依舊是市場上的關鍵參與者。









