亞馬遜云服務(AWS)與人工智能研究機構OpenAI近日共同宣布,雙方已簽署一份為期數年的戰略合作伙伴協議。根據協議內容,AWS將為OpenAI提供價值高達380億美元的基礎設施支持,助力其開展核心人工智能研發工作。該合作預計將在未來七年持續深化,規模隨需求增長逐步擴大。
作為技術合作的核心,OpenAI將立即啟用AWS提供的算力資源,包括數十萬片英偉達最新一代GPU(涵蓋GB200與GB300系列),并具備擴展至千萬級CPU處理能力的潛力。這些資源將全面覆蓋從ChatGPT實時推理到新一代大模型訓練的多樣化需求。AWS計劃于2026年底前完成全部基礎設施部署,同時預留擴容空間以應對2027年及后續的增長壓力。
為滿足OpenAI對高性能計算的需求,AWS專門設計了全新架構的AI算力集群。該系統通過優化數據中心網絡帶寬與GPU互聯效率,顯著提升計算資源利用率。借助Amazon EC2 UltraServer實現的低延遲互聯技術,OpenAI能夠在模型訓練與推理任務間實現動態資源分配,尤其為“智能體(Agentic)”相關研究提供了更高效的運行環境。
OpenAI首席執行官薩姆·奧特曼(Sam Altman)在聲明中強調:“前沿人工智能的突破性進展高度依賴穩定且強大的算力支持。此次與AWS的合作將進一步完善我們的計算生態系統,為推動下一代智能技術發展奠定關鍵基礎。”AWS首席執行官馬特·加曼(Matt Garman)則表示,AWS憑借長期運營大規模AI基礎設施的經驗,其安全性、可靠性與性能表現能夠“充分支撐OpenAI的雄心壯志”。
事實上,雙方在AI生態領域的協作早已展開。今年早些時候,OpenAI的開源模型已通過AWS的Bedrock平臺向數千家企業開放,覆蓋編程、科研分析、數據處理等多元化應用場景。目前,OpenAI已成為Amazon Bedrock平臺上最受企業用戶青睞的模型供應商之一。
行業分析人士指出,此次合作不僅鞏固了AWS在全球AI基礎設施市場的領先地位,也體現了OpenAI在多云戰略下的布局深化。通過整合AWS的算力資源,OpenAI將獲得更穩定的長期技術支撐,進一步強化其在生成式人工智能領域的競爭優勢。










