OpenAI稍早公布首款運行在Cerebras Systems晶片上的全新AI模型——GPT-5.3-Codex-Spark。這是OpenAI首度將旗下產品的運算基礎移出NVIDIA晶片,不僅意味其分散晶片供應鏈的策略開始施行,也為非NVIDIA陣營的AI加速器打了一劑強心針。
主打「極速推論」,專為寫程式而生的輕量模型
這次推出的GPT-5.3-Codex-Spark,是OpenAI旗下程式碼自動化工具Codex的輕量化版本,其設計初衷並非追求極致的複雜運算效能,而是主打「效率」。
對於軟體工程師來說,AI寫程式助理最重要的是「即時反應」。GPT-5.3-Codex-Spark允許開發者快速完成修改程式碼、執行測試等日常任務,甚至能隨時中斷當前作業,並且指派新任務,大幅減少等待AI生成結果的時間。
而這一切速度的背後,是來自OpenAI上個月與AI晶片新創業者Cerebras Systems簽下的百億美元合約。該模型目前運行在Cerebras Systems的旗艦級晶片Wafer Scale Engine 3 (WSE-3) 上,這是一顆專為高速推論 (Inference)打造的巨型AI加速器。
底層管線大翻修,延遲大幅降低80%
為了配合Cerebras Systems的硬體架構,OpenAI不僅針對新晶片進行最佳化,還對整體的推論運算流程 (Inference Pipeline)進行大幅度的改良。這些底層的升級帶來了顯著的效能提升:
• 來回延遲降低80%:客戶端與伺服器之間的通訊速度大幅提升。
• 首字元產出時間 (TTFT)縮短50%:AI開始吐出第一段程式碼的反應時間減半。
• 每Token開銷降低30%:運算成本顯著下降。
• 提高WebSocket連線時間:預設啟用,確保對話過程的穩定與即時性。
目前,GPT-5.3-Codex-Spark仍是一個純文字模型,具備128K的上下文長度 (Context Window),暫不支援圖片或多模態輸入。該模型目前以「研究預覽」的形式,率先開放給ChatGPT Pro訂閱用戶測試,預計未來幾週內會擴大開放範圍。
積極拓展朋友圈,但NVIDIA仍是「正宮」
這項合作對Cerebras Systems來說,無疑是在NVIDIA長期霸佔的市場中撕開了一道重大突破口。而對OpenAI來說,這只是其近期一系列「分散供應商風險」操作的最新進展。
回顧去年10月,OpenAI已經與AMD達成多年期協議,預計佈署高達6 GW規模的GPU算力,甚至同月內也與博通簽約,著手開發客製化晶片 (ASIC)與網路元件。
不過,面對外界關於「OpenAI與NVIDIA關係緊張」的傳聞,OpenAI官方仍火速出面滅火。發言人強調,與NVIDIA的夥伴關係是「基礎性的」 (Foundational),並且重申NVIDIA的硬體依然是OpenAI訓練和推論架構的核心。引進Cerebras Systems、AMD與博通晶片,純粹是為了「擴展生態系統」。



