今年在夏威夷舉辦的Snapdragon Summit 2025活動上,隸屬沙烏地阿拉伯公共投資基金的HUMAIN與Qualcomm宣布合作、推動代理AI發展之後,目前雙方再次宣布達成一項變革性的合作協議,將在沙烏地阿拉伯境內共同佈署先進的AI基礎設施,並且以此提供全球性的AI推論 (inferencing)服務,而Qualcomm也同步揭曉了其針對資料中心AI推論設計的新一代解決方案——Qualcomm AI200與AI250晶片加速卡,以及相應機架設計方案。
HUMAIN與Qualcomm的新合作協議中,強調雙方將打造全球首個完全最佳化的「邊緣至雲端混合式 AI」 (edge-to-cloud hybrid AI)服務,進一步將沙烏地阿拉伯定位為全球人工智慧樞紐。
而此項合作是在第九屆未來投資倡議 (FII)會議前夕宣布,同時也是兩家公司繼今年5月於美沙投資論壇初步宣布合作後的具體落實作為。
瞄準200MW算力規模,導入Qualcomm新一代解決方案
根據協議,HUMAIN目標自2026年起,將佈署總計達200MW算力規模的Qualcomm AI200與AI250機架級解決方案。這些專為AI推論最佳化的硬體,將為沙烏地阿拉伯境內乃至全球的企業與政府組織,提供高效能的AI推論服務,並且強調將具備業界領先的每瓦效能與總體擁有成本 (TCO)。
戰略目標:結合在地模型與Qualcomm硬體,打造AI國家藍圖
此計畫被視為沙烏地阿拉伯科技生態系發展的關鍵一步,其結合HUMAIN在地的基礎設施、完整的AI技術堆疊專業知識 (包含其自研的ALLaM大型語言模型),以及Qualcomm在全球AI與半導體領域的領導地位。雙方期望藉此創造一個國家級AI能力建構的藍圖,涵蓋從資料中心營運到商業AI服務的完整鏈條。
HUMAIN執行長Tareq Amin表示:「透過Qualcomm世界級的AI基礎設施解決方案,我們正在塑造沙國AI未來的基礎。這次合作將HUMAIN的區域洞察力與獨特的全AI堆疊能力,與Qualcomm無與倫比的半導體技術結合,共同引領沙烏地阿拉伯在全球AI與半導體創新的下一波浪潮。」
Qualcomm總裁暨執行長Cristiano Amon則指出:「藉由建立採用高通領先推論方案的先進AI資料中心,我們正協助沙國打造一個能加速實現其AI雄心的技術生態系。我們正為該地區乃至全球的企業、政府組織與社群,奠定由AI驅動的變革性創新基礎。」
Qualcomm同步揭曉AI200/AI250推論方案細節
配合此次合作,Qualcomm也同步揭曉了其針對資料中心AI推論所設計的新一代解決方案——Qualcomm AI200與AI250晶片加速卡,以及相應機架設計。
Qualcomm AI200 (預計2026商用):
• 專為機架級AI推論設計,鎖定大型語言模型 (LLM) 與多模態模型 (LMM)。
• 強調低持有成本與最佳化效能。
• 每張卡支援高達768GB的LPDDR記憶體,提供高容量與成本效益。
Qualcomm AI250 (預計2027商用):
• 首度採用基於「近記憶體運算」(near-memory computing) 的創新記憶體架構。
• 號稱可提供超過10倍的有效記憶體頻寬,同時大幅降低功耗。
• 支援分離式AI推論 (disaggregated AI inferencing),提升硬體利用效率。
兩款機架級解決方案皆採用直接液冷 (direct liquid cooling)設計,支援PCIe垂直擴展 (scale up) 與乙太網路橫向擴展 (scale out),並且內建機密運算 (confidential computing) 功能,藉此確保AI工作負載安全。
Qualcomm強調,其提供豐富的軟體堆疊,可無縫相容主流AI框架 (如Hugging Face),並且提供一鍵式模型佈署等工具,目標簡化開發者與企業的導入流程。而Qualcomm也承諾未來將維持年度更新的節奏,持續推出資料中心AI推論產品。










