同時支援6GHz以下頻段與毫米波 Sony揭曉開發中旗艦手機Xperia PRO
2020-02-24
訪談/Sony定調全新旗艦手機的Xperia 5,究竟是否歸類「Compact」定位?
2019-09-07
兌現競選承諾?川普政府大砍燃油效率標準、2031年車款平均油耗降至34.5 mpg
2025-12-04
今年初時,包含OpenAI、Softbank、甲骨文在內業者與白宮共同宣布成立名為「Stargate」人工智慧資料中心計畫,將額外加入阿拉伯聯合大公國的人工智慧投資公司MGX注入資金,預計在未來4年內以5兆美元經費建造OpenAI全新人工智慧基礎設施。依照彭博新聞報導指稱,此計畫位於德州阿比林 (Abilene)的資料中心,預計會在2026年底前安裝6萬4000組NVIDIA GB200 GPU加速器。 而這些GPU加速器預計分階段完成安裝,首波預計先在今年夏季內完成安裝1萬6000組。至於位於德州阿比林的資料中心將由OpenAI與甲骨文合作相關設計,並且由甲骨文負責管理後續投入運作的超級電腦。 不過,包含甲骨文、NVIDIA均未針對報導內容作任何回應。 除了德州阿比林資料中心,OpenAI與Softbank目前也已經在賓州、威斯康辛州、俄勒岡州勘查更多適合資料中心的建置地點,包含鹽湖城在內都可能是候選地點。 在「Stargate」計畫裡,將由OpenAI負責營運,財務部分則由Softbank負責,並且由Softbank執行長孫正義擔任董事長,而包含甲骨文、Arm、微軟、NVIDIA與OpenAI本身都會是此全新人工智慧基礎設施的技術合作夥伴,亦即將整合多方人工智慧技術資源推動更高算力表現,同時也將彼此共享人工智慧基礎設施算力資源。
DeepL宣布,將成為首批商業化部署以DGX GB200系統構成NVIDIA DGX SuperPOD的公司之一,而此套系統預計將於2025年中在DeepL服務上線,進一步提升其研究計算能力,提供創新語言AI平台所需的運算力,支援模型訓練、功能開發和產品研發,藉此打破全球企業和專業人士之間的語言障礙。 此次採購,不僅為DeepL有史以來最大規模採購,更使其成為首批採用以DGX GB200系統構成NVIDIA DGX SuperPOD的企業之一,預計進一步鞏固DeepL在語言人工智慧領域的領先地位。 DeepL 的創辦人暨執行長 Jarek Kutylowski 表示:「DeepL 始終以研究為主軸,使我們的語言 AI 翻譯技術持續在市場上表現亮眼,超越其他解決方案。這次對輝達 (NVIDIA)加速運算的投資,將為我們的研究和工程團隊提供所需的運算能力,支持我們不斷創新,推出深受客戶喜愛的語言 AI 工具和功能。」 NVIDIA DGX GB200 系統採用液冷設計,可擴展至數萬個 GPU,內建 NVIDIA GB200 Grace Blackwell 超級晶片,使 DeepL ...
NVIDIA稍早宣布將其以Blackwell顯示架構打造的加速運算系統GB200 NVL72,以及Spectrum-X乙太網路平台,向開放運算計畫 (OCP)貢獻其硬體機架設計基礎,藉此推動開放、高效運算且具擴充性的資料中心發展。 而NVIDIA宣布貢獻其硬體機架設計基礎,目的則是希望進一步加速人工智慧工廠建置成長動能,同時也能使其機架設計基礎成為眾人參考設計指標。 至於此次貢獻的硬體機架設計基礎,則包含加速運算系統GB200 NVL72的機架設計、運算及交換器托盤機構,以及包含液冷系統與熱循環規格,另外也包含可容納系統纜線的空間設計,加上可支撐更高運算密度的網路傳輸頻寬設計,更使其Spectrum-X乙太網路平台更符合開放運算計畫社群制訂規格。 在目前設計中,GB200 NVL72透過串接36組Grace CPU,搭配72組Blackwell GPU,並且透過NVLink連接各個GPU加速元件,使其成為巨型GPU,並且能執行運算參數規模破兆的超大型自然語言模型,並且透過液冷系統維持系統穩定。 同時,NVIDIA也宣布與全球超過40家業者進行合作,藉此打造可見至人工智慧工廠的關鍵元件,而包含Meta也以GB200 NVL72機架設計為參考,打造名為Catalina的人工智慧運算系統機架設計,同樣將其貢獻給開放運算計畫。
在甲骨文舉辦的Oracle Cloud World大會中,NVIDIA宣布與甲骨文合作建構Zetta級別規模的運算叢集OCI Supercluster,其中以NVIDIA新一代「Blackwell」加速運算平台支撐,並且讓企業能以最新GPU加速技術訓練、佈署下一代人工智慧模型。 OCI Supercluster可對應多種NVIDIA GPU加速產品,並且能部署於內部、公有雲或主權雲端,而以「Blackwell」架構建立的OCI Supercluster運算叢集將於2025年上半年推出,規模可擴充到使用13萬1072顆「Blackwell」GPU,搭配適用於RoCE v2網路層協定的NVIDIA ConnectX-7 NIC,或是NVIDIA Quantum-2 InfiniBand網路,藉此在雲端環境提供峰值可達2.4 zettaflops的人工智慧算力。 另外,甲骨文也在大會上展示以NVIDIA GB200 NVL72打造的液冷裸機執行個體,藉此對應各類自動生成式人工智慧執行應用,並且能透過NVIDIA Quantum-2 InfiniBand網路進行大規模訓練,同時配合NVLink技術串聯形成更大型GPU。 而甲骨文計畫在今年內提供以NVIDIA HGX H200建構的OCI運算叢集,透過NVLink與NVLink Switch技術在單一裸機執行個體裡連接8個NVIDIA H200 GPU,並且在 RoCE v2網路層協定叢集網路以NVIDIA ConnectX-7 NIC,將運算叢集擴充至6萬5536個H200 GPU。 ...
隨著AI模型規模日益龐大,政府與大型企業對於數據主權 (Data Sovereignty) 與合規性的需求也越來越高。AWS此次在re:Invent 2025大會上宣布推出全新AI工廠 (AI Factories)服務,將AWS的AI基礎設施,包含最新的NVIDIA加速運算平台與AWS自研Trainium晶片直接佈署至客戶既有資料中心內,協助其快速建立高效能、合規且合乎主權的AI運算環境。 ▲AWS宣布推出全新AI工廠 (AI Factories)服務,將AWS的AI基礎設施,包含最新的NVIDIA加速運算平台與AWS自研Trainium晶片直接佈署至客戶既有資料中心內 解決自建痛點,運作如「私有AWS區域」 AWS指出,對於受監管產業與公共部門而言,自建大規模AI基礎設施將面臨巨大的資本投入與採購週期挑戰。AWS此次提出AI工廠服務的核心概念,是將AWS的全套AI堆疊 (包含高速網路、儲存、資安及Bedrock、SageMaker等服務) 直接搬進客戶機房,並且由AWS負責營運。 ▲AWS此次提出AI工廠服務的核心概念,是將AWS的全套AI堆疊 (包含高速網路、儲存、資安及Bedrock、SageMaker等服務) 直接搬進客戶機房,並且由AWS負責營運 這使得該環境運作起來就像是一個「私有AWS區域」 (Private AWS Region),客戶可利用既有的電力與空間,同時享有AWS的管理服務與模型存取權,無需自行與多個供應商談判授權,大幅縮短佈署時間,並且滿足數據在地化的法規要求。 深化NVIDIA合作,將導入Grace Blackwell及後續即將推出的Vera Rubin 在硬體層面,AWS與NVIDIA的合作將進一步深化。AWS AI工廠服務將整合NVIDIA全端AI軟體與加速運算平台,其中包含支援最新的NVIDIA Grace Blackwell加速運算架構,以及接下來即將推出的NVIDIA Vera Rubin運算平台。 ...
繼上週確認與OpenAI達成380億美元的雲端協議後,亞馬遜旗下雲端服務AWS與OpenAI進一步公布此戰略合作細節,其中將由AWS為OpenAI提供其世界級的基礎設施,以「立即開始」運行其先進的AI工作負載。 此項涉及380億美元規模的協議,將在未來七年內持續增長。這意味OpenAI在結束與微軟的獨家雲端協議後,正式將AWS納為其核心的AI基礎設施供應商之一。 導入EC2 UltraServers,搭載數十萬顆GB200/GB300 GPU 根據AWS公布細節,此次合作的技術核心內容包含: 硬體規模: • AWS將為OpenAI提供Amazon EC2 UltraServers運算叢集,並且搭載數十萬顆最先進的NVIDIA GPU (包含GB200s與GB300s)。 • AWS強調其營運大規模AI基礎設施的經驗 (叢集超過50萬顆晶片),並表示此佈署未來還能擴展至數千萬顆CPU,藉此滿足代理AI (Agentic AI)工作負載的龐大規模化需求。 佈署時程: • OpenAI將立即開始使用AWS運算資源。 • 協議中的所有運算容量,目標在2026年底前佈署完畢,並且保留2027年後進一步擴展的能力。 架構設計: AWS指出,其為OpenAI建構的基礎設施採用了複雜的架構設計,透過EC2 UltraServers將NVIDIA GPU運算叢集在同一網路上互連,實現低延遲效能,使其能高效運行包含ChatGPT推論 (inference) 與下一代模型訓練 (training) ...
NVIDIA 在華盛頓特區舉行的 GTC 大會上揭曉 NVIDIA BlueField-4 資料處理器 (DPU),將透過軟體定義的加速能力,全面提升 AI 資料儲存、網路傳輸與安全性,將資料中心轉型為安全、智慧化的 AI 基礎設施,而 NVIDIA 將其形容為驅動「AI 工廠作業系統」的核心引擎。 BlueField-4 的推出,是為了應對 AI 工廠持續以前所未有的規模擴展,以及處理兆級 (trillion-token) 工作負載的爆炸性需求。 核心架構:Grace CPU + ConnectX-9,效能、規模大幅提升 BlueField-4 在硬體架構上迎來重大升級,其整合了: • NVIDIA Grace ...
NVIDIA宣布將與美國能源部 (DOE) 轄下的國家實驗室,以及多家美國企業展開廣泛合作,共同建構美國的AI基礎設施。NVIDIA創辦人暨執行長黃仁勳將此形容為「AI工業革命的黎明」,並且稱其為美國「這一代的阿波羅時刻」。 黃仁勳強調:「下一波發明、發現與進步,將取決於我們國家擴展AI基礎設施的能力,我們正共同打造有史以來最先進的AI基礎設施。」 加速國家實驗室科學研究:7套新系統導入阿貢國家實驗室與洛斯阿拉莫斯國家實驗室 NVIDIA將為美國能源部旗下的阿貢國家實驗室 (Argonne National Laboratory) 與洛斯阿拉莫斯國家實驗室 (Los Alamos National Laboratory, LANL) 提供AI基礎設施,加速7套全新系統的佈署: Solstice (阿貢國家實驗室): • 與甲骨文及美國能源部合作打造,將成為美國能源部最大的AI科學研究超級電腦。 • 搭載破紀錄的10萬顆NVIDIA Blackwell GPU。 Equinox (阿貢國家實驗室): • 搭載1萬組NVIDIA Blackwell GPU,預計2026年上線。 ...
半導體產業分析機構SemiAnalysis公布的InferenceMAX v1基準測試結果顯示,NVIDIA以其Blackwell顯示架構GPU平 橫掃所有測試項目,在效能、能效與整體經濟性上樹立新標竿。 這項全新基準測試被視為首個能真實反映AI推論總運算成本 (Total Cost of Inference)的獨立評測,涵蓋多樣化模型與實際應用場景,重點在於「效益」而非單純速度。 15倍投資報酬率的AI工廠公式 報告指出,若企業投資500萬美元佈署一套NVIDIA GB200 NVL72系統,在AI應用中將可創造高達7500萬美元的詞元收益 (DSR1 token revenue),投資報酬率高達15倍,意味著推論效能不再只是技術指標,而是企業營運獲利的關鍵引擎。 NVIDIA超大規模與高效能運算副總裁Ian Buck強調:「推論是AI每天創造價值的核心。Blackwell的成果證明,我們的全端策略能讓客戶在大規模佈署AI 時,同時獲得極致效能與最佳效率。」 Blackwell架構:效能、效率雙軌驅動 在InferenceMAX v1基準測試中,Blackwell架構的B200 GPU在多款模型測試中表現驚人,包含在每組GPU可達60000個詞元/秒的吞吐量,以及每名使用者可使用多達1000 TPS (Token per Second),相較前代H200 GPU,整體輸出效能更提升達4倍,而每百萬個詞元的運算成本可降低15倍,實現業界最低每百萬個詞元僅0.02美元的成本表現。 這項效能的背後,仰賴NVIDIA全新TensorRT-LLM v1.0推論框架與NVLink Switch高速互連技術。後者可提供1800 ...
隨著與NVIDIA、甲骨文及AMD在內業者相繼宣布合作,OpenAI顯然正在推動一場前所未有的「AI閉環經濟」實驗。OpenAI執行長Sam Altman近期受訪時透露,目前公布的合作僅是開端,未來幾個月內還會公布更多類似的重大合作交易。 Sam Altman表示,隨著公司對未來模型能力與算力需求的信心不斷增強,OpenAI已經決定展開一場「極具侵略性」的基礎設施投資。其戰略核心是讓關鍵供應商成為利益共同體,透過交叉投資與資源綁定,共同打造AI時代的基礎運算生態。 在今年一連串的合作中,OpenAI已與甲骨文、SoftBank簽署代號「Stargate」的超大型基礎設施計畫,總投資金額高達5000億美元,用於在美國境內建設10吉瓦規模的數據中心。同時,OpenAI也分別與NVIDIA及AMD合作,規劃超過16吉瓦規模的AI運算佈署。 然而,這些合作的關鍵不僅局限於算力規模,而是背後獨特的交易結構。NVIDIA預計向OpenAI投資高達1000億美元,並且成為其股東。作為回報,OpenAI將大量採購NVIDIA GPU及伺服器設備。外界形容這是一種「AI循環融資」機制,亦即由供應商以投資資金支持客戶購買自家產品,形成閉環經濟模式。 另一方面,OpenAI與AMD的協議也帶有強烈的金融創新色彩。其中,AMD將向OpenAI提供總額約佔公司10%的認股權證,作為合作條件之一。意味OpenAI將成為AMD的股東,並且可透過股票增值支付部分GPU採購費用。 分析師指出,若AMD股價達成預設里程碑,OpenAI所持股票價值可能高達1000億美元。而NVIDIA執行長黃仁勳在接受CNBC電視台專訪時,更認為AMD此舉相當「聰明」,但也說明與NVIDIA投資作法明顯不同,並且強調目前合作對雙方都有利。 至於Sam Altman在受訪指出,目前合作推動項目是針對未來的「豪賭」,更強調OpenAI長期發展規劃將遠超現有模型的能力,若要滿足未來規模的推論與訓練需求,勢必要在能源、硬體、雲端與分發層面建立全新的基礎設施,因此認為從基礎建設層面到模型分發的每一個環節,都需要整個產業支持。 不過,外界對OpenAI的財務能力依然存疑。目前OpenAI在2025年上半年營收僅約45億美元,與已簽署、總值逼近1兆美元的合作協議相比差距巨大,而黃仁勳甚至在訪談中透露,OpenAI目前還未有足夠資金承擔全部設備成本。 此外,市場也傳出OpenAI仍在與博通洽談下一代客製化AI加速晶片設計,相關訂單規模超過100億美元。若消息屬實,將使OpenAI在算力佈局競爭再下一城,也進一步印證Sam Altman對AI產業鏈垂直整合的野心,將使OpenAI不只是AI模型提供者,更是整個產業能量的「中心」。