市場動態 硬體 網路 處理器

加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體

在此次SC20超算活動中,NVIDIA針對大規模運算需求推出A100 80GB,其中搭載容量高達80GB的HBM2e高密度記憶體模組,並且對應每秒2TB記憶體傳輸頻寬,藉此讓人工智慧、巨量數據分析等應用能以更快效率完成。

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

依照說明,NVIDIA表示A100 80GB在Quantum Espresso模擬運算能提升2倍效率,藉由10TB Retail Benchmark量測約可對應2倍巨量數據分析效率提升,在DLRM Recommender人工智慧訓練也能增加3倍效率,而在RNN-T神經網路下的語句分析更可在多線程推論效率提升1.25倍,甚至也能推動1.25倍的電力使用效率。

另外,藉由本身可堆疊串接特性,NVIDIA也以A100 80GB為基礎,推出串接8組A100 80GB構成的DGX A100 640GB,並且將DGX A100 640GB納入DGX Superpod建置選項,例如目前在英國劍橋建置的Cambridge-1超級電腦,目前就導入DGX A100 640GB。

配合DGX Superpod建置需求,NVIDIA也針對採用1500組GPU規模的資料中心打造NDR 400G MellanoxInfiniBand網路卡,讓網路連接成本降低1.2倍,同時也能減少1.2倍電力輸出

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

針對一般公司、高解析影音內容等創作需求打造DGX Station A100

而針對一般公司運算,或是對應高解析影音內容創作等需求,NVIDIA此次也宣布推出搭載4組A100 80GB的DGX Station A100,標榜能以更彈性方式佈署等同資料中心運算效能,同時也能透過總計達320GB HBM2e記憶體對應大規模運算量。

不過,相較過往採用Intel Xeon系列處理器設計,NVIDIA此次則是在DGX Station A100導入AMD EPYC系列處理器規格,藉由64核心、最高512GB記憶體,搭配PCIe 4.0連接埠更高傳輸頻寬,儲存容量則以1.92TB NVMe M.2 SSD構成,最高可擴充至7.68TB。

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

藉由第三代NVLink技術,NVIDIA表示將能以每秒200GB傳輸頻寬對應GPU之間資料交換,相比透過PCIe 4.0連接埠可對應3倍以上傳輸效率。同時,NVIDIA也表示在DGX Station A100採用全新無須維護的冷卻系統設計,確保DGX Station A100效能穩定發揮。

至於連接部分,DGX Station A100分別對應2組10GbE (RJ45)網路連接埠與1組支援遠端操作的1GbE網路連接埠,並且支援4組Mini DisplayPort輸出。

, 加速人工智慧、巨量數據運算效率,NVIDIA讓DGX超級電腦導入大規模記憶體, mashdigi-科技、新品、趣聞、趨勢

未來也可能在DGX Station導入Arm架構,或是更多處理器設計

另外,雖然此次在DGX Station A100導入AMD EPYC系列處理器規格,NVIDIA強調並不會改變原本與Intel合作模式,不過也強調本身GPU能與眾多架構設計的處理器搭配應用,除了x86架構,自然也包含Arm架構設計處理器,甚至也能對應IBM Power系列處理器使用。

未來是否會考慮推出基於Arm架構設計的DGX Station系統,或是更多DGX應用產品,NVIDIA並未有具體回應。而針對此次讓SXM封裝設計的A100搭載HBM2e記憶體容量增加至80GB,是否意味未來推出PCIe連接埠產品也會有相同設計,NVIDIA同樣也未有具體回應。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響