展覽 網路 觀察 頭條話題

NVIDIA推動人工智慧運算成長,讓超算效能更容易透過網路、租賃取得

去年提出串接多組採Ampere顯示架構A100 GPU的DGX A100超級電腦,並且透過NVSwitch與Mellanox互連技術構成的DGX SuperPOD,此次在GTC 2021期間則宣布換上80GB記憶體設計的A100 80GB GPU,同時透過BlueField-2 DPU進行資料吞吐處理與安全防護,另外也配合NVIDIA BASE Command管理平台確保雲端連接與安全使用特性。

-

新版DGX SuperPOD除了讓運算效能再次提升,並且加入安全防護之餘,此次藉由NVIDIA BASE Command管理平台更可對應虛擬化佈署,以及雲端接入使用模式,藉此讓企業能更方便取用DGX SuperPOD運算效能。

例如運用新版DGX SuperPOD運算效能,以及雲端接入使用特性,LINE母公司NAVER便配合使用名為「Megatron」 (註:源自《變形金剛》中的反派角色密卡登)的模型框架訓練大型自然語言處理Transformer模型,讓旗下人工智慧系統可以理解韓語句意,並且藉此打造更自然且可互動的語音對話系統。

另外,新創製藥軟體業者Schrödinger也透過新版DGX SuperPOD運算效能模擬藥物反應,藉此進行新型分子特性結構化與模擬,進而加快藥物研發腳步。

而為了推動更多人工智慧運算應用,NVIDIA此次也宣布更新DGX Station A100 320G超級電腦,其中同樣升級採用A100 80GB GPU,搭配AMD 64核心設計的處理器、512GB DDR4記憶體與7.68TB NVMe SSD,配合MIG多執行個體技術,最多可同時執行28組運算。

DGX Station A100 320G超級電腦建議售價為14萬9000美元,另外也針對成本有限,或是僅特定時候需要較高運算效能的情況,額外也提供以每月9000美元價格租賃使用。

至於針對人工智慧推論訓練,NVIDIA除了說明旗下NGC (NVIDIA GPU Cloud)已經提供諸多已經完成前期訓練模型可供取用,而針對使用者希望針對學習內容進行微調,或是針對已經完成訓練的模型重新作調整,更提出名為NVIDIA TAO (註)的框架工具,可在不需要重新訓練情況下調整模型學習結果。

註:「TAO」分別是以Train (訓練)、Adapt (適應)、Optimize (最佳化)三個字字首組成。

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響