展覽 市場動態 硬體 網路 處理器 觀察 軟體

NVIDIA認為GPU、NVLink仍是人工智慧發展最具效率辦法

在NVIDIA執行長黃仁勳接連針對Google所打造的TPU加速器設計做出「回應」,對於目前Google藉由TPU推動基於深度學習的人工智慧技術發展,以及Intel藉由FPGA多叢集處理器架構所推動的人工智慧發展模式,我們在此次Computex 2017期間向NVIDIA解決方案架構與工程部門副總Marc Hamilton提出一些詢問。

, NVIDIA認為GPU、NVLink仍是人工智慧發展最具效率辦法, mashdigi-科技、新品、趣聞、趨勢

對於Google所提出TPU學習加速模式,Marc Hamilton認為就Google主要以TensorFlow學習框架推動人工智慧學習,其實是相當不錯的應用方案,但相比NVIDIA始終聚焦在以GPU進行加速,同時可對應更多學習框架的彈性,其實更能符合多元使用需求。

Marc Hamilton表示,在現行人工智慧仍沒有一定學習訓練模式,藉由GPU加速的方式確實能更有效率地縮短整體學習時間,甚至在佔用體積、電力損耗方面也都更具優勢。而在裝置端的學習應用,現階段看起來也是藉由GPU加速運算的學習模式較為有利,甚至就Volta顯示架構的Tesla V100單組運算效能便高於單組第二代TPU表現,甚至同樣針對TensorFlow學習框架加入Tensor核心設計,藉此優化學習運算效能。

, NVIDIA認為GPU、NVLink仍是人工智慧發展最具效率辦法, mashdigi-科技、新品、趣聞、趨勢

就NVIDIA的看法,Google所提出的TPU固然有其優勢,但主要還是聚焦在TensorFlow學習框架,甚至依然僅能在雲端進行學習運算,相比NVIDIA所提出解決方案便顯得有其應用侷限。而NVIDIA過去以來與Google維持深度合作關係,除旗下伺服器同樣藉由NVIDIA GPU產品協助運算,開發者在其雲端學習運算選項除可選擇前後規格的TPU,其實仍可選擇採GPU架構的運算規格。

因此Marc Hamilton認為NVIDIA提出GPU加速學習運算模式包含對應更多學習框架、硬體配置更具彈性,甚至針對更多開發者需求提出NVIDIA Cloud運算資源租賃服務,藉此滿足不同開發者實際應用情境。

此外,由於TPU的設計主要還是對應Google Cloud雲端服務為主,而NVIDIA的解決方案卻可同時對應不同硬體設計需求,例如藉由HGX-1雲端伺服器平台設計對應不同雲端平台使用模式,因此對應提供雲端服務的合作夥伴硬體佈署也更為有利。

, NVIDIA認為GPU、NVLink仍是人工智慧發展最具效率辦法, mashdigi-科技、新品、趣聞、趨勢

至於針對Intel強調藉由多處理器叢及以FPGA形式推動人工智慧學習模式,Marc Hamilton則認為NVIDIA很明確地持續走在以GPU加速為基礎的發展模式,並非像Intel選擇以大量資金向外收購Atera、Movidius、Nervana Systems,甚至針對自動駕駛技術發展重金收購Mobileye,即便NVIDIA提出的學習模式確實仍須使用CPU,但藉由GPU的加速模式卻是眾多處理器難以比擬,甚至在人工智慧學習分析所需巨量數據傳輸頻寬更可藉由NVLink介面改善,因此在學習效率將有更大優勢。

但Marc Hamilton也同意不同人工智慧技術發展,確實有各自合適的學習模式,因此主要還是取決人工智慧技術實際應用。不過確實在人工智慧技術成長背後所帶動的巨量數據傳輸頻寬需求,NVLink這樣的傳輸介面設計預期將能持續推動人工智慧技術成長,甚至讓更多人導入NVLink或相似的巨量數據傳輸技術。

※相關連結》

楊又肇 (Mash Yang)
mashdigi.com網站創辦人兼主筆,同時也是科技新聞業流浪漢。

發表迴響