強化深度學習 Google揭曉第二代TPU、TensorFlow Research Cloud服務

去年在Google I/O 2016宣布藉由客製化TPU (Tensor Processing Unit)處理器加速運算推理效率之後,Google在Google I/O 2017主題演講再次宣布推出第二代TPU,並且將以Cloud TPU形式作為Google Compute Engine全新運算基礎,同時藉由每組Cloud TPU可發揮180TFLOPS運算效能表現,同時提昇深度學習與邏輯推理效率。

此外,針對深度學習研究需求,Google也宣布推出結合1000個Cloud TPU運算叢集構成的TensorFlow Research Cloud服務,將從即日起免費開放申請使用。

相比先前推出的TPU設計主要著重加速邏輯推理效率,主要應用在AlphaGo人工智慧系統,以及包含Google Search、Google Photos、Google翻譯、語音識別與Gmail垃圾信件判斷等項目,此次推出的第二代TPU則進一步著重在同時對應深度學習與邏輯推演兩種需求,藉此擴大TPU的應用範圍與規模,並且改善第一代TPU被人指稱僅能應用在特定邏輯推演領域情況。

根據Google說明,以Cloud TPU形式作為Google Compute Engine全新運算基礎的第二代TPU,每組約可發揮高達180TFLOPS運算效能,因此相比採用32張現行最好的商用GPU構成加速學習模式仍須花費一天左右訓練時間,透過第二代TPU設計僅需體積僅為八分之一大小的單一機架叢集 (Pod)以一個下午時間即可完成訓練。

同時,Google也同步宣布推出以1000組Cloud TPU運算叢集構成的TensorFlow Research Cloud服務,並且將以免費形式開放各類深度學習研究申請使用。

Google表示,目前已經廣泛地在Google Cloud雲端平台導入TPU加速運作模式,同時針對Google Compute Engine服務也將藉由增加第二代TPU設計,讓開發人員能針對不同學習目的選擇最佳運算模式。而在強調TPU帶來深度學習加速效率之餘,Google也認為不同的服務設計需求,原本就需要不同硬體架構對應最佳學習效果,因此開發者依然可選擇透過傳統CPU、GPU,例如Intel Skylake架構處理器或NVIDIA Volta架構顯示卡構成合適的訓練模式。

至於針對NVIDIA近期在GTC 2017揭曉採Volta架構的Tesla V100,其硬體架構也加入對應深度學習使用的Tensor Core核心設計,同時對應TensorFlow等學習框架使用,Google認為NVIDIA確實也看見TensorFlow學習框架普及應用的成長,並且認為新架構設計預期將能大幅推動深度學習應用。

不過,可同時對應深度學習與邏輯推演加速應用的第二代TPU推出,是否影響NVIDIA所提倡的GPU加速學習模式?其實還不見得會構成明顯影響,畢竟藉由GPU加速學習模式可對應的使用彈性依然很大,例如需要大規模邏輯判斷與深度學習混合運算,甚至針對自動駕駛車輛等終端應用,透過GPU產生的加速應用仍有其必要性,就像傳統透過大量CPU進行學習的使用模式仍有其最佳優勢,因此主要還是看人工智慧系統使用目的,進而挑選最佳合適的加速模式。

發表迴響

%d 位部落客按了讚: