從終端運算到雲端加速 NVIDIA期望持續推動更大規模的人工智慧成長

去年推出對應終端裝置到資料中心規模應用的雲端服務NVIDIA GPU Cloud之後,NVIDIA執行長黃仁勳表示目前已經有超過2萬家企業組織加入,同時也與超過30種雲端容器技術合作,並且支援Google Cloud、AWS、阿里雲、DGX、Oracle Cloud等雲端服務串接,而在未來持續推動人工智慧技術成長,NVIDIA更宣布推出TensorRT 4.0、整合TensorFlow、支援Kaldi語音分析加速、並且對應微軟、亞馬遜等廠商推動開放學習框架ONNX,以及微軟推動的Windows ML,並且說明目前在影像、影片等內容分析學習速度已經比傳統處理器運算模式提升190倍,而自然語言分析也能提升50倍以上。

此外,NVIDIA也宣布與自動化容器操作開源平台Kubernetes攜手合作,未來將使在NVIDIA GPU Cloud平台上運作的雲端容器能以自動化形式決定最佳運作模式,藉此讓雲端學習運算模式能進一步優化。但目前NVIDIA與Kubernetes的合作仍在進行當中,因此雙方依然在彼此技術整合進行調整,但預期未來將能讓基於雲端加速運作的學習模式能有更好的容器分配,同時藉此串接不同服務項目,使深度學習分析效果更具效率,同時也能對應大規模的資料學習應用。

目前NVIDIA也與亞馬遜、Facebook、微軟等合作,並且持續推動ONNX、Caffe 2、Chainer、CNTK、MXNet與Pytorch等學習框架應用,藉此將更多學習分析運算可藉由串接NVIDIA GPU Cloud平台進行加速。

NVIDIA強調,藉由GPU電腦視覺運算加速推動之下,將能加快影像分析、自然語言辨識、邏輯推論、自動駕駛、機器人,乃至於、醫療照護、智慧城市與智慧製造等應用,並且說明未來將會持續推動基於GPU加速的人工智慧技術成長。

發表迴響

%d 位部落客按了讚: