打破Google記錄,NVIDIA實現53分鐘完成訓練可自然對話的人工智慧語言模型

針對目前越來越多廠商投入發展的對話式人工智慧應用,NVIDIA稍早說明藉由超級電腦DGX SuperPOD進行加速,將可在短短53分鐘內完成總計達33億詞量的BERT預訓練語言模型,相比Google Brain今年在4月宣布藉由全新演算法LAMB,搭配內含1024組TPU晶片設計的第三代TPU Pod進行加速,前後需要76分鐘的表現更快。

依照先前公布消息,DGX SuperPOD是以96組NVIDIA DGX-2H (採用Tesla V100 32GB HBM2記憶體版本),並且搭配NVSwitch與Mellanox互連技術構成,總計連結1536組NVIDIA V100 Tensor Core GPU,形成高達9.4 petaflops運算處理能力,從建造到完成架設僅花費3週時間,主要用於加快自駕車系統發展使用。

而藉由此超級電腦進行加速運算,使得對話式人工智慧系統原本需要花費更長時間訓練情況,可以大幅縮減至53分鐘即可完成,同時反應時間僅在2.2毫秒內,其中可對應以83億組複雜參數內容構成的語言模型,藉此讓人工智慧能有更自然的人機對話效果。

為了推動更廣泛的對話式人工智慧技術應用,NVIDIA稍早也將相關軟體開源提供使用,讓更多開發者能以此建造完整的BERT預訓練語言模型,並且套用在不同使用需求。

在人工智慧技術持續發展之下,可對應自然對話、更能理解口語內容的人工智慧系統發展將變得更加重要,其中可分別應用在手機數位助理服務、無人商店、客服系統、醫療看護、自動駕駛、智慧城市、金融服務等領域,透過人工智慧完成基本服務項目,藉此讓人力分配可以更有效率。

發表迴響

%d 位部落客按了讚: