推動人工智慧應用 Intel與Preferred Networks開發深度學習原始碼框架

稍早於日本展開的AI Day活動裡,Intel宣布與日本人工智慧新創團隊Preferred Networks攜手合作,未來雙方將在深度學習應用開發原始碼框架架構「Chainer」,藉此讓基於Intel處理器的運算裝置能有更高處理效能表現,藉此推動人工智慧技術成長。

Intel與Preferred Networks於今日 (4/6)在日本展開的AI Day活動宣布,雙方將攜手開發為深度學習所設計的開放原始碼框架「Chainer」,讓採用Intel處理器的通用型基礎架構能加速深度學習運算效果,預期將可大量應用在物聯網、5G連網應用,以及大量人工智慧技術等項目,藉此推動全新資料運算應用發展。

由於過去針對特定領域的運算模式,通常需要花費時間等成本投入建置人工智慧應用與深度學習框架,同時也可能因為運算目的構成更大開發複雜難度,因此由Preferred Networks開發的深度學習框架「Chainer」,藉由簡單易用特性吸引多數業界開發者使用,因此加入Intel合作之下更可透過其處理器運算架構最佳化加速深度學習與人工智慧技術應用,讓開發者、企業能以此推動各類新技術加速成長。

以Python語言為基礎的「Chainer」,主要採用「Define-by-Run」特性,讓使用者能以簡單直覺方式設計複雜的類神經網路 (neural network)演算架構。從2015年6月全面開放原始碼設計後,「Chainer」陸續吸引產學業者關注,並且藉由其彈性框架將深度學習用於研究或實際應用等範疇。

除了與Intel攜手合作,Preferred Networks日前也已經與Toyota、Fanuc、NTT、NVIDIA、Cisco等廠商合作,並且將旗下技術廣泛用於各類深度學習應用項目,其中包含車聯網、物聯網相關人工智慧學習模型,同時相比Google先前同樣開源使用的TensorFlow等學習框架,「Chainer」強調能以更短時間完成學習訓練,其中主因在於導入裝置端的深度學習應用。

目前Intel已將旗下Xeon處理器、Xeon Phi處理器、Arria 10 FPGA架構設計、Nervana技術等產品,藉由處理器運算效能與軟體定義方式推動深度學習與人工智慧技術應用。在與Preferred Networks合作深度學習原始碼框架此框架「Chainer」之後,雙方將採用高度最佳化的開放原始碼程式庫Intel Math Kernel Library (MKL),以及Intel Math Kernel Library Deep Neural Network (MKL-DNN)作為基礎建構元素。

透過此項合作案,Intel與PFN將攜手進行以下合作項目:

  • 持續針對Chainer在Intel處理器架構 (Intel Architecture,IA)的效能進行最佳化。
  • 持續針對Chainer的更新作調整。
  • 持續針對Chainer進行最佳化以更新至廣用型運算、加速器、程式庫以及其他應用的英特爾架構。
  • 透過英特爾的GitHub儲存庫 (https://github.com/intel/chainer) 與社群分享雙方共同開發原始碼的成果。
  • 推廣多項聯合行銷活動以加速人工智慧、深度學習市場的成長。

發表迴響

%d 位部落客按了讚: