強調軟硬體技術整合 Intel加倍投注人工智慧發展

除了宣布與Preferred Networks合作深度學習原始碼框架「Chainer」,Intel更宣布未來中新疆著重放在人工智慧技術發展,同時藉由結合本身處理器硬體資源與軟體技術,藉此強化人工智慧技術發展。

根據Intel的觀察,預計在2020年以前的每日平均資料量將呈現爆發式成長,因此電腦運算勢必迎接更大的改變,亦即導入深度學習的人工智慧技術,藉此推動全新資料演算模式,並且能以更快運算速度反應執行結果。

因此,相比其他同樣投入人工智慧技術演算發展公司,Intel強調將整合本身處理器硬體架構及軟體端技術資源,使本身成為以資料運算導向為主的公司,未來在人工智慧技術發展主軸依然會以PC為核心,並且持續藉由3D Xpoint記憶體技術、可以軟體編程的FPGA技術加速資料運算效率強化雲端服務、人工智慧與網絡運算等發展重點。

除此之外,Intel也強調將會在合適的時間點選則切入正確市場,並且攜手更多合作夥伴投入特定專業領域布局,在提供端到端技術解決方案之餘,預計可同時成為晶片硬體與軟體技術兼具發展的技術領先者。

由於現階段人工智慧技術依然處於初期發展規模,因此如何藉由電腦運算實現更具效率的深度學習,藉此形成執行效果更好的人工智慧表現,也成為目前兵家百爭市場競爭項目,而Intel也計畫在此技術領域加倍投入發展,希望以此改變傳統演算架構與全新資料使用模式。

以Intel的看法認為,2020年若資料持續維持爆炸式成長,藉由電腦推動人工智慧技術成長的運算能力至少必須提升12倍以上,因此除了在軟體框架、演算法持續強化之餘,硬體本身運算能力也必須有全新突破,例如先前與Google率先合作採用Skylake架構設計,並且提供Apache Spark可達18倍速度提升的Xeon E5系列處理器,或是改為Knights Mill架構設計的新款Xeom Phi,主要藉由全新處理器架構、記憶體運算模組加速整體運算效率,進而提昇更高學習需求。

不過,以現行推動巨量資料分析、人工智慧與深度學習等應用的高效能電腦 (HPC)多半均導入GPU進行平行運算,因此實際上並非僅藉由處理器效能推動全新運算模式,主要還是會看實際運算需求調整運算模型。而在多數運算架構中,同時整合輸出、輸入等控制指令的處理器,以及作為資料傳輸、緩衝依然扮演重要角色,因此成為Intel在深度學習、人工智慧運算重點發展項目。

目前Intel已經開始藉由Nervana運算平台將人工智慧技術用於端到端裝置連結運算,例如自動駕駛從裝置端的視覺感知運算道雲端協同運算等應用,而在醫學研究方面也與Michael J. Fox帕金森氏症研究基金會合作帕金森氏症治療、與安大略癌症研究中心等單位合作雲端醫療協作,其他更包含新藥研究、精簡醫院住院資源,或是建置可擴展遺傳疾病研究中心。

與諸多學習框架合作,強調本身具備完整人工智慧運算架構

在深度學習部分,Intel表示除持續擴展本身Neon學習框架,更將與Google TensorFlow、Preferred Networks Chainer等第三方學習框架合作,更針對人臉辨識、文字識別、語調學習等需求打造基礎學習模型,讓開發者能以此作為基礎,略加調整之後打造全新學習模型。

另外,針對目前ARM架構處理器近年來持續著重裝置端學習運算發展情況,Intel也強調本身同樣具備相同運算架構,同時具備雲端運算能力,藉此擴展更完整的人工智慧與雲端運算發展。而對於NVIDIA等廠商藉由GPU加速人工智慧技術發展模式,Intel則認為此類方式僅只是人工智慧技術發展模式的一部分,並不代表所有運算模式都是以此形式驅動。

[URIS id=52429]

發表迴響

%d 位部落客按了讚: