將中階機種顯示效能提昇 ARM期望讓人工智慧運算模式成為市場主流

相較先前多數針對裝置端的學習應用均以高階行動裝置為主,在ARM此次宣布更新的Mali多媒體IP套件,以及稍早推出的Project Trillium設計平台,除了希望能讓裝置端有更高運算效率,更計畫讓機器學習運算方式在更多終端裝置普及應用,使人工智慧技術成為主流運算模式。

在此次更新的Mali多媒體IP套件所做提昇,其中包含針對中階硬體規格裝置提昇顯示效能明顯提昇,藉此提昇手機端等產品上的高解析影音內容、3D遊戲、HDR內容,以及包含虛擬實境、擴增實境在內虛擬視覺應用,此外也藉由GPU加速、支援主流學習框架應用,讓更多終端裝置能支援機器學習應用,進而發揮人工智慧運算模式,並且提昇裝置端運算效率,同時降低整體電力損耗。

從ARM日前提出的Project Trillium設計平台來看,可以理解ARM所提出裝置端機器學習應用,分別區分以既有硬體搭配軟體的學習模式,或是額外透過ARM ML架構、ARM OD架構處理器輔助加速運算的學習模式,藉此對應不同使用需求的應用領域。而此次藉由提昇Mali多媒體IP套件運算效能,並且讓更多中階裝置也能藉由GPU效能加速獲取更高機器學習效率,讓人工智慧技術應用可在更多裝置端普及。

就ARM看法認為,若以中階裝置硬體規格與市場銷售定價來看,搭載獨立機器學習運算元件的設計模式可能無法符合成本效益,同時也較難在市場達成普及目標,因此藉由現有硬體架構,與軟體設計,配合將高階處理器的架構設計與技術下放,讓更多中階機種也能享有等同高階機種的機器學習效率,如此才能讓人工智慧運算成為市場主流。

而針對目前裝置端的學習應用模式,ARM基本上還是認為是以實際應用層面作為考量,不一定就是採用獨立運算元件的學習加速模式就是最佳解決方案,例如需要有更具彈性的指令架構變更時,採用既有硬體搭配軟體方式將會有更多元應用效益。

以現階段的人工智慧應用模式,ARM表示無論是基於既有硬體架構,或是搭配獨立運算元件的加速學習模式,其實都能符合裝置端的學習應用,最終還是看實際應用層面需求,以ARM立場來看的話,自然是針對兩種應用模式都有提供對應的設計方案,例如在Project Trillium設計平台便同時提供兩種以上的機器學習運算模式,讓合作夥伴能依據實際需求打造最佳架構配置模式,甚至也能搭配自有核心架構設計的CPU,或是客製化GPU、特定獨立學習加速運算元件打造截然不同的裝置端人工智慧技術應用成效。

發表迴響

%d 位部落客按了讚: